Fantastico! Ben fatto!
Nel processo di diagnosi, ho trovato un altro bug: nella pagina di configurazione LLM (/admin/plugins/discourse-ai/ai-llms/%/edit), selezionando una delle opzioni "Disabilita il supporto nativo degli strumenti (usa strumenti basati su XML) (facoltativo)" o "Disabilita il completamento in streaming (converti le richieste in streaming in richieste non in streaming)" e facendo clic su Salva viene visualizzato un toast temporaneo "Successo!", ma ricaricando la pagina entrambe o una delle opzioni risulta deselezionata.
I problemi di reimpostazione della connessione persistono e ci sto ancora lavorando, tuttavia sembra essere una combinazione del codice Ruby (FinalDestination / risoluzione DNS / Faraday) nella gestione dei socket, combinato con un container Debian 12 su una VM Ubuntu 24.04.
Ho avviato una VM di test Ubuntu 22.04 e non ci sono problemi, tutti gli embedding e l’inferenza funzionano perfettamente. Non ho visto un singolo reset.
Continuerò a lavorarci, forse è correlato a un modo innovativo con cui Ubuntu 24.04 gestisce lo stack TCP con netplan.