Non ho una scheda LLM sul mio dispositivo; ho solo queste opzioni nella pagina principale delle impostazioni dell’IA

Non ho una scheda LLM sul mio dispositivo; ho solo queste opzioni nella pagina principale delle impostazioni dell’IA

Come è stata installata la tua istanza? Stai eseguendo l’ultima versione di Discourse? Puoi provare in modalità sicura senza alcuna personalizzazione?
Ho provato la modalità provvisoria, ma non ha funzionato nulla. Il software è stato installato su un Raspberry Pi 5 con Raspberry Pi OS Lite e Docker. Attualmente sto usando la versione 3.6.0.beta3-latest.
Dovrai aggiornare almeno alla versione più recente. Dovresti essere su Discourse v2025.11.0-latest.
grazie, lo farò subito
ok come procedo per l’aggiornamento all’ultima versione
Se si tratta di un’installazione standard basata su docker, ./launcher rebuild app farà al caso vostro.
Sono completamente aggiornato ora, grazie amico, ma come procedo ora per usare uno dei miei modelli self-hosted sul mio Raspberry Pi con Ollama, se è anche solo possibile?
Sebbene sia possibile, ospitare sia un LLM completo che Discourse sul Pi molto probabilmente ti lascerà con prestazioni insoddisfacenti per entrambi.
Falco lo fa davvero
Ho provato ad eseguire Ollama su un Pi. Ci ha messo così tanto che ha rinunciato a connettersi. A meno che tu non disponga di una buona quantità di risorse, eseguire Ollama su un Pi con 4 GB di RAM non è la migliore idea. Non sono sicuro che lo swap aiuterebbe molto.
Su una nota simile ma fuori tema, nella mia esperienza, eseguire un ambiente di sviluppo Discourse su un Pi con 4 GB di RAM senza swap su una scheda SD non funziona. Ma questo è un altro discorso.