Questa guida copre la pagina delle impostazioni LLM che fa parte del plugin Discourse AI.
Livello utente richiesto: Amministratore
La pagina delle impostazioni dedicata è progettata per avere tutto ciò che riguarda i modelli linguistici di grandi dimensioni (LLM) utilizzati per le funzionalità di Discourse AI in un unico posto.
A seconda della funzionalità di Discourse AI abilitata, potrebbe essere necessario un LLM. Si prega di controllare ciascuna funzionalità di Discourse AI per sapere se un LLM è un prerequisito.
Aggiungi nuovi modelli, con informazioni precompilate
Aggiungi modelli personalizzati non menzionati
Configura le impostazioni LLM
Consenti l’uso di LLM specifici per l’AI Bot
Vedi il nome utente dell’AI Bot
Abilita il supporto visivo (dipendente dal modello)
Configura i tipi di allegati consentiti
Imposta le quote di utilizzo per gruppo
Traccia i costi dei token di input/output
Prova
Salva impostazioni
Aggiungere connessioni LLM
Vai su Amministrazione → Plugin → AI
Vai alla scheda LLM
Aggiungi una nuova connessione, scegli il tuo modello
Aggiungi la chiave API (a seconda del modello, potresti dover inserire manualmente più campi) e salva
(Opzionale) Prova la tua connessione per assicurarti che funzioni
LLM supportati
Puoi sempre aggiungere un’opzione personalizzata se non vedi il tuo modello elencato. I modelli supportati vengono aggiunti continuamente. I modelli preconfigurati sono modelli — puoi sempre ottenere lo stesso risultato utilizzando la “Configurazione manuale”.
Anthropic
Claude Opus 4.6
Claude Sonnet 4.6
Claude Haiku 4.5
Google
Gemini 3 Pro
Gemini 3 Flash
OpenAI
GPT-5.4
GPT-5 Mini
GPT-5 Nano
Open Router
DeepSeek V3.2
Moonshot Kimi K2.5
xAI Grok 4 Fast
MiniMax M2.5
Z-AI GLM-5
… e molti altri
Inoltre, i clienti ospitati possono utilizzare l’LLM piccolo ospitato da CDCK preconfigurato nella pagina delle impostazioni. Questo è un LLM a pesi aperti ospitato da Discourse, pronto per essere utilizzato per alimentare le funzionalità AI.
Campi di configurazione
Vedrai solo i campi rilevanti per il tuo provider LLM selezionato. Si prega di ricontrollare eventuali campi precompilati con il provider appropriato, come Nome modello
Campi principali:
Nome visualizzato — il nome descrittivo mostrato nei menu a discesa
Nome modello — l’identificatore del modello inviato all’API (es. claude-sonnet-4-6, gpt-5.2)
Provider — il servizio che ospita il modello (es. Anthropic, OpenAI, Google, AWS Bedrock, Azure, Open Router, ecc.)
URL — l’URL dell’endpoint API (non mostrato per AWS Bedrock)
Chiave API — configurata tramite il sistema AI Secrets
Tokenizer
Token prompt max — controlla il ritaglio del prompt per evitare richieste troppo grandi
Token output max
Costo input / Costo output — costo per milione di token, utilizzato per il monitoraggio dell’utilizzo
Costo input cache / Costo scrittura cache — per i provider che supportano la memorizzazione nella cache del prompt
Visione abilitata — abilita la comprensione delle immagini (dipendente dal modello)
Tipi di allegati consentiti — tipi di file che il modello può elaborare
Campi specifici del provider (mostrati dinamicamente in base al provider selezionato):
AWS Bedrock: ID chiave di accesso, ARN ruolo, Regione, opzioni di ragionamento/pensiero, Memorizzazione nella cache del prompt
Anthropic: opzioni di ragionamento, Memorizzazione nella cache del prompt
OpenAI: ID organizzazione, Sforzo di ragionamento, Livello di servizio
Google: Abilita pensiero, Livello di pensiero
Open Router: Ordine provider, Quantizzazioni provider
Quote (disponibili dopo il salvataggio iniziale):
Le quote di utilizzo per gruppo possono essere configurate con token massimi, utilizzi massimi e durata
FAQ Tecniche
Cos’è un tokenizer?
Il tokenizer traduce le stringhe in token, che è ciò che un modello utilizza per comprendere l’input.
Quale numero devo usare perToken prompt max?
Una buona regola pratica è il 50% della finestra di contesto del modello, che è la somma di quanti token invii e quanti token generano. Se il prompt diventa troppo grande, la richiesta fallirà. Quel numero viene utilizzato per tagliare il prompt e prevenire che ciò accada
Avvertenze
A volte potresti non vedere il modello che volevi usare elencato. Anche se puoi aggiungerli manualmente, supporteremo i modelli più popolari man mano che escono.
C’è molto da scoprire qui, quale LLM stai cercando di scegliere per cosa?
Gli LLM CDCK sono disponibili solo per funzionalità molto specifiche, per vedere quali devi andare su /admin/whats-new sulla tua istanza e fare clic su “mostra solo funzionalità sperimentali”, dovrai abilitarle per sbloccare l’LLM CDCK su funzionalità specifiche.
Qualsiasi LLM che definisci al di fuori degli LLM CDCK è disponibile per tutte le funzionalità.
Esiste anche un argomento che fornisca una panoramica generale del miglior rapporto costo/qualità? O anche quale LLM può essere utilizzato gratuitamente per una piccola community e funzionalità di base? Posso approfondire i dettagli e sperimentare. Ma ho poco tempo.
Ad esempio, mi interessa solo il rilevamento dello spam e un filtro per parolacce. Avevo questa funzionalità gratuitamente, ma quei plugin sono deprecati o lo saranno presto. Sarebbe bello se potessi mantenere questa funzionalità senza dover pagare per un LLM.
Fatto! È stato davvero abbastanza facile. Ma forse per un non tecnico potrebbe essere ancora un po’ difficile da configurare. Ad esempio, il nome del modello è stato impostato automaticamente nelle impostazioni, ma non era quello corretto. Fortunatamente ho riconosciuto il nome del modello in un esempio curl per Claude sulla pagina API e poi ha funzionato
I costi stimati sono forse 30 centesimi di euro al mese per il controllo dello spam (non ho un forum enorme). Quindi è gestibile! Ho impostato un limite di 5 euro nella console API, per ogni evenienza.
Utilizzo Claude 3.5, l’ID del modello di default è claude-3-5-haiku, ma ho dovuto cambiarlo in claude-3-5-haiku-20241022, altrimenti ricevevo un errore.
Buono a sapersi, sì, a volte potrebbe esserci una disconnessione. Le informazioni precompilate dovrebbero fungere da guida, il che tende a funzionare la maggior parte delle volte, ma in certi casi come il tuo (considerando tutti i diversi modelli e le configurazioni del provider) non è sufficiente.
È possibile utilizzare IBM WatsonX tramite la configurazione di gestione corrente, o ciò richiederebbe ulteriore lavoro di sviluppo da parte dello staff di Discourse?