Discourse AI - Pagina delle impostazioni del Large Language Model (LLM)

:bookmark: Questa guida copre la pagina delle impostazioni LLM che fa parte del plugin Discourse AI.

:person_raising_hand: Livello utente richiesto: Amministratore

La pagina delle impostazioni dedicata è progettata per avere tutto ciò che riguarda i modelli linguistici di grandi dimensioni (LLM) utilizzati per le funzionalità di Discourse AI in un unico posto.

:raised_hand_with_fingers_splayed: A seconda della funzionalità di Discourse AI abilitata, potrebbe essere necessario un LLM. Si prega di controllare ciascuna funzionalità di Discourse AI per sapere se un LLM è un prerequisito.


Funzionalità

  • Aggiungi nuovi modelli, con informazioni precompilate
  • Aggiungi modelli personalizzati non menzionati
  • Configura le impostazioni LLM
  • Consenti l’uso di LLM specifici per l’AI Bot
    • Vedi il nome utente dell’AI Bot
  • Abilita il supporto visivo (dipendente dal modello)
  • Configura i tipi di allegati consentiti
  • Imposta le quote di utilizzo per gruppo
  • Traccia i costi dei token di input/output
  • Prova
  • Salva impostazioni

Aggiungere connessioni LLM

  1. Vai su AmministrazionePluginAI
  2. Vai alla scheda LLM
  3. Aggiungi una nuova connessione, scegli il tuo modello
  4. Aggiungi la chiave API (a seconda del modello, potresti dover inserire manualmente più campi) e salva
  5. (Opzionale) Prova la tua connessione per assicurarti che funzioni

LLM supportati

:person_tipping_hand: Puoi sempre aggiungere un’opzione personalizzata se non vedi il tuo modello elencato. I modelli supportati vengono aggiunti continuamente. I modelli preconfigurati sono modelli — puoi sempre ottenere lo stesso risultato utilizzando la “Configurazione manuale”.

Anthropic

  • Claude Opus 4.6
  • Claude Sonnet 4.6
  • Claude Haiku 4.5

Google

  • Gemini 3 Pro
  • Gemini 3 Flash

OpenAI

  • GPT-5.4
  • GPT-5 Mini
  • GPT-5 Nano

Open Router

  • DeepSeek V3.2
  • Moonshot Kimi K2.5
  • xAI Grok 4 Fast
  • MiniMax M2.5
  • Z-AI GLM-5
  • … e molti altri

Inoltre, i clienti ospitati possono utilizzare l’LLM piccolo ospitato da CDCK preconfigurato nella pagina delle impostazioni. Questo è un LLM a pesi aperti ospitato da Discourse, pronto per essere utilizzato per alimentare le funzionalità AI.

Campi di configurazione

:information_source: Vedrai solo i campi rilevanti per il tuo provider LLM selezionato. Si prega di ricontrollare eventuali campi precompilati con il provider appropriato, come Nome modello

Campi principali:

  • Nome visualizzato — il nome descrittivo mostrato nei menu a discesa
  • Nome modello — l’identificatore del modello inviato all’API (es. claude-sonnet-4-6, gpt-5.2)
  • Provider — il servizio che ospita il modello (es. Anthropic, OpenAI, Google, AWS Bedrock, Azure, Open Router, ecc.)
  • URL — l’URL dell’endpoint API (non mostrato per AWS Bedrock)
  • Chiave API — configurata tramite il sistema AI Secrets
  • Tokenizer
  • Token prompt max — controlla il ritaglio del prompt per evitare richieste troppo grandi
  • Token output max
  • Costo input / Costo output — costo per milione di token, utilizzato per il monitoraggio dell’utilizzo
  • Costo input cache / Costo scrittura cache — per i provider che supportano la memorizzazione nella cache del prompt
  • Visione abilitata — abilita la comprensione delle immagini (dipendente dal modello)
  • Tipi di allegati consentiti — tipi di file che il modello può elaborare

Campi specifici del provider (mostrati dinamicamente in base al provider selezionato):

  • AWS Bedrock: ID chiave di accesso, ARN ruolo, Regione, opzioni di ragionamento/pensiero, Memorizzazione nella cache del prompt
  • Anthropic: opzioni di ragionamento, Memorizzazione nella cache del prompt
  • OpenAI: ID organizzazione, Sforzo di ragionamento, Livello di servizio
  • Google: Abilita pensiero, Livello di pensiero
  • Open Router: Ordine provider, Quantizzazioni provider

Quote (disponibili dopo il salvataggio iniziale):

  • Le quote di utilizzo per gruppo possono essere configurate con token massimi, utilizzi massimi e durata

FAQ Tecniche

Cos’è un tokenizer?

  • Il tokenizer traduce le stringhe in token, che è ciò che un modello utilizza per comprendere l’input.

Quale numero devo usare per Token prompt max ?

  • Una buona regola pratica è il 50% della finestra di contesto del modello, che è la somma di quanti token invii e quanti token generano. Se il prompt diventa troppo grande, la richiesta fallirà. Quel numero viene utilizzato per tagliare il prompt e prevenire che ciò accada

Avvertenze

  • A volte potresti non vedere il modello che volevi usare elencato. Anche se puoi aggiungerli manualmente, supporteremo i modelli più popolari man mano che escono.
11 Mi Piace

È troppo difficile, non so come fare. Spero di poter aggiornare tutorial specifici su varie IA, come le impostazioni di accesso di Google.

1 Mi Piace

Abbiamo migliorato molto l’interfaccia utente la scorsa settimana, puoi riprovarci?

3 Mi Piace

Quando sarà supportato Gemini 2.0?

Supportato da parecchio tempo.

4 Mi Piace

Sembra che abbia un problema in cui non riesco a selezionare un LLM anche se ho configurato quelli ospitati dal CDCK..

È normale?

2 Mi Piace

C’è molto da scoprire qui, quale LLM stai cercando di scegliere per cosa?

Gli LLM CDCK sono disponibili solo per funzionalità molto specifiche, per vedere quali devi andare su /admin/whats-new sulla tua istanza e fare clic su “mostra solo funzionalità sperimentali”, dovrai abilitarle per sbloccare l’LLM CDCK su funzionalità specifiche.

Qualsiasi LLM che definisci al di fuori degli LLM CDCK è disponibile per tutte le funzionalità.

4 Mi Piace

Esiste anche un argomento che fornisca una panoramica generale del miglior rapporto costo/qualità? O anche quale LLM può essere utilizzato gratuitamente per una piccola community e funzionalità di base? Posso approfondire i dettagli e sperimentare. Ma ho poco tempo.

Ad esempio, mi interessa solo il rilevamento dello spam e un filtro per parolacce. Avevo questa funzionalità gratuitamente, ma quei plugin sono deprecati o lo saranno presto. Sarebbe bello se potessi mantenere questa funzionalità senza dover pagare per un LLM.

3 Mi Piace

Abbiamo questo argomento, che potrebbe essere quello che stai cercando.

2 Mi Piace

Fatto! È stato davvero abbastanza facile. Ma forse per un non tecnico potrebbe essere ancora un po’ difficile da configurare. Ad esempio, il nome del modello è stato impostato automaticamente nelle impostazioni, ma non era quello corretto. Fortunatamente ho riconosciuto il nome del modello in un esempio curl per Claude sulla pagina API e poi ha funzionato :tada:

I costi stimati sono forse 30 centesimi di euro al mese per il controllo dello spam (non ho un forum enorme). Quindi è gestibile! Ho impostato un limite di 5 euro nella console API, per ogni evenienza.

1 Mi Piace

Quale hai scelto per Claude? Qual era il nome errato mostrato e a cosa l’hai corretto?

1 Mi Piace

Utilizzo Claude 3.5, l’ID del modello di default è claude-3-5-haiku, ma ho dovuto cambiarlo in claude-3-5-haiku-20241022, altrimenti ricevevo un errore.

1 Mi Piace

Buono a sapersi, sì, a volte potrebbe esserci una disconnessione. Le informazioni precompilate dovrebbero fungere da guida, il che tende a funzionare la maggior parte delle volte, ma in certi casi come il tuo (considerando tutti i diversi modelli e le configurazioni del provider) non è sufficiente.

Ho aggiornato l’OP di questa guida.

1 Mi Piace

Questo modello non è elencato su 3.4.2: quelle pre-configurazioni sono disponibili solo su 3.5 e devo aggiungerle manualmente?

Modifica: Inoltre, quale opzione devo scegliere per “Tokenizer” quando utilizzo i modelli Grok 3?

Le pre-config sono semplicemente modelli, puoi ottenere lo stesso risultato finale utilizzando la “Configurazione manuale”.

Ho scoperto che il tokenizer Gemini è abbastanza vicino a quello di Grok, quindi prova quello.

2 Mi Piace

È possibile utilizzare IBM WatsonX tramite la configurazione di gestione corrente, o ciò richiederebbe ulteriore lavoro di sviluppo da parte dello staff di Discourse?

Per caso, IBM WatsonX espone un’API compatibile con OpenAI?

Ottima domanda. Una rapida scorsa alla documentazione non mi ha detto molto, ma il fatto che questo repository esista suggerisce che non è direttamente compatibile: GitHub - aseelert/watsonx-openai-api: Watsonx Openai compatible API

Quali di questi LLM sono gratuiti da usare per l’anti-spam?

Modifica: Lascia perdere, sto usando Gemini Flash 2.5

Mi chiedo sempre anch’io. Questa sembra la migliore risposta a quella domanda.

Ma c’è anche questo nell’OP dall’argomento Spam config. Penso che sia solo un po’ difficile da trovare in tutte le informazioni presenti.

1 Mi Piace