Configurazione delle quote di utilizzo di LLM in Discourse AI

:bookmark: Questa guida spiega come configurare e gestire le quote di utilizzo per i Large Language Models (LLM) in Discourse AI.

:person_raising_hand: Livello utente richiesto: Amministratore

Sommario

Le Quote di Utilizzo LLM consentono agli amministratori di controllare e monitorare il consumo di risorse AI impostando limiti sull’utilizzo di token e sulle interazioni per diversi gruppi di utenti. Questo aiuta a mantenere l’efficienza dei costi garantendo al contempo un accesso equo alle funzionalità AI in tutta la community.

Configurazione

Accesso alle impostazioni delle quote

  1. Navigare nel pannello di amministrazione del sito
  2. Andare su Admin > Plugins > Discourse AI > LLMs
  3. Selezionare il modello LLM che si desidera configurare

Impostazione delle quote

Per ogni gruppo di utenti è possibile configurare:

  • Utilizzo massimo di token
  • E/O Numero massimo di interazioni AI
  • Durata del periodo di ripristino

Deve essere impostato almeno uno tra token massimi o utilizzi massimi per ogni quota.

:notepad_spiral: Nota: Il gruppo “everyone” (tutti) non può avere una quota assegnata. È necessario utilizzare gruppi specifici (ad esempio, gruppi di livello di fiducia o gruppi personalizzati).

Opzioni di durata

Scegliere tra periodi di ripristino predefiniti:

  • 1 ora
  • 6 ore
  • 24 ore
  • 7 giorni
  • Durata personalizzata (specificata in ore)

Monitoraggio dell’utilizzo

Visualizzazione delle statistiche

Gli amministratori possono monitorare il consumo di token e di utilizzo alla seguente pagina: https://SITENAME/admin/plugins/discourse-ai/ai-usage

  1. Navigare su Admin > Plugins > Discourse AI
  2. Selezionare la scheda “Usage” (Utilizzo)
  3. Filtrare per intervallo di date, gruppo di utenti o metriche specifiche

Esperienza utente

Notifiche di quota

Gli utenti ricevono un feedback chiaro quando si avvicinano o raggiungono i limiti di quota:

  • Stato di utilizzo corrente
  • Tempo fino al prossimo ripristino della quota

Messaggi di errore

Quando una quota viene superata, gli utenti vedono:

  • Una notifica chiara che il limite di quota è stato raggiunto
  • Il tempo rimanente fino al loro prossimo ripristino della quota

Best practice

  1. Iniziare in modo conservativo: Iniziare con quote più basse e regolare in base ai modelli di utilizzo effettivi
  2. Allocazione basata sui gruppi: Assegnare quote diverse in base alle esigenze e ai ruoli dei gruppi di utenti
  3. Monitoraggio regolare: Rivedere i modelli di utilizzo per ottimizzare le impostazioni delle quote
  4. Comunicazione chiara: Informare gli utenti sui limiti di quota e sui periodi di ripristino

Problemi comuni e soluzioni

Problema: Gli utenti raggiungono frequentemente i limiti

Soluzione: Considerare:

  • Aumentare i limiti di quota per gruppi specifici
  • Ridurre il periodo di ripristino
  • Creare gruppi specializzati per utenti con uso elevato

Problema: Quote non utilizzate

Soluzione:

  • Ridurre i limiti per ottimizzare l’allocazione delle risorse
  • Rivedere le assegnazioni dei gruppi per garantire che le quote corrispondano alle esigenze degli utenti

FAQ

D: Le quote non utilizzate vengono riportate al periodo successivo?
R: No, le quote si azzerano completamente alla fine di ogni periodo.

D: Modelli LLM diversi possono avere quote diverse?
R: Sì, le quote possono essere configurate indipendentemente per ogni LLM.

D: Cosa succede se vengono impostate più quote per un singolo LLM?
R: Le quote sono basate sul gruppo e applicate per utente. Affinché un utente superi la quota, deve superare la quota in tutti i gruppi. Ciò significa che se si assegna agli amministratori una quota molto flessibile e al livello di fiducia 1 una più restrittiva, la quota dell’amministratore verrà applicata agli amministratori.

D: Cosa succede se non viene applicata alcuna quota a un LLM?
R: Non succederà nulla di speciale, tutto l’utilizzo dell’LLM non sarà monitorato (unmetered).

D: Come posso impostare quote diverse per funzionalità diverse?
R: Discourse AI ti consente di definire più LLM che contattano tutti lo stesso endpoint e possono persino riutilizzare le chiavi, se desideri assegnare una quota all’AI helper e una diversa all’AI Agent, definisci 2 LLM.

D: Come si rimuove una quota?
R: Eliminare la quota dalla pagina di configurazione del modello LLM. Non c’è modo di “mettere in pausa” o disabilitare temporaneamente una quota: deve essere eliminata e ricreata.

Risorse aggiuntive

11 Mi Piace

Sembra che non possiamo proibire completamente a un gruppo di utilizzare un modello specifico impostando la quota a 0.

Potresti aggiungere il supporto per questa impostazione?

Mi dispiace, puoi espandere qui. Ogni funzionalità è anche limitata a un gruppo, quindi puoi comunque abilitare l’helper solo per un sottoinsieme di utenti.

Vorrei che alcuni modelli premium fossero riservati solo a gruppi specifici. Sarebbe fantastico se potessimo impostare la quota di un modello a 0 per disabilitare l’accesso a determinati gruppi.

2 Mi Piace

Sì, è un problema interessante. Ci penserò.

Potresti voler che l’assistente utilizzi GPT4o per il “gruppo speciale 1” e GPT4o mini per il resto delle persone.

Al momento, ti consentiamo solo di selezionare un modello per l’assistente AI, quindi sarebbe necessaria una modifica piuttosto importante per supportare questa funzionalità.

@Falco / @Saif / @awesomerobot, qualcosa a cui pensare.

5 Mi Piace