Argomentando a favore di una funzione di limite massimo sull'uso dei gruppi utente AI per bot AI e AI Helper

Ho fatto alcuni calcoli e sono giunto alla conclusione che senza la possibilità di limitare l’input e l’output di token mensili o giornalieri di un utente, ci si può facilmente cacciare nei guai. Attualmente, l’unico modo per limitare l’interazione di un utente con un bot AI è consentire ai bot AI solo in PM (disabilitando la chat per ogni persona) e impostare un limite di PM giornalieri consentiti, ma ovviamente questo non è realistico. Ecco un esempio di ripartizione dei costi in uno “scenario peggiore” che giustifica la necessità di questa funzionalità, utilizzando l’approccio che OpenAI adotta per i suoi membri di chatGPT:

GPT-4o mini con 32k di contesto (P.S. la lunghezza del contesto è impostata utilizzando l’impostazione “Numero di token per il prompt” nella pagina delle impostazioni LLM)
Costo attuale: $0,15 1M input / $0,60 1M output

Supponiamo che l’utente inserisca 32k e produca 16k ogni giorno per 30 giorni (un ciclo di fatturazione per un abbonamento tipico):
Costo dell’input mensile = 960.000 token = ~$0,14
Costo dell’output mensile = 480.000 token = ~$0,28

Ok, in realtà non è male, vero? Meno di mezzo dollaro. Tuttavia, questo è in realtà un utilizzo piuttosto basso, soprattutto considerando che GPT-4o mini può generare fino a 16,4k token in un singolo colpo (anche se sì, ovviamente puoi progettare il prompt e le impostazioni LLM per evitarlo). Puoi iniziare a moltiplicare quei costi per quanto pensi che i tuoi utenti utilizzerebbero il bot AI. La parte peggiore è che questo è un modello incredibilmente economico; i costi sono esponenzialmente più alti per Claude 3.5 Sonnet ($3 1M input / $15 1M output) e GPT-4o ($5 1M input / $15 1M output) - e non parliamo nemmeno di GPT-4 Turbo lol. Ecco la stessa ripartizione per Claude 3.5 Sonnet:

Claude 3.5 Sonnet con 32k di contesto
Costo dell’input mensile = ~$2,88
Costo dell’output mensile = ~$7,20
Totale = ~$10,08

Ma di nuovo; questo è un utilizzo basso. Diventa quindi chiaro quanto possa diventare costoso avere un uso illimitato di LLM nei bot AI. Se moltiplichi questo per 2, dovresti addebitare un abbonamento di $25 per ottenere un profitto di poco meno di $5 :grimacing:

:bullseye: Ecco cosa propongo formalmente:

  1. Un’impostazione che consenta una specifica quantità di input e output di token per un gruppo di utenti specificato ogni mese o giorno per i bot AI.
  • Questo utilizzo dei token NON includerebbe il prompt di sistema per le persone.
  • I limiti di token possono essere per LLM, per persona o universali/complessivi.
  1. In alternativa al punto 1, si potrebbe utilizzare un semplice limite intero per l’utilizzo di bot AI in DM e PM. Esempio: limite di 100 DM a qualsiasi persona al giorno.
  2. Un’impostazione che consenta una specifica quantità di output di token per un gruppo di utenti specificato ogni mese o giorno per l’assistente AI.
  • L’input di token può non essere conteggiato poiché sarebbe impraticabile aspettarsi che l’utente indovini quanti token ha un argomento lungo quando, ad esempio, genera un riassunto.
  • Potrebbe anche essere saggio imporre un limite intero rigido alla lunghezza (in parole in modo che TikToken non debba essere utilizzato qui) per i prompt personalizzati in modo che gli utenti non tentino di aggirare i loro limiti mensili/giornalieri utilizzando il Composer come un chatbot illimitato :smiling_face_with_sunglasses:
  1. Un contatore di token nel profilo dell’utente e forse anche nei suoi PM e DM. Sarebbe bello se ci fosse un piccolo testo accanto a ogni messaggio dell’utente e dell’AI che visualizza il numero di token che è (non vogliamo necessariamente consentire a tutti la funzione di debug, e questa funziona solo nei PM).
  • Un contatore di token separato per l’assistente AI (per aiutare a mantenere separate queste due funzionalità) che condivide un conteggio tra spiegazione, correzione, prompt personalizzato, ecc…

Nota a margine: non sto criticando questa funzionalità né gli sviluppatori in alcun modo e mi scuso se una parte di ciò dovesse sembrare tale. Onestamente, il plugin Discourse AI è una delle mie tecnologie preferite di tutti i tempi. In realtà, mi sta permettendo di costruire il mio business da sogno come ricercatore ed educatore AI senza dover assumere ingegneri aggiuntivi e pagare per infrastrutture aggiuntive: posso configurare tutto da solo :heart:. Penso semplicemente che questa funzionalità sia l’ultimo tassello del puzzle non solo per me, ma per numerosi altri utenti Discourse che vogliono consentire ai propri utenti di godere di questa meravigliosa tecnologia con moderazione.

1 Mi Piace

Questo è stato implementato in Discourse Chatbot come sistema di quote settimanali nel marzo '23 ed è stato da allora ampliato in modo da poter definire quote per tre diverse raccolte di gruppi di utenti. Ad esempio, i membri paganti ottengono una quota più alta.

Agli utenti che superano la loro quota settimanale viene mostrato un messaggio cortese (che non ti costa nulla).

Inoltre, gli amministratori possono essere avvisati quando viene superata una quota.

Ti ho inviato un messaggio privato al riguardo in risposta a uno dei tuoi post precedenti su questo argomento, ma non hai risposto :thinking: Forse sei ospitato e non hai accesso al mio plugin?

A dire il vero, con l’avvento di GPT 4o-mini i costi per conversazioni decenti con bot sono crollati.

A proposito, Discourse Chatbot è ora utilizzato da almeno un’azienda per il supporto clienti di prima linea, quindi puoi essere sicuro che sia stabile ed efficace.

2 Mi Piace

Mi scuso per la mancanza di risposta! Ricordo di averlo letto ora, ma non ho idea del perché non abbia risposto :face_with_spiral_eyes:. E sono su un droplet, quindi non è quello il problema.

Non ho dubbi sulla sua stabilità e qualità; infatti, mi piace molto il plugin e rispetto te e lo sforzo che ci metti. Tuttavia, un chatbot soddisfa solo una parte delle mie esigenze aziendali. L’AI Helper è una necessità fondamentale, così come la capacità di passare immediatamente tra i modelli. Nel prossimo futuro implementerò il mio modello fine-tuned e configurerò manualmente i miei LLM, e questo è fondamentale per la mia attività.

Spiego tutto questo solo per evitare che tu pensi che abbia qualcosa contro il tuo lavoro! :grin: Piuttosto, il problema è da parte mia; sto cercando di fare qualcosa di piuttosto di nicchia.

1 Mi Piace

Sì, rispetto pienamente l’ambito della richiesta è più ampio :+1:

Offro solo una soluzione parziale (sebbene significativa).

1 Mi Piace

Questo dovrebbe essere pubblicato questa settimana:

6 Mi Piace

Questo è FANTASTICO!

Nei dettagli qui sotto, questo implica che i token e le richieste totali sono condivisi tra tutti gli utenti del gruppo, o piuttosto che ogni utente del gruppo può utilizzare le quantità stabilite individualmente?

Questo sistema fornisce un controllo granulare sull’utilizzo dell’API LLM consentendo agli amministratori
di definire limiti sia sui token totali che sul numero di richieste per gruppo.

Oh, devo chiarire questo nell’interfaccia utente… tutti i limiti sono per utente e non vengono mai condivisi tra i membri del gruppo. Il limite di quota di gruppo condivisa è un concetto interessante, ma non sono sicuro che abbia senso in pratica? Riesci a pensare a qualche situazione in cui sarebbe utile?

Per ora la mia implementazione è:

  • Scegli la quota più “rilassata” che l’utente ha a seconda dei gruppi di cui l’utente è membro
  • Applica per utente.

(questo consente agli amministratori l’immunità anche se TL2 ha una quota rigorosa)

Stavo chiedendo perché in effetti non avrebbe senso in pratica :grinning_face_with_smiling_eyes: . La mia opinione è che la tua implementazione qui sia la più ideale. La mia community e io apprezziamo davvero il lavoro svolto qui :heart:

1 Mi Piace

L’unico argomento a favore della “quota assoluta” è:

Voglio che Tl1 possa giocare con l’IA ma… come salvaguardia, limita la mia spesa a N$ al giorno. Tl1 ha un numero sconosciuto di membri.

Ma immagino che se è quello che la gente cerca, potrebbe impostare le quote assolute direttamente nelle dashboard di Anthropic / Open AI, ecc.

Non sono contrario all’aggiunta di quote assolute in seguito, ma probabilmente salterò questa iterazione.

2 Mi Piace

@sam Questo è un aggiornamento fantastico :partying_face: I limiti dei token saranno collegati agli abbonamenti? Sarebbe fantastico se potessimo controllare l’utilizzo e consentire l’uso di modelli più costosi a pagamento.

Sì, questo può funzionare con il sistema, puoi impostare quote diverse per diversi gruppi di utenti.

2 Mi Piace

Questa è ora implementata e documentata:

2 Mi Piace

Questo argomento è stato chiuso automaticamente dopo 5 giorni. Non sono più consentite nuove risposte.