È Discourse Chatbot 🤖. L’indizio è nel nome (anche se puoi cambiarne il nome!) Si prega di pubblicare i problemi nell’argomento Chatbot. Ma in ogni caso il modello verrà impostato nelle impostazioni di Chatbot :).
Basti dire che attiva i log dettagliati di Chatbot nelle impostazioni, reindirizzando le informazioni all’avviso (in modo da poterle leggere in produzione) e controlla /logs
Sì, capisco che l’IA possa provenire da diversi fornitori, non necessariamente da Discourse.
Da questo ho capito che ‘Chatbot’ è stato sviluppato/è gestito da Discourse, ma nessun fornitore di IA di terze parti. E così ho trovato/ho prestato attenzione a questa pagina delle impostazioni di amministrazione: ..plugins/discourse-chatbot/settings (che in precedenza mi era sfuggita).
Ma anche ora (dopo questa nuova conoscenza), prova sempre a rispondere/continua a mostrare ‘Risposta…’. (Non sono in grado di decifrare i ‘Log’ o i messaggi di sidekiq e trovare qual è il colpevole).
Se puoi dirmi se l’altro bot (attivato dall’impostazione sottostante) è più esaustivo da usare (e facile da configurare)?
Aggiungi bot AI all’intestazione >> Visualizza un pulsante nell’intestazione per avviare un PM con un bot AI
No, Chatbot è stato il primo bot AI su Discourse e sviluppato da me
Ecco perché l’URL di GitHub contiene il mio nome utente e perché il mio avatar è sull’argomento
Se potessi, perché il menu a discesa per controllare quali modelli può usare (il plugin bot AI) offre solo modelli ‘Chat GPT’, e come può usarli, anche senza chiedere la mia chiave API di Chatgpt (ha accesso alla mia chiave API di Chatgpt dalle impostazioni AI che ho configurato altrove)?
E infine, opinaresti che questo ChatBot sia migliore dell’altro offerto nelle impostazioni AI?
Preferirei ora andare a questa pagina del plugin per chiarire i miei dubbi di cui sopra!
Oggi rilascio un piccolo aggiornamento a Chatbot ma che corregge un bug fastidioso e introduce RAG nei modelli di ragionamento:
Se pensi che Chatbot sia fantastico e abbia fatto un ottimo lavoro, puoi offrirmi un caffè, e se Chatbot è importante per la tua attività o organizzazione, considera di sponsorizzarmi su uno dei livelli più alti . Tutto questo aiuterà a garantire aggiornamenti tempestivi a Chatbot e al suo futuro.
Rilascio 1.4.7
FEATURE: Aggiunti modelli di ragionamento aggiuntivi, in particolare o3-mini
FEATURE: Supporto RAG per i modelli di ragionamento (attualmente, solo o3-mini)
FIX: Consenti all’utente di discutere le immagini generate dal bot
NB
Se utilizzi o3-mini assicurati di dargli abbastanza Chatbot max response tokens in modo che possa consumarli durante il ragionamento…
discutere un’immagine richiede il suo caricamento. A seconda della tua configurazione, il caricamento di un’immagine potrebbe richiedere circa un minuto.
Ciao, quando seleziono il modello predefinito openai mpdeli o3 mini, il plugin funziona correttamente e risponde, ma non risponde ai post con foto. L’impostazione della visione è selezionata direttamente, c’è solo l’impostazione gpt 4o, è per questo che ricevo un errore?
Ho impostato in questo modo e ho fatto dei test, non riesce a vedere il contenuto delle immagini e non risponde. Potrebbe essere perché uso tutti i livelli di fiducia o3-mini? Quando passo a tutti i livelli di fiducia 4o, risponde.
Se abiliti l’impostazione sperimentale chatbot_support_pdf, ora invierà il contenuto di qualsiasi PDF caricato all’interno della conversazione corrente a OpenAI, che farà parte del contesto della conversazione.
SUGGERIMENTO: con ogni caricamento nell’area pubblica, chiedi al Chatbot un riassunto del documento, quindi incorporerà la risposta risultante e sarà facile chiedere in seguito al Chatbot di trovarlo.
Nota: questo potrebbe funzionare solo con chiamate dirette a OpenAI. Se stai utilizzando altri URL di base per invocare altri servizi, non vi è alcuna garanzia che li supporteranno.
Solo per informazione, supporta solo i Post per ora.
È possibile che un nuovo forum possa far funzionare questo bot con un budget limitato o senza costi all’inizio? Credo che sembri interessante e vorrei provarlo, ma ho paura che si possa raggiungere la quota o che possa costarmi più del previsto. Ho letto il modello di prezzi di OpenAI, ma era un po’ vago.
Ehi @Olle11, non è possibile eseguire questa plugin in modo “gratuito” a meno che non configuri un LLM locale sulla tua infrastruttura, ma questa è ironicamente un’opzione costosa perché avrai bisogno di un server molto potente.
Tuttavia, puoi ottenere alcuni crediti gratuiti (5$?) quando configuri il tuo account OpenAI (link nelle impostazioni)
Puoi impostare quote per diversi livelli di utenti o renderlo disponibile solo agli amministratori, se preferisci.
Usarlo con gpt-4o-mini non dovrebbe svuotare il portafoglio e quel modello è abbastanza potente per alcune ottime interazioni.