Discourse AI

Grazie mille

1 Mi Piace

Possiamo usare Deepseek?

3 Mi Piace

Certo, ha un’API compatibile con Open AI

5 Mi Piace

Per favore, non sono riuscito a trovare questa impostazione (nemmeno quella che hai mostrato nel TUO screenshot) da nessuna parte in Admin > Impostazioni AI.

1 Mi Piace

Questa è disponibile all’interno di Personas, seleziona una persona specifica modificabile (non di sistema) e guarda sotto il prompt.

2 Mi Piace

4 post sono stati uniti a un argomento esistente: Will RAG Support PDF Files in the Future?

Un post è stato diviso in un nuovo argomento: Fornire un’indicazione visiva quando un argomento sta ricevendo una risposta AI

2 post sono stati divisi in un nuovo argomento: Ways to add knowledge to my persona

2 post sono stati divisi in un nuovo argomento: Preoccupazioni sulla privacy personale con il plugin AI

Benvenuto in Discourse Meta!

Vorrai pubblicare questo in Support

3 Mi Piace

Ciao a tutti, stiamo auto-ospitando vLLM e generiamo token API con Fernet, che hanno il segno “=”. Mi sembra, controllando in /var/discourse/shared/standalone/log/var-log/nginx/error.log, che il segno “=” venga sostituito con “%3D” e quindi la mia richiesta non sia autorizzata.
Potrebbe essere questo il caso? Si potrebbe risolvere?

Grazie per il contributo.
Il mio caso è piuttosto semplice. Abbiamo già servizi vLLM e openWebUI che espongono LLM al mondo. Entrambi funzionano bene. Posso anche verificare con semplici chiamate cURL che posso effettivamente accedere a entrambi dall’interno del container Discourse:
vLLM:

   curl -v ${LLM_URL} -H "Content-Type: application/json" -H "Authorization: Bearer ${LLM_TOKEN}" \
        -d '{
           "model": "'"${LLM_MODEL}"'",
           "prompt": "'"${TEST_PROMPT}"'",
           "max_tokens": 128,
           "temperature": 0
        }'

openWebUI:

   curl -v ${LLM_URL} -H "Content-Type: application/json" -H "Authorization: Bearer ${LLM_TOKEN}" \
        -d '{
           "model": "'"${LLM_MODEL}"'",
           "messages": [
              { "role": "user",
                "content": "'"${TEST_PROMPT}"'"
              }
           ]
        }'

Ora ho installato il plugin discourse-ai su un Discourse auto-ospitato e ho provato a configurare l’accesso tramite “LLMs”-“>“Configurazione manuale”-”>Provider=vLLM. In entrambi i casi devo fornire la API KEY. Sfortunatamente… nessuna funziona:

vLLM con token Fernet restituisce “error”:“Unauthorized”}
openWebUI restituisce “{“detail”:“Not authenticated”}”

Il mio sospetto è che il token Fernet fallisca a causa del segno “=” convertito in “%3D”, ma sono ancora più perplesso con openWebUI a causa di “Not authenticated”, mentre il token è solo una stringa.

Non ho idea di come il plugin “discourse-ai” invii il token/API_KEY nel caso di vLLM, ma spero che sia tramite l’header "Bearer ".

Qualsiasi aiuto è benvenuto o esperienza nella configurazione di vLLM con API_KEY

Prova a impostare il Provider API su OpenAI se hai bisogno dell’API nel formato token di portatore (bearer token).

Ha funzionato almeno per openWebUI! Grazie mille!

2 messaggi sono stati spostati in un nuovo argomento: Modelli e prompt migliori per testare la ricerca e le scoperte di Discord

Ho un problema relativo all’output dell’IA nel mio forum. La lingua del mio forum è “arabo”, quindi dovrebbe essere impostata per configurare la lingua dell’output dell’IA in modo che sia adatta alla lingua del forum, poiché non è appropriato chiedere un riepilogo dell’argomento e l’intero argomento in arabo e l’output mi arriva in “inglese”.

Indica nei prompt che l’AI dovrebbe rispondere in arabo. In teoria, anche “rispondi usando la stessa lingua” dovrebbe funzionare, ma raramente ha funzionato per me, nel contesto finlandese con i modelli OpenAI in ogni caso.

Quindi hai un’impostazione e quella è il prompt di sistema dell’agente/persona AI utilizzata.

Ha senso usare questo comportamento come predefinito quando viene rilevata una lingua diversa dall’inglese?

Sto ripetendo tutte le persone usando lo spagnolo, è difficile tenerle aggiornate con cosÏ tanti (buoni) cambiamenti.


Come posso attivare questo forum researcher (dove nelle impostazioni) perchÊ non è chiaro

Puoi configurarlo nella scheda Personas del plugin AI.

4 Mi Piace