Grazie mille
Possiamo usare Deepseek?
Certo, ha unâAPI compatibile con Open AI
Per favore, non sono riuscito a trovare questa impostazione (nemmeno quella che hai mostrato nel TUO screenshot) da nessuna parte in Admin > Impostazioni AI.
Questa è disponibile allâinterno di Personas, seleziona una persona specifica modificabile (non di sistema) e guarda sotto il prompt.
4 post sono stati uniti a un argomento esistente: Will RAG Support PDF Files in the Future?
Un post è stato diviso in un nuovo argomento: Fornire unâindicazione visiva quando un argomento sta ricevendo una risposta AI
2 post sono stati divisi in un nuovo argomento: Ways to add knowledge to my persona
2 post sono stati divisi in un nuovo argomento: Preoccupazioni sulla privacy personale con il plugin AI
Benvenuto in Discourse Meta!
Vorrai pubblicare questo in Support
Ciao a tutti, stiamo auto-ospitando vLLM e generiamo token API con Fernet, che hanno il segno â=â. Mi sembra, controllando in /var/discourse/shared/standalone/log/var-log/nginx/error.log, che il segno â=â venga sostituito con â%3Dâ e quindi la mia richiesta non sia autorizzata.
Potrebbe essere questo il caso? Si potrebbe risolvere?
Grazie per il contributo.
Il mio caso è piuttosto semplice. Abbiamo giĂ servizi vLLM e openWebUI che espongono LLM al mondo. Entrambi funzionano bene. Posso anche verificare con semplici chiamate cURL che posso effettivamente accedere a entrambi dallâinterno del container Discourse:
vLLM:
curl -v ${LLM_URL} -H "Content-Type: application/json" -H "Authorization: Bearer ${LLM_TOKEN}" \
-d '{
"model": "'"${LLM_MODEL}"'",
"prompt": "'"${TEST_PROMPT}"'",
"max_tokens": 128,
"temperature": 0
}'
openWebUI:
curl -v ${LLM_URL} -H "Content-Type: application/json" -H "Authorization: Bearer ${LLM_TOKEN}" \
-d '{
"model": "'"${LLM_MODEL}"'",
"messages": [
{ "role": "user",
"content": "'"${TEST_PROMPT}"'"
}
]
}'
Ora ho installato il plugin discourse-ai su un Discourse auto-ospitato e ho provato a configurare lâaccesso tramite âLLMsâ-â>âConfigurazione manualeâ-â>Provider=vLLM. In entrambi i casi devo fornire la API KEY. Sfortunatamente⌠nessuna funziona:
vLLM con token Fernet restituisce âerrorâ:âUnauthorizedâ}
openWebUI restituisce â{âdetailâ:âNot authenticatedâ}â
Il mio sospetto è che il token Fernet fallisca a causa del segno â=â convertito in â%3Dâ, ma sono ancora piĂš perplesso con openWebUI a causa di âNot authenticatedâ, mentre il token è solo una stringa.
Non ho idea di come il plugin âdiscourse-aiâ invii il token/API_KEY nel caso di vLLM, ma spero che sia tramite lâheader "Bearer ".
Qualsiasi aiuto è benvenuto o esperienza nella configurazione di vLLM con API_KEY
Prova a impostare il Provider API su OpenAI se hai bisogno dellâAPI nel formato token di portatore (bearer token).
Ha funzionato almeno per openWebUI! Grazie mille!
2 messaggi sono stati spostati in un nuovo argomento: Modelli e prompt migliori per testare la ricerca e le scoperte di Discord
Ho un problema relativo allâoutput dellâIA nel mio forum. La lingua del mio forum è âaraboâ, quindi dovrebbe essere impostata per configurare la lingua dellâoutput dellâIA in modo che sia adatta alla lingua del forum, poichĂŠ non è appropriato chiedere un riepilogo dellâargomento e lâintero argomento in arabo e lâoutput mi arriva in âingleseâ.
Indica nei prompt che lâAI dovrebbe rispondere in arabo. In teoria, anche ârispondi usando la stessa linguaâ dovrebbe funzionare, ma raramente ha funzionato per me, nel contesto finlandese con i modelli OpenAI in ogni caso.
Quindi hai unâimpostazione e quella è il prompt di sistema dellâagente/persona AI utilizzata.
Ha senso usare questo comportamento come predefinito quando viene rilevata una lingua diversa dallâinglese?
Sto ripetendo tutte le persone usando lo spagnolo, è difficile tenerle aggiornate con cosÏ tanti (buoni) cambiamenti.
Puoi configurarlo nella scheda Personas del plugin AI.
