Richiesta di configurazione: Riassunto AI in Discourse e integrazione LLM

Ciao Team di Supporto di Discourse,

Ho alcune domande sull’uso della riepilogazione AI in Discourse e apprezzerei il tuo aiuto nel guidarmi attraverso il processo di configurazione:

  1. Come inizializzare la riepilogazione AI:

    • Quali passaggi devo seguire per attivare e configurare la riepilogazione AI in Discourse?
    • Sono necessari plugin per iniziare con la riepilogazione AI? Se sì, quali e dove posso trovarli?
  2. Utilizzo del nostro LLM (da Dify):

    • È possibile integrare il nostro LLM personalizzato, creato tramite l’applicazione Dify, per le attività di riepilogazione in Discourse? Se sì, come possiamo farlo utilizzando un’API?
    • Puoi fornire documentazione API o guide all’integrazione per collegare LLM di terze parti a Discourse?
  3. Costo dei modelli AI in Discourse:

    • Modelli LLM disponibili: Quali sono i diversi modelli di riepilogazione AI disponibili in Discourse e come posso scegliere tra di essi?
    • Modelli gratuiti vs a pagamento: Alcuni modelli LLM sono gratuiti, o c’è un costo associato a tutti?
    • Restrizioni d’uso: Ci sono limitazioni d’uso per i modelli gratuiti, come limiti di richieste giornaliere o restrizioni sui token?
    • Metriche di costo: Qual è la struttura dei prezzi per ciascun modello, inclusi eventuali costi per richiesta o per token? Se ci sono più livelli di prezzo, puoi fornire una ripartizione per ciascun modello?
  4. Informazioni aggiuntive:

    • Per favore, fammi sapere se ci sono considerazioni o passaggi aggiuntivi che devo intraprendere per utilizzare appieno le funzionalità di riepilogazione AI in Discourse.

Grazie in anticipo per il tuo aiuto!

Ciao @S.AAKASH_MUTHIAH , la maggior parte delle tue domande può trovare risposta nella documentazione del plugin AI qui.


Vedi:

E:


Sì, il plugin ai. È incluso nel core se sei aggiornato, vai semplicemente su /admin/plugins per abilitarlo e configurarlo.



La maggior parte sono a pagamento, ma puoi dare un’occhiata a OpenRouter, che offre anche alcuni modelli gratuiti.


Per quanto ne so, dipenderà dal tuo provider, ma se non erro puoi anche imporre limiti in Discourse.

Forse vedi:


Dipenderà dal tuo provider AI LLM; sono diversi.


Vedi tutta la documentazione per il plugin AI qui.

Per le impostazioni offerte nel plugin, vedi questa guida.


Spero che questo aiuti!

1 Mi Piace

Ciao,
Grazie mille per la tua risposta rapida e utile!

Ho controllato le opzioni del plugin sulla mia istanza di Discourse, ma non vedo nulla relativo all’IA elencato lì. Ho allegato un’immagine che mostra le opzioni di plugin disponibili da parte mia: potresti per favore dare un’occhiata e farmi sapere se mi manca qualcosa?

Sei sull’ultima versione che ha superato i test?

1 Mi Piace

la mia versione attuale

Prova ad aggiornare il tuo forum e vedi se funziona.

1 Mi Piace

Grazie, ora ha funzionato.

Ho una domanda. Ho creato un flusso di lavoro su DIFY e ora voglio usare l’API di quel flusso di lavoro per integrare il mio LLM. Potresti anche farmi sapere in quale formato devono essere inviati gli input?
E dove aggiungere l’API.
E quale opzione deve essere cliccata per configurare la nostra?

Ho trovato una cosa, è in questa pagina che devo configurare le impostazioni?


Se sì, quale opzione dovrei selezionare da questo menu a discesa

Se scegli ‘Configurazione manuale’ nella pagina LLM e inserisci le tue chiavi lì, funziona?

Non uso il plugin AI da un po’, quindi la mia memoria è un po’ confusa.

Vorrei capire il tipo di input che verrà inviato all’endpoint API da Discourse.

@S.AAKASH_MUTHIAH come procede con l’impostazione dell’IA sul tuo sito? Sto per programmare la chiusura di questo argomento: puoi sempre avviare nuovi argomenti quando hai nuove domande.

Come ha sottolineato @NateDhaliwal, molte delle tue domande hanno già risposta nella documentazione. Fai riferimento a quella prima di porre domande.

Questo argomento è stato chiuso automaticamente dopo 6 giorni. Non sono più consentite nuove risposte.