Discourse AI - Guida di installazione autonoma

Potrei - vorrei - volere il servizio, ma è ancora presto per il forum a cui sto pensando, quindi non ci sono ancora abbastanza dati su cui riflettere.

Dato che stai sperimentando con questa tecnologia, puoi dirci che ruolo giocano i tag nell’addestramento dell’IA? Ho dedicato molto impegno a raggruppare il corpus di uno dei miei forum per generare etichette che potessero poi essere utilizzate per categorizzare e taggare gli argomenti. Sebbene la categorizzazione sia andata molto bene, l’implementazione dei tag è problematica a causa dell’enorme quantità di termini coinvolti. Non c’è modo pratico di presentarli tutti.

Penserei che l’IA potrebbe utilizzare quei termini per migliorare i propri risultati.

1 Mi Piace

Non c’è addestramento di modelli in Discourse oggi. Tutti i modelli attualmente utilizzati da uno qualsiasi dei moduli sono già addestrati.

I tag possono essere utili per aggiungere contesto nei prompt per funzionalità come suggerimenti di tag e argomenti correlati, ma nessuno dei due è attualmente in uso.

2 Mi Piace

Ciao @nodomain,

Discourse AI memorizzerà ora gli embedding nella stessa istanza DB che usiamo per tutto il resto. Questo rende l’installazione e la manutenzione molto più semplici, e importeremo automaticamente gli embedding dal vecchio database quando aggiornerai. Dopodiché potrai dismettere il vecchio database.

1 Mi Piace

Ah, questo spiega i problemi che ora riscontro con la mia configurazione:

I, [2023-07-18T09:29:11.218667 #1]  INFO -- : cd /var/www/discourse & su discourse -c 'bundle exec rake db:migrate'
------------------------------DISCOURSE AI ERROR----------------------------------
    Discourse AI richiede l'estensione pgvector sul database PostgreSQL.
         Esegui un `./launcher rebuild app` per risolverlo su un'installazione standard.
            In alternativa, puoi rimuovere Discourse AI per ricostruire.
------------------------------DISCOURSE AI ERROR----------------------------------

Il mio database è un serverless v2 RDS Aurora e quindi non può utilizzare l’estensione pgvector. C’è qualche possibilità di configurare il comportamento precedente?

1 Mi Piace

Rispondendo a me stesso: un modo fattibile potrebbe essere quello di passare al servizio Aurora “non serverless”: What’s New at AWS – Cloud Innovation & News

Tuttavia, sono ancora interessato alla risposta alla mia domanda.

2 Mi Piace

Stai usando serverless per il database principale di Discourse o solo per quello degli embedding? Discourse AI ora memorizza gli embedding nel database principale e richiede l’estensione pgvector abilitata lì. È disponibile su RDS PostgreSQL 13.11 e versioni successive. Noi non utilizziamo Aurora in produzione, solo RDS PostgreSQL, quindi è l’unica cosa che posso raccomandarti.

1 Mi Piace

Va bene per me, grazie.
E sì, il database principale è serverless al momento.

1 Mi Piace

Quindi Amazon RDS PostgreSQL è la versione che viene imbottigliata nella distribuzione Docker?

RDS è un SaaS di AWS, non può essere impacchettato in un’immagine Docker.

Discourse AI funziona sia con la versione PostgreSQL che impacchettiamo nella nostra immagine Docker, sia con Amazon RDS, sia con qualsiasi istanza PostgreSQL con l’estensione installata.

Ciao :waving_hand:
Posso usare “Llama 2” open-source di Meta per la raccomandazione di post per i miei utenti?
Qualcuno ha avuto esperienza con uno strumento simile?
Grazie :folded_hands:

1 Mi Piace

Intendi consigliare “Argomenti Correlati”? In tal caso no, non ancora. Non esistono ancora modelli di embedding basati su Llama 2.

Vale la pena menzionare che quelli che forniamo (uno open-source e uno dall’API di OpenAI) sono davvero buoni e più che sufficienti per alimentare la funzionalità Argomenti Correlati.

5 Mi Piace

Grazie per la spiegazione!

1 Mi Piace

Ci sono repository git per le immagini docker?

1 Mi Piace

Al momento no, poiché ciò richiederebbe di mantenere due repository separati, uno con il codice dell’app e un altro con gli strumenti interni per creare immagini e inviarle ai nostri repository interni e non ho davvero trovato il tempo per impostare correttamente questo.

Il codice dell’API è tutto visibile all’interno dell’immagine del container, anche se non è il modo migliore per esaminarlo, almeno è tutto lì.

3 Mi Piace

Qualcuno potrebbe condividere i requisiti minimi e consigliati esatti del server per un forum con visitatori standard? Onestamente, vorrei provarci, ma non so da dove cominciare poiché non ci sono requisiti chiari per il server.

2 Mi Piace

Devi solo provare con quello che ritieni ragionevole. Qualcosa con 16 GB di RAM sembra il minimo.

Per i tuoi utenti standard, useresti un server standard, immagino. :wink:

4 Mi Piace

Nel mio forum, 200-250 utenti online e una media di 300 post vengono creati quotidianamente. Quindi non si può definire troppo, per questo ho detto standard. Capisco cosa intendi, ma ho intenzione di affittare un nuovo server perché il server Cloud che sto usando ora non consente molti aggiornamenti. Grazie per la tua risposta :slight_smile:

2 Mi Piace

È incredibilmente difficile rispondere.

Ad esempio, se vuoi solo giocare con gli embedding, un droplet da 6$ che lo fa su CPU sarà sufficiente e ti darà accesso alla funzionalità Similar Topics.

Ora, se vuoi AIHelper e AIBot, puoi:

  • pagare per chiamata su OpenAI, e il costo dipenderà dal tuo utilizzo.

  • eseguire un LLM open source su un server di tua proprietà per la privacy. Un modello come Llama2-70B-Chat richiederà un server che costa da 10k a 25k al mese.

  • eseguire un LLM open source su un servizio a pagamento all’ora. Puoi eseguire una versione quantizzata di Llama2 negli endpoint di HuggingFace per 6,50$ all’ora e andrà automaticamente in sleep dopo 15 minuti senza richieste.

L’area ML/Ops si sta muovendo velocemente, le GPU sono super scarse e nuovi modelli vengono lanciati ogni giorno. Difficile da prevedere, stiamo tutti sperimentando.

5 Mi Piace

Grazie per la spiegazione dettagliata. Proverò quindi con un singolo plugin ad ogni passaggio. Penso che imparerò nel dettaglio in base alla situazione :slight_smile:

2 Mi Piace

Un post è stato diviso in un nuovo argomento: Implementa Discourse AI su DigitalOcean