Siamo lieti di annunciare Discourse AI, un nuovo plugin e la nostra soluzione completa per integrare l'intelligenza artificiale e Discourse, abilitando nuove funzionalità e migliorando quelle esistenti. Con questa prima release, stiamo rilasciando 7 diversi moduli di Discourse AI per aiutare i community manager, i membri e i moderatori con varie attività, dall'analisi del sentiment alla correzione automatica delle bozze e ai suggerimenti di modifica. Continua a leggere per scoprire maggiori dettagli su ciascuna di queste funzionalità e su cosa ci riserva la nostra roadmap!
Questo è un corpo di lavoro impressionante, @Falco e team. Sono davvero entusiasta di vedere come tutto questo funzionerà nella pratica e il suo impatto sulla gestione della community in generale.
Questi sono il tipo di aggiornamenti che sembrano l’apertura di un nuovo regalo di Natale.
Noi (al momento in cui scriviamo) non abbiamo un manager dedicato per la nostra community e strumenti come questo ci consentono di continuare a scalare senza un ruolo dedicato.
Per non parlare di funzionalità come l’assistente di composizione che semplicemente migliorano l’esperienza utente.
Sì, stiamo pianificando di esplorare quest’area. La cosa complicata è che abbiamo solo un piccolo numero di esempi da fornire a GPT-4 dati i limiti del prompt, raggiungere i limiti di token è davvero difficile. Ci sono però diversi altri approcci che possiamo adottare ed esploreremo e riferiremo.
Anche con pochissimo fine-tuning, GPT-4 non fa un lavoro terribile nel valutare le cose:
Potresti provare con un post che contiene un lungo blocco di codice o un output syslog? Questi vengono sempre contrassegnati come spam da akismet sul nostro sito.
Probabilmente, ma diventerebbe molto costoso mettere a punto un modello. Alcune persone ottengono risultati davvero buoni utilizzando semplicemente embeddings, questa è probabilmente la prossima cosa da provare.
Quando l’ho controllato, il fine-tuning è molto più economico di quanto mi aspettassi. Dipende molto da quanti dati di addestramento intendi utilizzare, ma se il confronto è con la dimensione che puoi inserire in un singolo GPT-4, si tratta di centesimi.
Non sono arrivato al punto di usarlo, quindi è probabile che mi sia sfuggito qualcosa, quindi per favore correggimi se sbaglio.
L’addestramento può essere molto, molto costoso. Nel mio caso, per i nostri calcoli di addestramento, solo per il minimo addestramento raccomandato da OpenAI, staremmo parlando di quasi $200.000 per l’addestramento su un singolo caso d’uso.
I nuovi utenti si confondono ancora con i limiti TL1?
Se sì, penso che l’IA potrebbe essere una buona soluzione per questo, permettendo ai nuovi utenti di fare di più, ma con l’IA che presta loro molta attenzione e li inserisce nella coda dei moderatori se non è sicura che vada bene.
Nessun problema @Falco, stavo facendo uno spike su questo oggi e sembra molto promettente, anche un prompt banale fa sorprendentemente bene. Lo spam è così spam.
Lascerò a Falco la condivisione dei dettagli.
Un altro approccio interessante che possiamo eventualmente combinare è fare affidamento sul database vettoriale. Se pubblichi qualcosa e il vettore è vicino ad altri 20 spam… beh, probabilmente è spam. Questo approccio consente la messa a punto.
Ad essere onesti, vedo il futuro di Akismet non molto luminoso. Matt deve essere stressato per il lungo termine qui.