Wir freuen uns, Discourse AI ankündigen zu können, ein neues Plugin und unsere Komplettlösung für die Integration von Künstlicher Intelligenz und Discourse, die sowohl neue Funktionen ermöglicht als auch bestehende verbessert. Mit dieser ersten Veröffentlichung liefern wir 7 verschiedene Discourse AI-Module aus, um Community-Manager, Mitglieder und Moderatoren bei verschiedenen Aufgaben zu unterstützen, von der Stimmungsanalyse bis zur automatischen Korrektur und vorgeschlagenen Bearbeitungen. Lesen Sie weiter und erfahren Sie mehr Details zu jeder dieser Funktionen sowie zu dem, was als Nächstes auf unserer Roadmap steht!
Das ist eine beeindruckende Arbeit, @Falco und Team. Ich bin wirklich gespannt, wie sich das alles in der Praxis auswirken wird und welche Auswirkungen es auf das Community Management insgesamt haben wird.
Das sind die Arten von Updates, die sich anfühlen, als würde man ein neues Weihnachtsgeschenk öffnen.
Wir (zum jetzigen Zeitpunkt dieser Veröffentlichung) haben keinen dedizierten Manager für unsere Community, und Tools wie dieses ermöglichen es uns, ohne eine dedizierte Rolle weiter zu skalieren.
Ganz zu schweigen von Funktionen wie dem Composer-Helfer, die das Benutzererlebnis einfach verbessern.
Ja, wir planen, diesen Bereich zu erkunden. Das Schwierige daran ist, dass wir nur eine kleine Anzahl von Beispielen haben, die wir GPT-4 aufgrund der Prompt-Limits zuführen können. Das Erreichen von Token-Limits ist wirklich schwierig. Es gibt jedoch noch einige andere Ansätze, die wir verfolgen können, und wir werden sie untersuchen und berichten.
Selbst mit sehr wenig Feinabstimmung macht GPT-4 keine schlechte Arbeit bei der Einschätzung von Dingen:
Könnten Sie es mit einem Beitrag versuchen, der einen langen Codeblock oder eine Syslog-Ausgabe enthält? Diese werden auf unserer Website ständig von Akismet als Spam markiert.
Wahrscheinlich, aber es wäre sehr teuer, ein Modell fein abzustimmen. Manche Leute erzielen wirklich gute Ergebnisse, indem sie einfach Embeddings verwenden, das ist wahrscheinlich das Nächste, was man ausprobieren sollte.
Als ich es überprüfte, war Fine-Tuning viel billiger, als ich erwartet hatte. Es hängt stark davon ab, wie viele Trainingsdaten Sie verwenden möchten, aber wenn der Vergleich mit der Größe ist, die in ein einzelnes GPT-4 passt, sind es nur Cents.
Ich bin noch nicht dazu gekommen, es zu verwenden, daher ist es wahrscheinlich, dass ich etwas übersehen habe. Bitte korrigieren Sie mich, wenn ich falsch liege.
Das Training kann sehr, sehr teuer sein. In meinem Fall, für unsere Trainingsberechnungen, allein für das von OpenAI empfohlene Mindesttraining, würden wir fast 200.000 US-Dollar für das Training eines einzigen Anwendungsfalls benötigen.
Werden neue Benutzer immer noch mit TL1-Grenzen verwirrt?
Wenn ja, denke ich, dass KI eine gute Lösung dafür sein könnte. Neue Benutzer können mehr tun, aber die KI achtet genau auf sie und leitet sie an die Moderationswarteschlange weiter, wenn sie nicht sicher ist, ob alles in Ordnung ist.
Kein Problem, @Falco hat heute daran gearbeitet und es sieht sehr vielversprechend aus, selbst eine triviale Eingabeaufforderung schneidet überraschend gut ab. Spam ist einfach sooooo spammy.
Ich überlasse es Falco, Details zu teilen.
Ein weiterer interessanter Ansatz, den wir möglicherweise kombinieren können, ist die Nutzung der Vektordatenbank. Wenn Sie etwas posten und der Vektor nahe an 20 anderen Spam-Nachrichten liegt … nun, dann ist es wahrscheinlich Spam. Dieser Ansatz ermöglicht eine Feinabstimmung.
Um ehrlich zu sein, sehe ich für Akismet keine allzu rosige Zukunft. Matt muss sich hier langfristig Sorgen machen.