Der erste Grund war eigentlich hauptsächlich, dass ich nicht wirklich wusste, welche Funktionen Discourse AI kann. Ich habe einige davon auf Meta gesehen, aber ansonsten wusste ich es nicht wirklich.
Aber das ist für mich jetzt mit dieser Seite beantwortet
Wenn ich das nicht gesehen hätte, wüsste ich nicht, was es tun könnte.
Es könnte für viele andere Leute auch der Fall sein, aber das weiß ich nicht.
Allein die Erwähnung von „KI“ schreckt die meisten Leute in unserer Community ab und polarisiert den Rest. Für uns ist es gegen alle unsere Werte, Geld an Großunternehmen zu zahlen, die Big Data mit einem verrückten Energieverbrauch und globaler Überwachung auf die nächste Stufe heben.
Open Source und Self-Hosting könnten dies abmildern, aber andererseits… Die Hauptfunktionen, für die wir es nutzen würden, sind bessere Suche und bessere Vorschläge. Und müssen wir uns dafür wirklich auf „KI“ verlassen? Gibt es keine Verbesserungen bei Content-Datenbanken und Such- und Vorschlagsalgorithmen, die lokal für die gleichen Kosten und den gleichen Energieverbrauch funktionieren, ohne zu einem aktiven Spieler im großen KI-Spiel zu werden?
Ich würde KI vielleicht verwenden, wenn sie ausschließlich als integriertes „Korrekturlese“-Tool verwendet würde, zum Beispiel. Oder vielleicht sogar als Übersetzungstool.
Nichts hindert mich daran, Discourse AI zu nutzen; tatsächlich glaube ich, dass es jetzt einer der fantastischsten Teile der gesamten Anwendung ist.
Da ich jedoch als Pädagoge und KI-Forscher/Ingenieur tätig bin, möchte ich meine bescheidene Perspektive zu diesem Thema darlegen, da ich eng mit Menschen außerhalb dieser sprichwörtlichen „KI-Blase“ zusammenarbeite. Meiner Erfahrung nach zögern die Menschen aus drei Hauptgründen, KI zu nutzen/zu implementieren:
Sie können die berüchtigten LLM-Halluzinationen nicht bewältigen.
Sie können einfach keinen angemessenen Anwendungsfall dafür finden, um sich damit zu beschäftigen.
Sie haben generell ein Missverständnis seiner Fähigkeiten und werden enttäuscht.
Tatsächlich können all diese Dilemmata durch gutes Prompt Engineering in Verbindung mit Aufklärung über das Thema gemildert werden, sodass dies keinerlei Fehler seitens Discourse darstellt. Vielleicht würde das Unternehmen jedoch, wenn es einen „KI für Dummies“-Crashkurs speziell für das Discourse AI-Plugin anbieten würde, sowohl die Akzeptanzrate als auch den Komfort steigern. KI ist derzeit sehr angesagt, daher möchten viele Menschen sie nutzen, auch wenn sie nicht wissen, wie oder wofür.
Nichtsdestotrotz sagt mir meine Intuition, dass diese Funktionen in naher Zukunft die Popularität von Discourse steigern werden, da sie einfach genial und so fein in das System integriert sind. Wirklich gute Arbeit!
Ich finde diese Formulierung ziemlich seltsam – und ich bemerke sie nicht als Kritik, sondern weil sie den Titel des Threads widerspiegelt: „Was hindert Sie daran, Discourse AI auszuprobieren?“
In beiden Fällen scheint es eine Annahme zu geben, dass KI offensichtlich eine gute und wertvolle Sache ist und dass sich jemand dem irgendwie entzieht.
Aber ich sehe das anders: Die heutige „KI“ ist eine Blase faszinierender Technologien, die Menschen, die das Neueste um seiner selbst willen mögen, sehr anspricht und möglicherweise hier und da von Wert ist – aber in keiner Weise an sich wertvoll ist.
Die Frage muss sich darum drehen, was die Vorteile sind – was die Dinge besser machen wird, in diesem Fall besser für Forenmitglieder oder vielleicht Forenadministratoren.
Was mich zu Folgendem bringt:
Oder anders ausgedrückt: die schiere Unzuverlässigkeit der heutigen Angebote. So sehr sie manchmal beim Zusammenfassen oder Vorschlagen helfen, so oft gehen sie schief. Eine unzuverlässige Zusammenfassung? Eine unzuverlässige Stimmungsanalyse? Das kann nur zu einer schlechteren Erfahrung führen!
Ich habe ein wenig Mitleid mit jemandem, der angestellt ist, um KI voranzutreiben oder sie in ein Produkt zu integrieren – das ist die Natur der Beschäftigung, manchmal sind die Rollen selbst fehlgeleitet.
Aber ich sehe wirklich nicht die Annahme, dass dies eine großartige Sache ist, die allen Foren helfen wird. Einige Foren vielleicht. Sagen Sie uns, wo der Wert liegen soll, und berücksichtigen Sie die Kosten, die mit der unzuverlässigen Lieferung dieses Wertes verbunden sind.
Mein Punkt ist, dass KI sehr viele Dinge verbessern kann und meiner Erfahrung nach einige meiner Kunden ihr Geschäft oder ihre Abläufe in irgendeiner Weise verbessern wollen, aber nicht genau wissen, wie sie das präzise tun können. Ich glaube überhaupt nicht, dass jeder versuchen sollte, KI zu nutzen, da dies lediglich in die aktuelle Hype-Falle tappt.
Definitiv nicht von Natur aus wertvoll, was ich auch nicht impliziert habe. Wie bei den meisten Technologien kann sie überstrapaziert werden und unter den Erwartungen bleiben oder einfach missbraucht werden.
Ich habe diese „schierige Unzuverlässigkeit“ noch nicht erlebt. Vielleicht hängt es davon ab, was man erreichen will? Sehr allgemeine und komplexe Aufgaben können immer noch zu unzuverlässigen Ergebnissen führen, das stimmt. Wiederum sind ausreichende Kenntnisse in Prompt Engineering und Anwendungen dieser Technologie unerlässlich, um dies zu mildern – mein Punkt bleibt also bestehen.
Ich schätze Ihr Mitleid, aber ich brauche es nicht . Ich bin selbstständig und muss keine KI für Leute „pushen“, die sie nicht brauchen. Es ist tatsächlich ziemlich vermessen von Ihnen anzunehmen, dass jemand oder seine Arbeit fehlgeleitet ist, nur weil Sie eine meist unbegründete Meinung zu einem Thema haben, das Ihnen fremd zu sein scheint, gemessen daran, wie Sie darüber schreiben.
Ich habe KI-Systeme entwickelt, die Hirntumore automatisch erkennen und segmentieren und Behandlungsrisikoanalysen durchführen. Ich glaube nicht, dass Patienten, die von solchen Fortschritten profitieren, zustimmen würden, dass eine solche Rolle „fehlgeleitet“ ist. Einige von uns forschen an KI zum Wohle der Menschheit und nicht nur, um schnell Geld zu verdienen.
Auch hier habe ich nicht angenommen, dass es allen Foren helfen würde, und ich glaube eher, dass es für Administratoren töricht sein könnte, es „einfach so“ zu übernehmen, ohne jegliches Fachwissen und ohne ein Endziel vor Augen zu haben.
Nebenbemerkung:
Ich ermutige Sie demütig, bei Ihren zukünftigen Antworten zu diesem Thema KI etwas weniger diskriminierend und etwas informierter zu sein, oder zumindest nicht die Antworten anderer aus dem Kontext zu reißen, sie dann als fehlgeleitet zu bezeichnen und Ihr Mitleid anzubieten
EDIT:
Vergaß hinzuzufügen, dass Discourse mehr Optionen für Anpassungen (zum Beispiel die Möglichkeit, den Topic Summarizer richtig zu prompten) hinzufügt, um viele Risiken zu mindern. Sie gehen bereits in diese Richtung durch Personas und die Möglichkeit, Modelle auszuwählen usw.
Entschuldigen Sie, ich habe seit Beginn dieses Threads darüber nachgedacht und zufällig Ihren Beitrag als Ausgangspunkt genommen. Ich meine nichts Spezifisches oder Persönliches mit meinen Beobachtungen.
Für mich wäre es, um KI im Diskurs einzusetzen, wie @Saif wissen möchte, notwendig, den Mehrwert zu kennen. Derzeit funktioniert mein Forum gut und die Kosten sind unter Kontrolle. Um etwas hinzuzufügen, das mit monetären Kosten verbunden ist, müsste ich wissen, was der Nutzen ist. Es ist nicht so, dass mich etwas davon abhält, KI auszuprobieren.
Ich deaktiviere Akismet und probiere Discourse AI Spam und Persona intern aus. Mein LLM ist Google Gemini Flash 2.0.
Meine Frage ist, wird es mit Interaktionen lernen und durch menschliches Feedback tief lernen? Denn es gibt die Option, Daten zu cachen, was nur in der Pro-Version erlaubt ist.
Es wird nichts lernen, aber Sie können benutzerdefinierte Anweisungen angeben, die spezifisch für Ihr Forum sind, wenn Sie feststellen, dass es Fehler macht.
Ich benutze es, aber ich beobachte die Kosten genau. Meine größte Sorge ist ein außer Kontrolle geratener Token-Verbrauch, zumindest bis ich die Dinge lange genug laufen lassen kann, um ein Gefühl dafür zu bekommen, was mein durchschnittlicher Token-Verbrauch sein sollte. Die Möglichkeit, Kostengrenzen festzulegen, ist gut, aber ich werde mich persönlich nicht wohlfühlen, bis ich weiß, was die normale Nutzung durch die Community ist, und das braucht einfach Zeit.
Nutzer-Vertrauensprobleme sind riesig. Es spielt keine Rolle, welche Botschaft ich vorbereite oder was ich als Website-Administrator sage – es gibt die unerschütterliche Wahrnehmung, dass LLMs benutzergenerierte Inhalte für das Training verwenden und dass jede Nutzung durch das Discourse-System bedeutet, Benutzerdaten ohne “Erlaubnis” zu “verkaufen”. Dies ist meiner Erfahrung nach ein systemisches Problem bei vielen Kommentatoren und unmöglich zu beseitigen, weil die Leute “wissen”, was KI-Unternehmen “wirklich tun”. Die Aktivierung einer KI-basierten Triage in einem Forum und die Aussage, dass man dies tut, bedeutet potenziell eine Flut von Beschwerden wie “ICH STIMME NICHT ZU, DASS SIE MEINE DATEN AN IRGENDEINE KI-TECHBRO-FIRMA SENDEN, DAMIT SIE MIT MEINEN WORTE GELD VERDIENEN!”. Nicht jeder macht sich Sorgen um diese Art von Dingen, aber diejenigen, die es tun, sind verärgert und gleichzeitig völlig uninteressiert an einer Diskussion. Ich habe hier keine gute Antwort.
Ich bin einigermaßen unbehaglich dabei, den Zustand meiner Spam-Erkennung auf wie sich die Modelle eines Dutzends verschiedener Unternehmen zu einem bestimmten Zeitpunkt zufällig fühlen zu verlassen. Seien wir ehrlich: KI-Spam-Erkennung, KI-Triage und alle anderen KI-Funktionen bedeuten im Grunde, dass wir sagen: “Hey, machen wir das zum Problem der KI” und dann versuchen, durch Prompt Engineering zu kodifizieren, was wir wollen, dass sie tut. Es funktioniert, aber der Prozess ist ärgerlich nicht-deterministisch. Man muss im Grunde nur hoffen, dass die Dinge weiterhin so funktionieren, wie sie funktionieren. Das mag ich nicht. Das mag ich überhaupt nicht, und es bereitet mir Angst. Ich mag meine Werkzeuge, die richtig deterministisch sind. LLMs sind das genaue Gegenteil von deterministisch, und wir verlassen uns auf einige Forum-Funktionalitäten auf das, was auch immer OpenAI et al uns zuschanzen.
Das heißt, ich benutze sowohl KI-Antispam als auch KI-Forum-Triage. Es ist hilfreich. Aber ich versuche, mir bewusst zu bleiben, dass diese Lösungen kontinuierlich auf ihre Wirksamkeit überwacht werden müssen.
Wer zahlt für die Rechenkosten, die mit dem Plugin verbunden sind?
Die Token-Generierung ist nicht kostenlos, und die Anmietung einer GPU in der Cloud kostet etwa 250 US-Dollar pro Monat für den günstigsten Plan (NVIDIA T4 von Google Cloud).
Ich glaube, die meisten Leute verwenden einen kostenpflichtigen Plan bei einem der größeren Anbieter von KI-Diensten (eine Liste der unterstützten Modelle finden Sie hier in der Dokumentation).
Leider sind mir keine erschwinglichen Optionen für Self-Hosters bekannt – alles, was ich kenne und GPU-basiert ist, liegt im von Ihnen genannten Preissegment, und ich vermute, dass die CPU-basierte Inferenz selbst auf leistungsfähigeren Maschinen zu langsam sein wird.
Self-hosted Discourse AI ermöglicht es Ihnen, sich über eine API mit verschiedenen kommerziellen Modellen zu verbinden. Ich stelle fest, dass meine Ausgaben für KI-Triage, KI-Anti-Spam und einige nächtliche KI-Zusammenfassungen etwa 0,03 $/Monat mit Gemini Flash 2.0 betragen.
Ich glaube, wir haben hier ein unterschiedliches Verständnis von „selbst gehosteter KI“. Für mich impliziert das die Verbindung zu einem Modell/Dienst, der lokal ausgeführt wird. Was Sie beschreiben, ist möglich, aber im Grunde ist der lokale Teil nur ein Proxy, und Daten werden Ihren Server verlassen/an den API-Anbieter übertragen. Für viele Leute wird das in Ordnung sein, aber für mich/unsere Community ist das keine Option.