Da dies wieder aufgetaucht ist:
-
Ich benutze es, aber ich beobachte die Kosten genau. Meine größte Sorge ist ein außer Kontrolle geratener Token-Verbrauch, zumindest bis ich die Dinge lange genug laufen lassen kann, um ein Gefühl dafür zu bekommen, was mein durchschnittlicher Token-Verbrauch sein sollte. Die Möglichkeit, Kostengrenzen festzulegen, ist gut, aber ich werde mich persönlich nicht wohlfühlen, bis ich weiß, was die normale Nutzung durch die Community ist, und das braucht einfach Zeit.
-
Nutzer-Vertrauensprobleme sind riesig. Es spielt keine Rolle, welche Botschaft ich vorbereite oder was ich als Website-Administrator sage – es gibt die unerschütterliche Wahrnehmung, dass LLMs benutzergenerierte Inhalte für das Training verwenden und dass jede Nutzung durch das Discourse-System bedeutet, Benutzerdaten ohne “Erlaubnis” zu “verkaufen”. Dies ist meiner Erfahrung nach ein systemisches Problem bei vielen Kommentatoren und unmöglich zu beseitigen, weil die Leute “wissen”, was KI-Unternehmen “wirklich tun”. Die Aktivierung einer KI-basierten Triage in einem Forum und die Aussage, dass man dies tut, bedeutet potenziell eine Flut von Beschwerden wie “ICH STIMME NICHT ZU, DASS SIE MEINE DATEN AN IRGENDEINE KI-TECHBRO-FIRMA SENDEN, DAMIT SIE MIT MEINEN WORTE GELD VERDIENEN!”. Nicht jeder macht sich Sorgen um diese Art von Dingen, aber diejenigen, die es tun, sind verärgert und gleichzeitig völlig uninteressiert an einer Diskussion. Ich habe hier keine gute Antwort.
-
Ich bin einigermaßen unbehaglich dabei, den Zustand meiner Spam-Erkennung auf wie sich die Modelle eines Dutzends verschiedener Unternehmen zu einem bestimmten Zeitpunkt zufällig fühlen zu verlassen. Seien wir ehrlich: KI-Spam-Erkennung, KI-Triage und alle anderen KI-Funktionen bedeuten im Grunde, dass wir sagen: “Hey, machen wir das zum Problem der KI” und dann versuchen, durch Prompt Engineering zu kodifizieren, was wir wollen, dass sie tut. Es funktioniert, aber der Prozess ist ärgerlich nicht-deterministisch. Man muss im Grunde nur hoffen, dass die Dinge weiterhin so funktionieren, wie sie funktionieren. Das mag ich nicht. Das mag ich überhaupt nicht, und es bereitet mir Angst. Ich mag meine Werkzeuge, die richtig deterministisch sind. LLMs sind das genaue Gegenteil von deterministisch, und wir verlassen uns auf einige Forum-Funktionalitäten auf das, was auch immer OpenAI et al uns zuschanzen.
Das heißt, ich benutze sowohl KI-Antispam als auch KI-Forum-Triage. Es ist hilfreich. Aber ich versuche, mir bewusst zu bleiben, dass diese Lösungen kontinuierlich auf ihre Wirksamkeit überwacht werden müssen.