Das hängt wirklich davon ab, oder? Im obigen Beispiel wäre ich verärgert über den Poster, wenn die Antwort eindeutig falsch wäre – insbesondere wenn die Falschheit den Benutzer in größere Schwierigkeiten bringen würde. Es ist für mich in Ordnung, wenn Leute KI-Antworten posten, wenn sie sich auch die Zeit genommen haben, die Angemessenheit und Korrektheit der Informationen zu überprüfen und zu verifizieren. Noch besser ist es, wenn sie zustimmen, dass der generierte Inhalt ähnlich oder besser ist, als wie sie diese Informationen ohnehin teilen würden.
Wenn Sie hingegen etwas in ein LLM eingegeben, die Antwort kopiert und eingefügt haben und erwarten, dass ich als Leser Ihres Themas herausfinde, ob dieser Inhalt korrekt ist, dann werde ich nicht glücklich sein. Sie verschwenden nicht nur meine Zeit, indem Sie falsche Informationen als korrekt darstellen, sondern Sie verringern auch die Vertrauenswürdigkeit der Community im Allgemeinen – oder zumindest die Vertrauenswürdigkeit Ihrer eigenen zukünftigen Antworten.
Mit Blick auf die Zukunft vermute ich, dass sich viele gutmeinende Menschen in den nächsten Jahren von der Nutzung von LLMs in Foren abwenden werden, und die Verbleibenden werden entweder böswillige Akteure sein oder Leute, die Foren einfach nicht verstehen. Es ist rein anekdotisch, aber ich benutze LLMs seit etwa 2 Jahren täglich und greife immer mehr auf selbst generierte Inhalte zurück. Gestern wollte ich einen Blogbeitrag schreiben, in den ich nicht besonders investiert war. Ich beschloss, GPT auszuprobieren, aber egal was ich tat, es klang immer wie GPT und das hasste ich. Also probierte ich Claude aus, und obwohl ich eine Stunde damit arbeitete, klang der Inhalt nie so, als wäre er von einem echten, lebendigen Menschen geschrieben worden. Nach insgesamt etwa 3 Stunden habe ich alles überarbeitet und es selbst in etwa einer Stunde geschrieben.
Der Punkt dieser Geschichte ist zu sagen – zumindest für mich – dass selbst generierte Inhalte sich als immer lohnender erweisen, egal wie gut die Modelle werden. Ich hoffe wirklich, dass andere Leute, die LLMs verwenden, in den nächsten 2-3 Jahren ebenfalls dieses Stadium erreichen. Wenn das passiert, werden KI-Antworten in Foren nur noch von böswilligen Akteuren oder von Leuten mit guten Absichten stammen, die es nicht besser wissen. In jedem Fall macht diese Situation den Inhalt viel einfacher zu handhaben: Sie können die böswilligen Akteure verbannen, die gutmeinenden aufklären und eine Moderationsrichtlinie haben wie “KI-Inhalte sind verboten, es sei denn, Sie haben den Inhalt, den Sie posten, klar verdaut UND stimmen voll und ganz zu, dass sein Inhalt Ihre Meinung und Ihr Verständnis zu dem Thema darstellt UND der Inhalt Ihre Meinung auf eine gleichwertige oder verdaulichere Weise ausdrückt, als Sie ihn selbst generieren würden.” oder etwas in dieser Art.