Bezüglich Personen, die durch Kopieren und Einfügen von ChatGPT antworten, hier ein interessantes Beispiel für Gegenreaktionen:
Ich sehe das auch in den Foren, die ich am häufigsten besuche (die eher technischer Natur sind). Ein bestimmter neuer Benutzer postet täglich 8 oder 9 Antworten, alle von ChatGPT.
Dort gibt es viele wertvolle Informationen, aber auch Ungenauigkeiten und geradezu irreführende Dinge (stellen Sie sich eine komplizierte 7-Schritte-Liste vor, bei der ich Schritt 6 ansehe und weiß, dass sie niemals funktionieren wird … aber viele Leute tun das nicht).
Dieser Benutzer scheint sich einen Ruf aufbauen zu wollen … wir erwägen, die Leute aufzufordern, ChatGPT-Inhalte immer explizit als das zu kennzeichnen, was sie sind. Eine Bitte, von der wir nur hoffen können, dass sie respektiert wird, aber nicht wirklich durchgesetzt werden kann.
Das macht mir Unbehagen, ich glaube nicht, dass uns das an einen guten Ort bringt. Ich befürchte, dass bedeutungslose Gespräche einfach das Internet übernehmen werden. Wir könnten gezwungen sein, echte Leben in der realen Welt zu leben, ich bin mir nicht sicher, ob wir damit umgehen können …
Mein älterer Sohn schickt mir mit Vergnügen Artikel und Beiträge, die die Inanitäten von ChatGPT zeigen. Ich sage ihm immer wieder, dass die ChatGPT-Technologie in vielen Bereichen, wie der Mathematik, derzeit vielleicht auf dem Niveau der 2. oder 3. Klasse ist. Um einen meiner Professoren vor Jahren zu zitieren: Es weiß nicht, was es nicht weiß.
Ich habe es noch nicht nach einem Rezept für einen Kuchen gefragt, ich erschaudere bei dem Gedanken, was es falsch machen könnte. (Ich habe online schon zu viele von Menschen gepostete Rezepte gesehen, die völlig unbrauchbar sind.)
Ich glaube, sinnlose Konversation hat das Internet übernommen, als Facebook und Twitter erfunden wurden. Diejenigen von uns, die alt genug sind, um sich an USENET zu erinnern, als es noch zutreffend war, es als Videospiel für Leute zu bezeichnen, die lesen können, könnten die Grenze noch weiter in die Vergangenheit ziehen.
Wir spüren das im Moment definitiv – wir betreiben ein kostenloses und offenes Discourse-Forum und sehen, wie viele ChatGPT-ähnliche Spambots die bestehenden Spam-Schutzmaßnahmen umgehen.
Akismet hält im Moment nicht mit ihnen Schritt, da ich noch nie zuvor so viele Spam-Konten durchgelassen habe. Sie neigen dazu, harmlos aussehende Kommentare zu posten, die eine Frage beantworten (oder sie umformulieren und dann beantworten) mit einer ziemlich wortreichen Antwort, die hilfreich erscheint, aber etwas Kontext oder Nuancen aus der ursprünglichen Frage vermissen lässt.
Ich gehe davon aus, dass Discourse-Foren aus ähnlichen Gründen wie WordPress-Seiten vor einem Jahrzehnt als Testgelände ins Visier genommen werden: Es handelt sich um Open-Source-Technologie, die weit verbreitet ist, sodass Bots, die den Anmeldevorgang in einem Forum durchlaufen können, wahrscheinlich Zugang zu vielen anderen erhalten.
Wir sehen derzeit nicht das traditionelle Spambot-Verhalten (Account erstellen, etwas Harmloses posten, das die Anti-Spam-Maßnahmen umgeht, und es dann innerhalb von 48 Stunden bearbeiten, um Links hinzuzufügen) – daher bin ich mir nicht sicher, was das Endziel hier ist. Es ist möglich, dass wir diese Beiträge einfach zu schnell löschen und sie später zu Backlink-Farmen umgewandelt würden.
Ich denke, eine obligatorische 2FA würde die meisten Bots aussortieren. Was meint ihr dazu?
Andernfalls würde ich die Benutzer wahrscheinlich nach der Kontoerstellung ein Typeform ausfüllen lassen und sie über einen Webhook bei Formularübermittlung zu einer „verifizierten“ Gruppe hinzufügen und das Forum für alle, die nicht verifiziert sind, schreibgeschaltet machen.
Das gesagt, da Bots jetzt das Web durchsuchen und Button-Intents verstehen können, denke ich, dass dies nur eine vorübergehende Lösung ist.
Die meisten Foren sind offen (man muss sich nicht registrieren, um sie zu besuchen) und können über Google und ähnliche Dienste gefunden werden. 2FA wird das nicht verhindern.
Ein weiterer Grund, bei der Verwendung der ChatGPT-Technologie vorsichtig zu sein.
Ein kalifornischer Rechtsprofessor wurde in eine von ChatGPT generierte Liste von Rechtsexperten aufgenommen, denen sexuelle Belästigung vorgeworfen wurde. ChatGPT zitierte eine Geschichte der Washington Post als Quelle.
Das Problem ist, dass keine solche Geschichte der Washington Post existiert und gegen diesen Rechtsprofessor niemals Vorwürfe der sexuellen Belästigung erhoben wurden.
Jeder kann beruhigt sein, das Handelsministerium hat Pläne angekündigt, um sicherzustellen, dass KI angemessene „Leitplanken“ hat
Von der WSJ:
„Es ist erstaunlich zu sehen, was diese Werkzeuge selbst in ihrer relativen Anfangsphase leisten können“, sagte Alan Davidson, Leiter der National Telecommunications and Information Administration, der Behörde des Handelsministeriums, die die Stellungnahme angefordert hat. „Wir wissen, dass wir einige Leitplanken einrichten müssen, um sicherzustellen, dass sie verantwortungsvoll eingesetzt werden.“
Ja… wenn der Text tatsächlich noch von menschlichen Teilnehmern geschrieben würde.
Was er wahrscheinlich immer weniger tun wird. Daher das Problem.
KI kann dazu führen, dass all das, was Sie beschrieben haben, immer schlimmer und immer schwieriger zu erkennen wird.
Autoren von Büchern ist eine Sache. Nicht mehr zu wissen, mit wem man es in Online-Diskussionen zu tun hat, ist eine andere. Alle Hinweise, die man aus einem geschriebenen Text bekommen soll, werden verzerrt, wenn er nicht echt von einer Person geschrieben wurde, sondern mithilfe von KI.
Dies ist eine Frage, die stark vom Thema abhängt. Meine Kreise sind stark mit der Ernährung und Fütterung von Hunden verbunden. Ich sehe sofort, ob ein Text von einer KI generiert wurde – denn KIs denken, eine Million Fliegen können nicht irren.
Dasselbe ist sichtbar, wenn wir über Wandern, Paddeln usw. sprechen.
Es hängt also davon ab, welche Art von Sekte den meisten Text ins Web geschrieben hat. Deshalb zählt für alle außer den Programmierern in meinem Freundes-/Gemeinschaftskreis KI nur als ein weiterer Hype – zumindest im Moment
Habe das gerade gesehen und dachte, es wäre relevant dafür, wie einfach es sein wird (eigentlich schon ist), KI-Antworten in jede Eingabebox einzufügen:
Ich habe den ersten Fall, dass ein Benutzer wahrscheinlich ChatGPT für argumentative Antworten verwendet. Diese Person ist bereits ein grenzwertiger Troll, und ich bin mit dieser Entwicklung nicht glücklich.
Ein anderer Benutzer hat zur Identifizierung eine neue Chrome-Erweiterung verwendet:
Ich bin mir noch nicht sicher, wie gut diese Erweiterung ist – sie scheint bei unzureichenden Stichproben standardmäßig auf „Mensch“ zu setzen, kann aber bestimmte Arten/Stile von KI-generierten Texten (wie von ChatGPT generierte Limerick) übersehen.
Mein aktueller Moderationsplan, wenn man ihn so nennen kann, ist, andere Benutzer diese Missbräuche identifizieren und anprangern zu lassen und den sozialen Druck als Abschreckung wirken zu lassen. Ich weiß im Moment nicht, was sonst noch getan werden kann.
Wenn dies in meinem Forum vorkommt, möchte ich klarstellen, dass das Posten von maschinell generiertem Text ohne Kennzeichnung eine Verwarnung zur Folge hat. Im Wesentlichen ist es täuschend und verstößt somit gegen die Richtlinien.
Ich stimme grundsätzlich zu, aber die Kriterien für die Identifizierung von maschinell generiertem Text sind ein sich ständig änderndes Ziel. Die gute Nachricht ist, dass die Chrome-Erweiterung bisher keine Fehlalarme erzeugt hat, wenn auch in sehr begrenzten Tests. Die schlechte Nachricht ist zusätzliche Arbeit für Moderatoren, um die Bestimmung zu treffen, und die Notwendigkeit, mit den aktuellsten Erkennungswerkzeugen Schritt zu halten, da KI-generierter Text immer besser wird. KI-Text wird irgendwann einen Punkt erreichen, an dem die Erkennung problematisch wird.
In der Tat, aber ich betrachte es als ein Moderationsproblem. Unsere menschlichen Moderatoren achten bereits auf Beiträge, die konfrontativ, unhöflich, beleidigend, repetitiv oder irreführend sind. Dies ist eine Erweiterung davon: und mit einer lokalen kulturellen Norm, die besagt, dass echte Menschen keine maschinell erstellten Texte ohne Warnhinweis posten, ist alles, was wie maschinell erstellter Text aussieht (oder danach riecht), besonders von einem relativ neuen Benutzer, automatisch verdächtig.
Ich denke, menschliche Gehirne, insbesondere die von Moderatoren, werden recht gut darin, maschinell erstellte Texte zu erkennen. Wenn der maschinell erstellte Text von einem nützlichen Beitrag, der die Konversation voranbringt, nicht zu unterscheiden ist, haben wir kein Problem mehr. (Leute, die Beiträge mit geringem Aufwand und geringem Wert erstellen, werden vielleicht bestraft.)