BezĂŒglich Personen, die durch Kopieren und EinfĂŒgen von ChatGPT antworten, hier ein interessantes Beispiel fĂŒr Gegenreaktionen:
Ich sehe das auch in den Foren, die ich am hÀufigsten besuche (die eher technischer Natur sind). Ein bestimmter neuer Benutzer postet tÀglich 8 oder 9 Antworten, alle von ChatGPT.
Dort gibt es viele wertvolle Informationen, aber auch Ungenauigkeiten und geradezu irrefĂŒhrende Dinge (stellen Sie sich eine komplizierte 7-Schritte-Liste vor, bei der ich Schritt 6 ansehe und weiĂ, dass sie niemals funktionieren wird ⊠aber viele Leute tun das nicht).
Dieser Benutzer scheint sich einen Ruf aufbauen zu wollen ⊠wir erwÀgen, die Leute aufzufordern, ChatGPT-Inhalte immer explizit als das zu kennzeichnen, was sie sind. Eine Bitte, von der wir nur hoffen können, dass sie respektiert wird, aber nicht wirklich durchgesetzt werden kann.
Das macht mir Unbehagen, ich glaube nicht, dass uns das an einen guten Ort bringt. Ich befĂŒrchte, dass bedeutungslose GesprĂ€che einfach das Internet ĂŒbernehmen werden. Wir könnten gezwungen sein, echte Leben in der realen Welt zu leben, ich bin mir nicht sicher, ob wir damit umgehen können âŠ
Mein Ă€lterer Sohn schickt mir mit VergnĂŒgen Artikel und BeitrĂ€ge, die die InanitĂ€ten von ChatGPT zeigen. Ich sage ihm immer wieder, dass die ChatGPT-Technologie in vielen Bereichen, wie der Mathematik, derzeit vielleicht auf dem Niveau der 2. oder 3. Klasse ist. Um einen meiner Professoren vor Jahren zu zitieren: Es weiĂ nicht, was es nicht weiĂ.
Ich habe es noch nicht nach einem Rezept fĂŒr einen Kuchen gefragt, ich erschaudere bei dem Gedanken, was es falsch machen könnte. (Ich habe online schon zu viele von Menschen gepostete Rezepte gesehen, die völlig unbrauchbar sind.)
Ich glaube, sinnlose Konversation hat das Internet ĂŒbernommen, als Facebook und Twitter erfunden wurden. Diejenigen von uns, die alt genug sind, um sich an USENET zu erinnern, als es noch zutreffend war, es als Videospiel fĂŒr Leute zu bezeichnen, die lesen können, könnten die Grenze noch weiter in die Vergangenheit ziehen.
Wir spĂŒren das im Moment definitiv â wir betreiben ein kostenloses und offenes Discourse-Forum und sehen, wie viele ChatGPT-Ă€hnliche Spambots die bestehenden Spam-SchutzmaĂnahmen umgehen.
Akismet hĂ€lt im Moment nicht mit ihnen Schritt, da ich noch nie zuvor so viele Spam-Konten durchgelassen habe. Sie neigen dazu, harmlos aussehende Kommentare zu posten, die eine Frage beantworten (oder sie umformulieren und dann beantworten) mit einer ziemlich wortreichen Antwort, die hilfreich erscheint, aber etwas Kontext oder Nuancen aus der ursprĂŒnglichen Frage vermissen lĂ€sst.
Ich gehe davon aus, dass Discourse-Foren aus Ă€hnlichen GrĂŒnden wie WordPress-Seiten vor einem Jahrzehnt als TestgelĂ€nde ins Visier genommen werden: Es handelt sich um Open-Source-Technologie, die weit verbreitet ist, sodass Bots, die den Anmeldevorgang in einem Forum durchlaufen können, wahrscheinlich Zugang zu vielen anderen erhalten.
Wir sehen derzeit nicht das traditionelle Spambot-Verhalten (Account erstellen, etwas Harmloses posten, das die Anti-Spam-MaĂnahmen umgeht, und es dann innerhalb von 48 Stunden bearbeiten, um Links hinzuzufĂŒgen) â daher bin ich mir nicht sicher, was das Endziel hier ist. Es ist möglich, dass wir diese BeitrĂ€ge einfach zu schnell löschen und sie spĂ€ter zu Backlink-Farmen umgewandelt wĂŒrden.
Ich denke, eine obligatorische 2FA wĂŒrde die meisten Bots aussortieren. Was meint ihr dazu?
Andernfalls wĂŒrde ich die Benutzer wahrscheinlich nach der Kontoerstellung ein Typeform ausfĂŒllen lassen und sie ĂŒber einen Webhook bei FormularĂŒbermittlung zu einer âverifiziertenâ Gruppe hinzufĂŒgen und das Forum fĂŒr alle, die nicht verifiziert sind, schreibgeschaltet machen.
Das gesagt, da Bots jetzt das Web durchsuchen und Button-Intents verstehen können, denke ich, dass dies nur eine vorĂŒbergehende Lösung ist.
Die meisten Foren sind offen (man muss sich nicht registrieren, um sie zu besuchen) und können ĂŒber Google und Ă€hnliche Dienste gefunden werden. 2FA wird das nicht verhindern.
Ein weiterer Grund, bei der Verwendung der ChatGPT-Technologie vorsichtig zu sein.
Ein kalifornischer Rechtsprofessor wurde in eine von ChatGPT generierte Liste von Rechtsexperten aufgenommen, denen sexuelle BelÀstigung vorgeworfen wurde. ChatGPT zitierte eine Geschichte der Washington Post als Quelle.
Das Problem ist, dass keine solche Geschichte der Washington Post existiert und gegen diesen Rechtsprofessor niemals VorwĂŒrfe der sexuellen BelĂ€stigung erhoben wurden.
Jeder kann beruhigt sein, das Handelsministerium hat PlĂ€ne angekĂŒndigt, um sicherzustellen, dass KI angemessene âLeitplankenâ hat
Von der WSJ:
âEs ist erstaunlich zu sehen, was diese Werkzeuge selbst in ihrer relativen Anfangsphase leisten könnenâ, sagte Alan Davidson, Leiter der National Telecommunications and Information Administration, der Behörde des Handelsministeriums, die die Stellungnahme angefordert hat. âWir wissen, dass wir einige Leitplanken einrichten mĂŒssen, um sicherzustellen, dass sie verantwortungsvoll eingesetzt werden.â
Ja⊠wenn der Text tatsĂ€chlich noch von menschlichen Teilnehmern geschrieben wĂŒrde.
Was er wahrscheinlich immer weniger tun wird. Daher das Problem.
KI kann dazu fĂŒhren, dass all das, was Sie beschrieben haben, immer schlimmer und immer schwieriger zu erkennen wird.
Autoren von BĂŒchern ist eine Sache. Nicht mehr zu wissen, mit wem man es in Online-Diskussionen zu tun hat, ist eine andere. Alle Hinweise, die man aus einem geschriebenen Text bekommen soll, werden verzerrt, wenn er nicht echt von einer Person geschrieben wurde, sondern mithilfe von KI.
Dies ist eine Frage, die stark vom Thema abhĂ€ngt. Meine Kreise sind stark mit der ErnĂ€hrung und FĂŒtterung von Hunden verbunden. Ich sehe sofort, ob ein Text von einer KI generiert wurde â denn KIs denken, eine Million Fliegen können nicht irren.
Dasselbe ist sichtbar, wenn wir ĂŒber Wandern, Paddeln usw. sprechen.
Es hĂ€ngt also davon ab, welche Art von Sekte den meisten Text ins Web geschrieben hat. Deshalb zĂ€hlt fĂŒr alle auĂer den Programmierern in meinem Freundes-/Gemeinschaftskreis KI nur als ein weiterer Hype â zumindest im Moment
Habe das gerade gesehen und dachte, es wĂ€re relevant dafĂŒr, wie einfach es sein wird (eigentlich schon ist), KI-Antworten in jede Eingabebox einzufĂŒgen:
Ich habe den ersten Fall, dass ein Benutzer wahrscheinlich ChatGPT fĂŒr argumentative Antworten verwendet. Diese Person ist bereits ein grenzwertiger Troll, und ich bin mit dieser Entwicklung nicht glĂŒcklich.
Ein anderer Benutzer hat zur Identifizierung eine neue Chrome-Erweiterung verwendet:
Ich bin mir noch nicht sicher, wie gut diese Erweiterung ist â sie scheint bei unzureichenden Stichproben standardmĂ€Ăig auf âMenschâ zu setzen, kann aber bestimmte Arten/Stile von KI-generierten Texten (wie von ChatGPT generierte Limerick) ĂŒbersehen.
Mein aktueller Moderationsplan, wenn man ihn so nennen kann, ist, andere Benutzer diese MissbrÀuche identifizieren und anprangern zu lassen und den sozialen Druck als Abschreckung wirken zu lassen. Ich weià im Moment nicht, was sonst noch getan werden kann.
Wenn dies in meinem Forum vorkommt, möchte ich klarstellen, dass das Posten von maschinell generiertem Text ohne Kennzeichnung eine Verwarnung zur Folge hat. Im Wesentlichen ist es tĂ€uschend und verstöĂt somit gegen die Richtlinien.
Ich stimme grundsĂ€tzlich zu, aber die Kriterien fĂŒr die Identifizierung von maschinell generiertem Text sind ein sich stĂ€ndig Ă€nderndes Ziel. Die gute Nachricht ist, dass die Chrome-Erweiterung bisher keine Fehlalarme erzeugt hat, wenn auch in sehr begrenzten Tests. Die schlechte Nachricht ist zusĂ€tzliche Arbeit fĂŒr Moderatoren, um die Bestimmung zu treffen, und die Notwendigkeit, mit den aktuellsten Erkennungswerkzeugen Schritt zu halten, da KI-generierter Text immer besser wird. KI-Text wird irgendwann einen Punkt erreichen, an dem die Erkennung problematisch wird.
In der Tat, aber ich betrachte es als ein Moderationsproblem. Unsere menschlichen Moderatoren achten bereits auf BeitrĂ€ge, die konfrontativ, unhöflich, beleidigend, repetitiv oder irrefĂŒhrend sind. Dies ist eine Erweiterung davon: und mit einer lokalen kulturellen Norm, die besagt, dass echte Menschen keine maschinell erstellten Texte ohne Warnhinweis posten, ist alles, was wie maschinell erstellter Text aussieht (oder danach riecht), besonders von einem relativ neuen Benutzer, automatisch verdĂ€chtig.
Ich denke, menschliche Gehirne, insbesondere die von Moderatoren, werden recht gut darin, maschinell erstellte Texte zu erkennen. Wenn der maschinell erstellte Text von einem nĂŒtzlichen Beitrag, der die Konversation voranbringt, nicht zu unterscheiden ist, haben wir kein Problem mehr. (Leute, die BeitrĂ€ge mit geringem Aufwand und geringem Wert erstellen, werden vielleicht bestraft.)