Wie stehen wir alle zu ChatGPT und anderen LLMs und wie sie Foren beeinflussen werden?

BezĂŒglich Personen, die durch Kopieren und EinfĂŒgen von ChatGPT antworten, hier ein interessantes Beispiel fĂŒr Gegenreaktionen:

Ich sehe das auch in den Foren, die ich am hÀufigsten besuche (die eher technischer Natur sind). Ein bestimmter neuer Benutzer postet tÀglich 8 oder 9 Antworten, alle von ChatGPT.

Dort gibt es viele wertvolle Informationen, aber auch Ungenauigkeiten und geradezu irrefĂŒhrende Dinge (stellen Sie sich eine komplizierte 7-Schritte-Liste vor, bei der ich Schritt 6 ansehe und weiß, dass sie niemals funktionieren wird 
 aber viele Leute tun das nicht).

Dieser Benutzer scheint sich einen Ruf aufbauen zu wollen 
 wir erwĂ€gen, die Leute aufzufordern, ChatGPT-Inhalte immer explizit als das zu kennzeichnen, was sie sind. Eine Bitte, von der wir nur hoffen können, dass sie respektiert wird, aber nicht wirklich durchgesetzt werden kann.

Das macht mir Unbehagen, ich glaube nicht, dass uns das an einen guten Ort bringt. Ich befĂŒrchte, dass bedeutungslose GesprĂ€che einfach das Internet ĂŒbernehmen werden. Wir könnten gezwungen sein, echte Leben in der realen Welt zu leben, ich bin mir nicht sicher, ob wir damit umgehen können 
 :slight_smile:

14 „GefĂ€llt mir“

Mein Ă€lterer Sohn schickt mir mit VergnĂŒgen Artikel und BeitrĂ€ge, die die InanitĂ€ten von ChatGPT zeigen. Ich sage ihm immer wieder, dass die ChatGPT-Technologie in vielen Bereichen, wie der Mathematik, derzeit vielleicht auf dem Niveau der 2. oder 3. Klasse ist. Um einen meiner Professoren vor Jahren zu zitieren: Es weiß nicht, was es nicht weiß.

Ich habe es noch nicht nach einem Rezept fĂŒr einen Kuchen gefragt, ich erschaudere bei dem Gedanken, was es falsch machen könnte. (Ich habe online schon zu viele von Menschen gepostete Rezepte gesehen, die völlig unbrauchbar sind.)

Ich glaube, sinnlose Konversation hat das Internet ĂŒbernommen, als Facebook und Twitter erfunden wurden. Diejenigen von uns, die alt genug sind, um sich an USENET zu erinnern, als es noch zutreffend war, es als Videospiel fĂŒr Leute zu bezeichnen, die lesen können, könnten die Grenze noch weiter in die Vergangenheit ziehen.

3 „GefĂ€llt mir“

Wir spĂŒren das im Moment definitiv – wir betreiben ein kostenloses und offenes Discourse-Forum und sehen, wie viele ChatGPT-Ă€hnliche Spambots die bestehenden Spam-Schutzmaßnahmen umgehen.

Akismet hĂ€lt im Moment nicht mit ihnen Schritt, da ich noch nie zuvor so viele Spam-Konten durchgelassen habe. Sie neigen dazu, harmlos aussehende Kommentare zu posten, die eine Frage beantworten (oder sie umformulieren und dann beantworten) mit einer ziemlich wortreichen Antwort, die hilfreich erscheint, aber etwas Kontext oder Nuancen aus der ursprĂŒnglichen Frage vermissen lĂ€sst.

Ich gehe davon aus, dass Discourse-Foren aus Ă€hnlichen GrĂŒnden wie WordPress-Seiten vor einem Jahrzehnt als TestgelĂ€nde ins Visier genommen werden: Es handelt sich um Open-Source-Technologie, die weit verbreitet ist, sodass Bots, die den Anmeldevorgang in einem Forum durchlaufen können, wahrscheinlich Zugang zu vielen anderen erhalten.

Wir sehen derzeit nicht das traditionelle Spambot-Verhalten (Account erstellen, etwas Harmloses posten, das die Anti-Spam-Maßnahmen umgeht, und es dann innerhalb von 48 Stunden bearbeiten, um Links hinzuzufĂŒgen) – daher bin ich mir nicht sicher, was das Endziel hier ist. Es ist möglich, dass wir diese BeitrĂ€ge einfach zu schnell löschen und sie spĂ€ter zu Backlink-Farmen umgewandelt wĂŒrden.

13 „GefĂ€llt mir“

8 BeitrÀge wurden in ein neues Thema aufgeteilt: LLMs und die Auswirkungen auf den Kundensupport

Was rÀt dir ChatGPT zu deinem Problem :rofl: Und all die anderen? Und sind sie sich einig :rofl: :rofl:

4 „GefĂ€llt mir“

Ich denke, eine obligatorische 2FA wĂŒrde die meisten Bots aussortieren. Was meint ihr dazu?

Andernfalls wĂŒrde ich die Benutzer wahrscheinlich nach der Kontoerstellung ein Typeform ausfĂŒllen lassen und sie ĂŒber einen Webhook bei FormularĂŒbermittlung zu einer „verifizierten“ Gruppe hinzufĂŒgen und das Forum fĂŒr alle, die nicht verifiziert sind, schreibgeschaltet machen.

Das gesagt, da Bots jetzt das Web durchsuchen und Button-Intents verstehen können, denke ich, dass dies nur eine vorĂŒbergehende Lösung ist.

2 „GefĂ€llt mir“

Die meisten Foren sind offen (man muss sich nicht registrieren, um sie zu besuchen) und können ĂŒber Google und Ă€hnliche Dienste gefunden werden. 2FA wird das nicht verhindern.

1 „GefĂ€llt mir“

Erforderliche 2FA fĂŒr die Kontoerstellung funktioniert bei 99,9 % der Bots 


5 „GefĂ€llt mir“

Hier ist ein interessanter Roboter.

2 „GefĂ€llt mir“

Ich frage mich, ob jemand, der Lippenlesen beherrscht, es auch ohne Ton verstehen könnte?

3 „GefĂ€llt mir“

Ein weiterer Grund, bei der Verwendung der ChatGPT-Technologie vorsichtig zu sein.

Ein kalifornischer Rechtsprofessor wurde in eine von ChatGPT generierte Liste von Rechtsexperten aufgenommen, denen sexuelle BelÀstigung vorgeworfen wurde. ChatGPT zitierte eine Geschichte der Washington Post als Quelle.

Das Problem ist, dass keine solche Geschichte der Washington Post existiert und gegen diesen Rechtsprofessor niemals VorwĂŒrfe der sexuellen BelĂ€stigung erhoben wurden.

Hier ist ein Link zu der Geschichte auf der Website der Washington Post, wie es der Zufall will:
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/

Wenn dieser Link nicht funktioniert, versuchen Sie es mit diesem: https://wapo.st/3KhD2R2

9 „GefĂ€llt mir“

Jeder kann beruhigt sein, das Handelsministerium hat PlĂ€ne angekĂŒndigt, um sicherzustellen, dass KI angemessene „Leitplanken“ hat

Von der WSJ:

„Es ist erstaunlich zu sehen, was diese Werkzeuge selbst in ihrer relativen Anfangsphase leisten können“, sagte Alan Davidson, Leiter der National Telecommunications and Information Administration, der Behörde des Handelsministeriums, die die Stellungnahme angefordert hat. „Wir wissen, dass wir einige Leitplanken einrichten mĂŒssen, um sicherzustellen, dass sie verantwortungsvoll eingesetzt werden.“

:Sarkasmus aus:

3 „GefĂ€llt mir“

Ja
 wenn der Text tatsĂ€chlich noch von menschlichen Teilnehmern geschrieben wĂŒrde.
Was er wahrscheinlich immer weniger tun wird. Daher das Problem.

KI kann dazu fĂŒhren, dass all das, was Sie beschrieben haben, immer schlimmer und immer schwieriger zu erkennen wird.
Autoren von BĂŒchern ist eine Sache. Nicht mehr zu wissen, mit wem man es in Online-Diskussionen zu tun hat, ist eine andere. Alle Hinweise, die man aus einem geschriebenen Text bekommen soll, werden verzerrt, wenn er nicht echt von einer Person geschrieben wurde, sondern mithilfe von KI.

3 „GefĂ€llt mir“

Dies ist eine Frage, die stark vom Thema abhĂ€ngt. Meine Kreise sind stark mit der ErnĂ€hrung und FĂŒtterung von Hunden verbunden. Ich sehe sofort, ob ein Text von einer KI generiert wurde – denn KIs denken, eine Million Fliegen können nicht irren.

Dasselbe ist sichtbar, wenn wir ĂŒber Wandern, Paddeln usw. sprechen.

Es hĂ€ngt also davon ab, welche Art von Sekte den meisten Text ins Web geschrieben hat. Deshalb zĂ€hlt fĂŒr alle außer den Programmierern in meinem Freundes-/Gemeinschaftskreis KI nur als ein weiterer Hype – zumindest im Moment :wink:

2 „GefĂ€llt mir“

Habe das gerade gesehen und dachte, es wĂ€re relevant dafĂŒr, wie einfach es sein wird (eigentlich schon ist), KI-Antworten in jede Eingabebox einzufĂŒgen:

3 „GefĂ€llt mir“

Leicht NSFW 


5 „GefĂ€llt mir“

Ich habe den ersten Fall, dass ein Benutzer wahrscheinlich ChatGPT fĂŒr argumentative Antworten verwendet. Diese Person ist bereits ein grenzwertiger Troll, und ich bin mit dieser Entwicklung nicht glĂŒcklich.

Ein anderer Benutzer hat zur Identifizierung eine neue Chrome-Erweiterung verwendet:

Ich bin mir noch nicht sicher, wie gut diese Erweiterung ist – sie scheint bei unzureichenden Stichproben standardmĂ€ĂŸig auf „Mensch“ zu setzen, kann aber bestimmte Arten/Stile von KI-generierten Texten (wie von ChatGPT generierte Limerick) ĂŒbersehen.

Mein aktueller Moderationsplan, wenn man ihn so nennen kann, ist, andere Benutzer diese MissbrĂ€uche identifizieren und anprangern zu lassen und den sozialen Druck als Abschreckung wirken zu lassen. Ich weiß im Moment nicht, was sonst noch getan werden kann.

2 „GefĂ€llt mir“

Wenn dies in meinem Forum vorkommt, möchte ich klarstellen, dass das Posten von maschinell generiertem Text ohne Kennzeichnung eine Verwarnung zur Folge hat. Im Wesentlichen ist es tĂ€uschend und verstĂ¶ĂŸt somit gegen die Richtlinien.

3 „GefĂ€llt mir“

Ich stimme grundsĂ€tzlich zu, aber die Kriterien fĂŒr die Identifizierung von maschinell generiertem Text sind ein sich stĂ€ndig Ă€nderndes Ziel. Die gute Nachricht ist, dass die Chrome-Erweiterung bisher keine Fehlalarme erzeugt hat, wenn auch in sehr begrenzten Tests. Die schlechte Nachricht ist zusĂ€tzliche Arbeit fĂŒr Moderatoren, um die Bestimmung zu treffen, und die Notwendigkeit, mit den aktuellsten Erkennungswerkzeugen Schritt zu halten, da KI-generierter Text immer besser wird. KI-Text wird irgendwann einen Punkt erreichen, an dem die Erkennung problematisch wird.

3 „GefĂ€llt mir“

In der Tat, aber ich betrachte es als ein Moderationsproblem. Unsere menschlichen Moderatoren achten bereits auf BeitrĂ€ge, die konfrontativ, unhöflich, beleidigend, repetitiv oder irrefĂŒhrend sind. Dies ist eine Erweiterung davon: und mit einer lokalen kulturellen Norm, die besagt, dass echte Menschen keine maschinell erstellten Texte ohne Warnhinweis posten, ist alles, was wie maschinell erstellter Text aussieht (oder danach riecht), besonders von einem relativ neuen Benutzer, automatisch verdĂ€chtig.

Ich denke, menschliche Gehirne, insbesondere die von Moderatoren, werden recht gut darin, maschinell erstellte Texte zu erkennen. Wenn der maschinell erstellte Text von einem nĂŒtzlichen Beitrag, der die Konversation voranbringt, nicht zu unterscheiden ist, haben wir kein Problem mehr. (Leute, die BeitrĂ€ge mit geringem Aufwand und geringem Wert erstellen, werden vielleicht bestraft.)

3 „GefĂ€llt mir“