Blockieren von Googles "Help Me Write"

Ich habe gerade gesehen, dass Google eine Funktion veröffentlicht hat, die Chrome-Nutzer dazu ermutigt, KI zum Schreiben von Inhalten im Web zu verwenden. :confounded:

Ich denke, es hat das Potenzial, die Nützlichkeit von Online-Communities zu zerstören. Nutzer können nicht mehr darauf vertrauen, dass sie nicht mit einem Bot kommunizieren, der von jemandem gesteuert wird, der Knöpfe in seinem Browser drückt, aber eigentlich nichts zu sagen hat.

Vielleicht könnte man das erkennen, indem man verfolgt, ob der Text vom Browser eingefügt oder vom Benutzer eingegeben wird? Wenn kein Einfügen erkannt wird, aber der Editor plötzlich mit Text gefüllt ist, ist er wahrscheinlich KI-generiert.

Wenn ein Beitrag KI-generiert ist, könnte er vielleicht eine spezielle Markierung erhalten und optional zur Moderation zurückgehalten werden? Administratoren könnten sehen, wie viele Beiträge ein Nutzer macht, die wie KI-generiert aussehen. Nur ein Brainstorming.

12 „Gefällt mir“

Es gibt bereits eine Erkennung für „zu schnelles Tippen“, die das Kopieren und Einfügen abfangen sollte.

Was die Analyse des eigentlichen Inhalts betrifft, überlasse ich das einfach mal hier:

https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text

Ab dem 20. Juli 2023 ist der KI-Klassifikator aufgrund seiner geringen Genauigkeit nicht mehr verfügbar. Wir arbeiten daran, Feedback zu integrieren und erforschen derzeit effektivere Techniken zur Herkunftsbestimmung von Texten. Wir haben uns verpflichtet, Mechanismen zu entwickeln und einzusetzen, die es Benutzern ermöglichen zu verstehen, ob Audio- oder visuelle Inhalte von einer KI generiert wurden.

Mir ist kein Ersatz bekannt.

Das ist ein schwieriges Problem.

8 „Gefällt mir“

Das bestehende Tool erfasst es möglicherweise in der Moderation, aber Administratoren können nicht zwischen Kopieren/Einfügen (normalerweise ein Spammer) und browsergenerierter KI (eine neue Art von Problem mit anderen Motivationen) unterscheiden. Es wird keine Möglichkeit geben, den Verlauf zu sehen, wie oft ein Benutzer Inhalte aus Chrome oder einer Browsererweiterung in das Forum einfügt, was es einfacher machen würde, Benutzer zu erkennen, die ihre eigenen Inhalte nicht schreiben.

Ich stelle mir Benutzer vor, deren Motivation zur Teilnahme darin besteht, Online-Sichtbarkeit oder eine Art von „Punkten“ zu erlangen. Sie sind süchtig nach Lesen, haben aber jahrelang nur mitgelesen. Dieses KI-Tool ermutigt sie, etwas zu schreiben, wo sie sonst zufrieden gewesen wären, leise zu lesen.

Ich denke, wenn diese Funktion weit verbreitet genutzt wird, wird die Qualität der Inhalte in Foren allmählich abnehmen. Zumindest wird es allgemein heißen: „Die Qualität von Foren ist einfach nicht mehr so gut wie früher.“

Dieser Rückgang hat bereits im allgemeinen Web stattgefunden, und viele Leute fügen ihren Suchanfragen jetzt „reddit“ hinzu, weil sie SEO-Spam und KI-Artikel vermeiden wollen.

Wenn diese Funktion beliebt wird, wird auch die Moderation schwieriger, da jeder Beitrag, der vom Filter „Benutzer hat zu schnell getippt“ erfasst wird, sorgfältig geprüft werden muss, um festzustellen, ob es sich um KI handelt. Moderatoren können nicht schnell feststellen, ob „dies eingefügt wurde“ (möglicherweise in einem Texteditor geschrieben und kopiert) oder „dies aus Chrome oder einer Erweiterung eingefügt wurde“ (wahrscheinlich KI). Wenn Administratoren auch den Verlauf der Anzahl der eingefügten Beiträge für jeden Benutzer sehen könnten, könnten wir diese Moderationsentscheidungen leichter treffen.

1 „Gefällt mir“

Wenn jemand hier Zugriff auf diese Funktion hat, könnte er vielleicht erklären oder demonstrieren, welche Art von Ausgabe sie liefert.

1 „Gefällt mir“

Hier ist ein Screenshot. Es öffnet sich ein Feld. Sie geben ein, was geschrieben werden soll, und wenn Sie auf „Einfügen“ klicken, wird es in den Editor eingefügt. Ich habe es gebeten, einen langen Beitrag zu schreiben, aber es hat nur einen Absatz geschrieben.

Ich benutze normalerweise nicht Google Chrome, aber als ich es startete, um eine Website zu überprüfen, öffnete sich automatisch ein Tab, um für die neue Funktion zu werben.

2 „Gefällt mir“

Wenn es sofort an den Editor gesendet wird, sollte dies das Flag für die Überprüfungswarteschlange auslösen, genauso als ob es aus einer anderen Quelle kopiert und eingefügt worden wäre.

1 „Gefällt mir“

Es könnte in die Moderation gehen, aber es gibt immer noch keine Möglichkeit, die unterschiedlichen Motivationen der Nutzer zu unterscheiden.\n\nIch schlage nur vor, dass, wenn Leute anfangen, diese Funktion zu nutzen und mit KI zu posten, ein paar zusätzliche Werkzeuge es einfacher machen würden, Foren davor zu schützen:\n\n- Den Beitrag zur Moderation schicken, auch für vertrauenswürdige Nutzer (oder ihn zumindest markieren, damit er nach der Veröffentlichung von einem Menschen überprüft wird).\n- Text, der von KI-Tools eingefügt wurde, anders markieren als Copy/Paste.\n- Eine laufende Summe für jeden Nutzer führen, wie oft er Text in den Editor eingefügt hat. Ein langjähriger Nutzer, der die Funktion einmal benutzt, sollte kein großes Problem darstellen, aber die Erkennung eines Musters von Texteinfügungen wäre nützlich.

Ich konnte keine Dokumentation finden, aber ich vermute stark, dass das „KI-Tool“ die Clipboard API des Browsers verwendet, sodass eine Website die Quelle des Textes nicht unterscheiden kann.

1 „Gefällt mir“

Das ist irgendwie urkomisch. Google sollte eine Möglichkeit bieten, dies auf einer Website oder Domain zu blockieren – ähnlich wie Smart Compose für Google Docs deaktiviert werden kann.

Ich bin dafür, KI als Schreibassistenten zu nutzen, aber nicht so.

2 „Gefällt mir“

Es könnte immer noch erkennbare Unterschiede geben – zum Einfügen muss der Cursor in das Textfeld gelangen und Tasten drücken oder mit der rechten Maustaste klicken, aber zum Einfügen von Inhalten werden diese Dinge nicht getan. (Bearbeitung: Um die Funktion zu nutzen, klickt man einmal mit der rechten Maustaste. Dann gibt es eine Pause, während man das Werkzeug benutzt. Dann erfolgt die Einfügung.)

Selbst wenn es nicht erkennbar ist, wäre es nützlich, zu zählen, welche Benutzer wie oft kopieren/einfügen. Andernfalls werden Moderatoren viel Zeit damit verbringen, Beiträge zu analysieren, und Benutzer werden mit ihnen über Dinge streiten, für die sie keine Beweise haben, außer einem Bauchgefühl. Moderation ist bereits eine extrem überwältigende Aufgabe.

Danke für die Illustration @j127

Für meine eigene Community möchte ich weiterhin jedem erlauben, Übersetzungstools zu verwenden, falls er sich nicht sicher in Englisch fühlt, aber ich möchte keine langweiligen, substanzlosen KI-Beiträge. Dazwischen gibt es vielleicht Beiträge, bei denen die Person das Gefühl hatte, sie mit einem KI-Tool polieren zu wollen – es ist heutzutage üblich, dass Leute diese Tools verwenden, um ein Anschreiben, ein Dokument oder eine Präsentation zu verbessern. Ich denke, damit bin ich wahrscheinlich einverstanden.

Was mir wichtig ist, ist die Qualität des Beitrags – trägt er etwas zur Diskussion bei, drückt er die Meinungen, Erfahrungen oder das Wissen des Verfassers aus?

Ich denke, meine Verteidigung ist heute zweigeteilt:

  • Wachsam sein, dass so etwas passieren könnte
  • Möglicherweise einige Richtlinien (oder Regeln) veröffentlichen, die die Position darlegen, damit anstößige Inhalte ohne allzu große Überraschung moderiert werden können.

Es erscheint mir unwahrscheinlich, dass eine automatische Abwehr wirksam sein wird, insbesondere da die KI-Tools immer besser werden.

5 „Gefällt mir“

Absolut. Es gibt bereits eine riesige Vielfalt an KI-Modellen, Variationen, wie die Modelle trainiert werden, und unendliche Variationen bei den Prompts, die ein Benutzer zur Erzeugung von Ausgaben bereitstellen kann. Jede Strategie zur Erkennung von KI-generierten Inhalten wird sehr schnell scheitern.

3 „Gefällt mir“

Die von mir vorgeschlagene Methode verlässt sich jedoch nicht darauf, wie die KI-Inhalte generiert werden. Sie misst die Art und Weise, wie die Inhalte auf der Seite eingefügt werden, und das Timing der Benutzerinteraktionen. Sie überlässt die endgültigen Entscheidungen den Moderatoren, die mehr Informationen für ihre Entscheidungen hätten. Sie würde nicht alles erfassen, aber sie würde vieles erfassen.

In meinem Hauptforum erstellen Spammer oft Konten und posten lange Zeit, um sich als normale Benutzer auszugeben. Manchmal sind die Konten ein oder zwei Jahre alt, bevor sie anfangen, Spam-Links einzufügen. Sie posten nichts Interessantes, aber sie verstoßen auch gegen keine Regeln, so dass sie nicht sofort gesperrt werden können. Es gibt nicht genug Zeit, um mit ihnen einzeln zu sprechen, um zu sehen, ob sie legitime Benutzer sind. Das ist eine Gruppe, um die ich mir Sorgen mache.

Es mag sein, dass diese Google Chrome-Funktion nicht durchstartet, aber es besteht das Risiko, dass sie sich insgesamt stark negativ auf Foren auswirkt, die Moderationslast erhöht und die öffentliche Wahrnehmung ihres Wertes senkt, da es mehr nichtssagende KI-Inhalte gibt, die gerade noch knapp durchgehen.

Wenn sie sich durchsetzt, wird es keine Möglichkeit geben, einen KI-Post von einem Benutzer zu unterscheiden, der einfach nicht sehr gut schreibt, aber dennoch im Bereich akzeptabler Inhalte liegt, und der Versuch, diese Moderationsentscheidungen ohne Daten zu treffen, könnte zu einer überwältigenden Belastung für die Administratoren werden. Wenn ein Moderator eine falsche Entscheidung trifft oder die beschuldigte Person lügt, dass sie KI verwendet, könnte dies zu zeitaufwändigen Hin-und-Her-Gesprächen mit Benutzern führen.

Es mag zu früh sein, eine Funktion zur Abwehr des Problems hinzuzufügen, aber ich hoffe, dass Discourse dies im Auge behalten wird.

Wir werden diesen Bereich weiterhin sehr genau beobachten.

Wir müssen Erfolgs- und Misserfolgsgeschichten von Communities hören, um Strategien zu entwickeln.

Hier gibt es ein riesiges Spektrum:

  • Rechtschreib-/Phrasenprüfung+++ … sollte sie verboten werden? Wenn KI meine Texte etwas klarer macht, ist es dann wirklich ein Verbrechen, dass sie einiges entfernt hat?
  • Mehrsprachige Geschichten … wäre es nicht schön, wenn echte mehrsprachige Foren entstehen könnten? Nicht jeder spricht hervorragendes Englisch.
  • Ist es ein Verbrechen, einen Brainstorming-Partner zu haben, mit dem man Ideen austauschen kann, bevor man sie postet?

Ich denke, es gibt sicherlich einen Wert darin, die Moderation zu verbessern … Ein Gelb-/Orange-/Rotsystem könnte interessant sein … sicherlich.

5 „Gefällt mir“

Mein Einwand gegen Googles KI-Schreibhilfe ist deren Benutzeroberfläche. Sie generiert eine Antwort und zeigt eine große Schaltfläche „Einfügen“ an. Der nicht-träge Weg, KI als Schreibwerkzeug zu nutzen, ist, sich mit ihr darüber zu unterhalten, was man schreibt.

2 „Gefällt mir“

Ja, dem stimme ich sehr zu. Wir haben vielleicht KI-Detektoren, aber warum hat es 15 Minuten gedauert, bis jemand einen KI-generierten Leitfaden* (im Forum, aus dem ich komme) entdeckt hat? Er mag deaktiviert sein, aber er macht die harte Arbeit der Menschen durch KI bedeutungslos. Tatsächlich hatten wir zwei Begegnungen mit KI-generierten Leitfäden und einen KI-Nutzer.

*

In diesem Forum hatten wir im Juni schlechte Erfahrungen mit KI, und die meisten von uns glauben daran, Dinge selbst zu tun (insbesondere das Schreiben von Leitfäden).

1 „Gefällt mir“

Vielen Dank, dass Sie das im Auge behalten haben.

Ich bin nicht gegen KI – nur gegen KI-generierte Inhalte, die als von einem Menschen geschrieben ausgegeben werden.

In meinem Hauptforum lautet meine Regel bezüglich KI-Inhalten, dass es in Ordnung ist, Ideen von Tools wie ChatGPT zu posten, solange dies klar als von ChatGPT stammend gekennzeichnet ist. Leute können einige Ausgaben von ChatGPT posten, die die Grundlage für eine Konversation zwischen Menschen bilden. Kommentare von Robotern, die sich als Menschen ausgeben, sind jedoch nicht erlaubt.

Ich denke, Erweiterungen wie Grammarly werden für bestimmte Websites aktiviert und arbeiten dann mit Text, der bereits direkt in Textbereiche eingegeben wurde, sodass sie nicht als KI-Einfügung erkannt werden.

Wenn jemand eine separate Grammatikprüfungs-App anstelle einer Browser-Erweiterung verwendet, dann würde eine Interaktion wie Strg-V (oder Cmd-V oder Rechtsklick & Einfügen) erkannt werden, was sie von direkter KI-Einfügung unterscheiden würde.

Es scheint ideal zu sein, wenn Leute Inhalte in ihrer eigenen Sprache schreiben und dann eine KI, die im Forum läuft, die Übersetzungen vornimmt. Die Übersetzungstechnologie wird sich weiter verbessern, sodass Benutzer, die in ihrer Muttersprache posten, wahrscheinlich langfristig zu besser übersetzten Inhalten führen werden.

Ich denke, dass Benutzer, die KI-Inhalte in Fremdsprachen einfügen, es wahrscheinlich noch nützlicher machen werden, zu wissen, ob der Inhalt mit einem KI-Tool eingefügt wurde. Im Moment ist es normalerweise nicht schwierig, ChatGPT-Inhalte auf Englisch nur durch Lesen zu erkennen, aber KI-generierte Inhalte in anderen Sprachen werden wahrscheinlich nicht erkennbar sein, außer durch die Überwachung von Benutzerinteraktionen mit der Seite.

Ich frage mich, ob Leute, die das tun, einen sehr kleinen Prozentsatz der KI-Nutzer ausmachen. Wenn jemand mit KI in einem anderen Fenster brainstormt und dann Text einfügt, wären die Tastatureingaben/Klicks nachverfolgbar. Googles Tool macht kein Brainstorming, sondern generiert nur automatisch Inhalte.

Die Erkennung von KI-Text, d. h. die Fähigkeit, maschinell erstellten Text von menschlich erstelltem Text zu unterscheiden, hängt von mehreren Faktoren ab, wobei die Sprache einer davon ist. Englisch steht seit langem im Zentrum der KI-Forschung und -Entwicklung, was bedeutet, dass englischsprachige Modelle stärker trainiert wurden und oft ausgefeilter sind. Dies kann dazu führen, dass englischsprachiger KI-Text flüssiger und schwerer zu erkennen ist als in anderen Sprachen.

Andererseits verbessert sich mit der Weiterentwicklung von KI-Modellen und ihrem Training auf mehrsprachigen Daten ihre Fähigkeit, glaubwürdige Texte in anderen Sprachen zu produzieren. Mehrsprachige Modelle wie GPT-3 und seine Nachfolger haben ihre Fähigkeit bewiesen, flüssige Texte in mehreren Sprachen zu produzieren. Das bedeutet, dass die Kluft bei der Schwierigkeit der Erkennung von KI-generiertem Text in verschiedenen Sprachen im Laufe der Zeit schmaler werden könnte.

Die KI-Text-Erkennung hängt auch von anderen Faktoren ab, wie z. B. dem Kontext des Textes, der Komplexität des Themas und der Fähigkeit des Lesers, unnatürliche Ausdrücke oder sich wiederholende Muster im Text zu erkennen. Darüber hinaus können sprachspezifische Merkmale wie Grammatik und Wortschatz beeinflussen, wie einfach oder schwierig es ist, KI-generierten Text zu erkennen.

Ja, das war KI-generiert und anfangs auf Finnisch. Die finnische Version war leicht manuell zu erkennen, weil niemand so spricht. Ansonsten war es treffend, aber der Ton war seltsam.

Dann habe ich es durch DeepL geschickt, um die englische Version zu erhalten. Selbst ich sehe sofort, dass eine hohe Wahrscheinlichkeit besteht, dass es von einer KI geschrieben wurde.

Meine Schwäche ist, wenn jede KI-Lösung gleichermaßen schlecht darin ist, Texte zu erstellen, die Muttersprachler täuschen können, dann ist die KI völlig zahnlos, um den Unterschied zu erkennen.

(Und ich bin ein wenig verwirrt, warum es so lausig ist, selbst auf Englisch)

Was bleibt also? Zum Beispiel die Erkennung von bereits erwähnten Kopieraktionen.

Es ist mir egal, wie viele Grammatikfehler ich mache oder wie sehr ich Präpositionen vergewaltige, man kann mich normalerweise gut genug verstehen, aber manchmal kann es eine Situation geben, in der ich so sauberes Englisch wie möglich schreiben möchte oder muss. Dann kann ich die KI bitten, meinen Text zu korrigieren und ihn zu verwenden oder DeepL, um ihn ins Englische zu übersetzen.

Was denkst du, wie ich diesen Text hier bekomme :smirking_face: Genau. Und wenn mich zu diesem Zeitpunkt ein anderer Automat darauf hinweist, dass mein Text wegen Strg+V markiert ist, weil

  • Ich habe ihn woanders übersetzt
  • Ich habe diesen Text wie empfohlen mit PM hier erstellt

wäre ich wirklich verärgert.

Nochmals, ich bin nur ein weiterer Endbenutzer, aber ich sehe nicht, wie wir dieses Spiel gewinnen können. Gleiches Problem wie bei KI-Bildern.

Manchmal stellen wir fest, dass wir nach technischen Lösungen für soziale Probleme suchen. Das soziale Problem hier sind qualitativ minderwertige Beiträge: Eine Richtlinie, die durch Moderatorenmaßnahmen unterstützt wird, sollte funktionieren … außer dem Problem der Skalierbarkeit.

Ich betreibe kleine Foren, daher ist das nicht mein Problem. Ein kleines Forum kann zu einem großen Forum werden, es wäre möglich, dies geschehen zu lassen, ohne die Moderation – und die Benutzerkennzeichnung – zu skalieren. Ihre Benutzer müssen auf qualitativ minderwertige Inhalte achten, und Ihre Moderatoren müssen auf Kennzeichnungen reagieren.

Ich denke – hoffe –, dass wir vermeiden können, von KI-Posts überschwemmt zu werden, ohne die Fähigkeit der Menschen zur automatischen Übersetzung zu verlieren. Wir brauchen keinen 100%igen Erfolg – wir müssen den Inhalt unseres Forums auf einem Qualitätsniveau halten, das für die Benutzer funktioniert, damit die Leute immer wiederkommen, weiterhin Beiträge leisten und bei der Kennzeichnung helfen.

2 „Gefällt mir“

Es wird nicht einfach sein, dies nur anhand einzelner Beiträge zu erkennen, weshalb ich vorgeschlagen habe, Statistiken darüber zu führen, wie oft Benutzer dies tun — möglicherweise anhand von Dingen wie Strg+V, Rechtsklicks, Tab-Fokus und Texteinfügung (separate Bewertungen). Ziel wäre es, Muster von Benutzern zu erkennen, damit es Beweise gibt, wenn es an der Zeit ist, sie zu konfrontieren, anstatt nur zu raten.

Die endgültigen Moderationsentscheidungen würden immer noch von Menschen getroffen, aber der Hauptunterschied besteht darin, dass diese Menschen mehr Daten hätten, um diese Entscheidungen schneller und genauer zu treffen. Nicht jeder Fall muss konfrontiert werden, aber einige schon.

Es könnte Möglichkeiten geben, verschiedene Arten von Motivationen zu erkennen. Ein Beitrag, bei dem der Verfasser lange offen ist und nach dem Verlust des Tab-Fokus viele Einfügungen erfolgen, ist wahrscheinlich keine KI-Texteinschleusung.

Die Daten, die Discourse bereits bereitstellt, haben die Moderationsentscheidungen erheblich erleichtert — selbst grundlegende Dinge wie der Standort der IP-Adresse, kombiniert mit dem Benutzernamen, dem Inhalt des ersten Beitrags, ob sie zu schnell getippt haben, typing_duration_msecs, composer_open_duration_msecs usw.

Ich denke, ein paar weitere Felder dort wären nützlich, wenn Googles Funktion Anklang findet. Selbst wenn Discourse keinen hochentwickelten Detektor für KI entwickelt, könnte das Sammeln dieser Daten in der Datenbank es für andere einfacher machen, Plugins zu entwickeln.


Ich habe es vorher nicht bemerkt, aber gerade eben ist hier eine „KI“-Sache aufgetaucht, die ins Englische übersetzt wird. Ich persönlich würde das auf meinem Forum nicht so machen. Ich würde die Benutzer in ihren eigenen Sprachen schreiben lassen, und dann einen Übersetzer darauf anwenden, bevor ich es den anderen Benutzern präsentiere. Das ist es, was ich oben in meinem Kommentar über zukünftige Übersetzungssoftware meinte, die besser sein wird als die heutige. Durch die Speicherung der Muttersprache des Benutzers könnten die besseren Übersetzungsprogramme der 2030er und 2040er Jahre darauf angewendet werden, und der Inhalt könnte von Benutzern, die diese Sprache sprechen, gelesen werden, ohne ihn ins Englische und zurück zu übersetzen.