In einer eng verwandten Angelegenheit hat einer der Kolumnisten des WSJ das Chatbot-Bestellsystem für Drive-Throughs von Hardee’s 30 Tests unterzogen, und es schnitt anscheinend ziemlich gut ab, nur 3 mussten an Menschen zur Beantwortung verwiesen werden.
Können Sie auf die Ankündigung verlinken?
Es würde uns, die wir nicht auf dem neuesten Stand sind (hyper schnell), etwas Kontext geben ![]()
Perfekt, danke @RGJ ![]()
Es scheint, dass es speziell um diese Verpflichtung geht:
Ich denke also, dass dies wirklich den Unternehmen überlassen bleibt, dies zu ermöglichen. Aber das Wasserzeichen von Text ist ziemlich unmöglich, wie @merefield oben erwähnt hat.
Was würdest du von Discourse in diesem Fall erwarten, @MikeNolan? Wenn ein Benutzer einfach KI-generierten Text kopiert und einfügt, gibt es keine Möglichkeit für Discourse, davon zu erfahren (abgesehen von der Ausführung von Spam- und KI-Detektoren), daher sehe ich nicht wirklich, wie diese spezielle Vereinbarung vorerst etwas ändert.
Benutzer-eingefügte KI-generierte Inhalte sind wahrscheinlich nichts, womit Discourse viel anfangen kann, da sie sich wahrscheinlich nicht von menschlich generierten Inhalten unterscheiden lässt (abgesehen davon, dass sie möglicherweise besser geschrieben ist), aber wenn Sie ein offizielles Discourse AI-Plugin verwenden, kann Discourse vielleicht etwas zum Wasserzeichen oder zur Kennzeichnung dessen tun, was es generiert?
Ah, auf diese Weise, ja, ich kann sehen, wie das Sinn ergibt ![]()
Wir haben mit der Arbeit daran begonnen, zum Beispiel ist diese Themenzusammenfassung mit einem Wasserzeichen versehen:
Die Arbeit an der Benutzeroberfläche für die Zusammenfassung hat die meiste Aufmerksamkeit erhalten, daher sind wir dort bereits nahe an der endgültigen Form und haben diese Einrichtung. Andere werden folgen.
Vielleicht ein wenig semantisch, aber zwei Eigenschaften digitaler Wasserzeichen sind, dass sie für den zufälligen Betrachter verborgen und schwer zu entfernen sind.
Ich würde denken, dass die OFFENE Anerkennung von KI-generierten Inhalten sowohl für Text als auch für Bilder wichtig ist.
Versteckte digitale Signaturen sind nützlicher für Dinge wie die Durchsetzung von Bildurheberrechten.
Ich bin im Ugly Hedghog Fotografie-Forum aktiv, wo die Frage, ob KI-generierte oder modifizierte Bilder als Fotografien gelten, intensiv diskutiert wird. (Einige KI-generierte Bilder haben Fotowettbewerbe gewonnen.)
Das Problem, das wir gerade diskutieren, ist, dass Menschen mit böswilliger Absicht KI nutzen werden, um Dinge zu generieren und dann die Anerkennung zu entfernen und zu versuchen, sie als von Menschen generierte Inhalte auszugeben. Das impliziert die Anforderung eines Ursprungs-“Tags”, der schwer zu entfernen ist.
Die Absicht ist nicht unbedingt böswillig, aber sie ist weniger als ehrlich.
Viel Glück bei der Suche nach einer Möglichkeit, KI-generierten Text zu “markieren”, der nicht durch etwas möglicherweise so Rudimentäres wie Copy-Paste überwunden werden kann.
Könnten Nullbreitenzeichen dafür verwendet werden?
Nein, diese können leicht entfernt werden, indem der Inhalt durch einen Filter geleitet wird, der nur normale alphabetische Zeichen beibehält. Das Wasserzeichen von Text ist sehr, sehr schwierig. Auf der Ebene der Zeichenrepräsentation kann man es im Grunde nicht tun.
Dieser Blogbeitrag von Scott Aaronson erklärt ein wenig, wie es funktionieren könnte. Scrollen Sie nach unten zum Abschnitt „Meine Projekte bei OpenAI“. Die dort beschriebene Methode ist kopier-/einfach-sicher @MikeNolan
Danke, das ist interessant:
Mein Hauptprojekt bisher war ein Werkzeug zur statistischen Wasserzeichensetzung der Ausgaben eines Textmodells wie GPT. Grundsätzlich wollen wir, dass immer wenn GPT einen langen Text generiert, eine ansonsten unmerkliche geheime Signatur in seinen Wortwahlen vorhanden ist, mit der man später beweisen kann, dass dieser Text von GPT stammt. Wir wollen es viel schwieriger machen, eine GPT-Ausgabe zu nehmen und sie so auszugeben, als käme sie von einem Menschen. Das könnte offensichtlich zur Verhinderung von akademischem Plagiat hilfreich sein, aber auch zum Beispiel zur Massenproduktion von Propaganda… Oder zur Nachahmung des Schreibstils einer Person, um sie zu belasten. Das sind alles Dinge, die man erschweren möchte, oder?
…
Um dann ein Wasserzeichen zu setzen, anstatt das nächste Token zufällig auszuwählen, wird die Idee sein, es pseudozufällig auszuwählen, unter Verwendung einer kryptografischen Pseudozufallsfunktion, deren Schlüssel nur OpenAI bekannt ist. Das wird für den Endbenutzer keinen nachweisbaren Unterschied machen, vorausgesetzt, der Endbenutzer kann die pseudozufälligen Zahlen nicht von wirklich zufälligen unterscheiden.
Eine meiner Sorgen bei dem Versuch, KI-generierte Texte zu identifizieren, ist, dass sie versehentlich gut geschriebene, von Menschen generierte Texte anvisieren wird.
gut geschriebener, von Menschen erzeugter Text scheint auf vielen Foren die Ausnahme zu sein. :sigh:
Ich kehre einfach zur Motivation zurück.
Wenn Sie böse Absicht identifizieren, sperren oder suspendieren Sie.
Wenn es sich um gut geschriebene, gut gemeinte Texte mit stichhaltigen Fakten handelt, lassen Sie es dann so?
Was ist, wenn die Muttersprache des Benutzers nicht Englisch ist und er ChatGPT verwendet hat, um seine Grammatik zu verbessern?
OK, ich mache mir Sorgen, dass es meine Beiträge treffen könnte ![]()
Ich denke schon. Ich sehe kein Problem damit, wenn Leute KI nutzen, um Beiträge zu verfassen, vorausgesetzt, es gibt einen tatsächlichen Menschen, der entscheidet, ob der von der KI generierte Text postwürdig ist oder nicht.
Es gibt eine Reihe von Tools, die helfen können, die Grammatik zu verbessern. Ich weiß nicht, ob ChatGPT besser ist als der Rest.
Die Verbesserung der Grammatik ist jedoch ein etwas anderes Problem als die Erstellung von „originellem“ Inhalt. Die KI-Engines werden zunehmend von den Content-Besitzern ins Visier genommen, die eine Vergütung dafür wünschen, dass ihr Material zum Trainieren der KI-Engine verwendet wird.


