In einer eng verwandten Angelegenheit hat einer der Kolumnisten des WSJ das Chatbot-Bestellsystem fĂŒr Drive-Throughs von Hardeeâs 30 Tests unterzogen, und es schnitt anscheinend ziemlich gut ab, nur 3 mussten an Menschen zur Beantwortung verwiesen werden.
Können Sie auf die AnkĂŒndigung verlinken?
Es wĂŒrde uns, die wir nicht auf dem neuesten Stand sind (hyper schnell), etwas Kontext geben ![]()
Perfekt, danke @RGJ ![]()
Es scheint, dass es speziell um diese Verpflichtung geht:
Ich denke also, dass dies wirklich den Unternehmen ĂŒberlassen bleibt, dies zu ermöglichen. Aber das Wasserzeichen von Text ist ziemlich unmöglich, wie @merefield oben erwĂ€hnt hat.
Was wĂŒrdest du von Discourse in diesem Fall erwarten, @MikeNolan? Wenn ein Benutzer einfach KI-generierten Text kopiert und einfĂŒgt, gibt es keine Möglichkeit fĂŒr Discourse, davon zu erfahren (abgesehen von der AusfĂŒhrung von Spam- und KI-Detektoren), daher sehe ich nicht wirklich, wie diese spezielle Vereinbarung vorerst etwas Ă€ndert.
Benutzer-eingefĂŒgte KI-generierte Inhalte sind wahrscheinlich nichts, womit Discourse viel anfangen kann, da sie sich wahrscheinlich nicht von menschlich generierten Inhalten unterscheiden lĂ€sst (abgesehen davon, dass sie möglicherweise besser geschrieben ist), aber wenn Sie ein offizielles Discourse AI-Plugin verwenden, kann Discourse vielleicht etwas zum Wasserzeichen oder zur Kennzeichnung dessen tun, was es generiert?
Ah, auf diese Weise, ja, ich kann sehen, wie das Sinn ergibt ![]()
Wir haben mit der Arbeit daran begonnen, zum Beispiel ist diese Themenzusammenfassung mit einem Wasserzeichen versehen:
Die Arbeit an der BenutzeroberflĂ€che fĂŒr die Zusammenfassung hat die meiste Aufmerksamkeit erhalten, daher sind wir dort bereits nahe an der endgĂŒltigen Form und haben diese Einrichtung. Andere werden folgen.
Vielleicht ein wenig semantisch, aber zwei Eigenschaften digitaler Wasserzeichen sind, dass sie fĂŒr den zufĂ€lligen Betrachter verborgen und schwer zu entfernen sind.
Ich wĂŒrde denken, dass die OFFENE Anerkennung von KI-generierten Inhalten sowohl fĂŒr Text als auch fĂŒr Bilder wichtig ist.
Versteckte digitale Signaturen sind nĂŒtzlicher fĂŒr Dinge wie die Durchsetzung von Bildurheberrechten.
Ich bin im Ugly Hedghog Fotografie-Forum aktiv, wo die Frage, ob KI-generierte oder modifizierte Bilder als Fotografien gelten, intensiv diskutiert wird. (Einige KI-generierte Bilder haben Fotowettbewerbe gewonnen.)
Das Problem, das wir gerade diskutieren, ist, dass Menschen mit böswilliger Absicht KI nutzen werden, um Dinge zu generieren und dann die Anerkennung zu entfernen und zu versuchen, sie als von Menschen generierte Inhalte auszugeben. Das impliziert die Anforderung eines Ursprungs-âTagsâ, der schwer zu entfernen ist.
Die Absicht ist nicht unbedingt böswillig, aber sie ist weniger als ehrlich.
Viel GlĂŒck bei der Suche nach einer Möglichkeit, KI-generierten Text zu âmarkierenâ, der nicht durch etwas möglicherweise so RudimentĂ€res wie Copy-Paste ĂŒberwunden werden kann.
Könnten Nullbreitenzeichen dafĂŒr verwendet werden?
Nein, diese können leicht entfernt werden, indem der Inhalt durch einen Filter geleitet wird, der nur normale alphabetische Zeichen beibehÀlt. Das Wasserzeichen von Text ist sehr, sehr schwierig. Auf der Ebene der ZeichenreprÀsentation kann man es im Grunde nicht tun.
Dieser Blogbeitrag von Scott Aaronson erklĂ€rt ein wenig, wie es funktionieren könnte. Scrollen Sie nach unten zum Abschnitt âMeine Projekte bei OpenAIâ. Die dort beschriebene Methode ist kopier-/einfach-sicher @MikeNolan
Danke, das ist interessant:
Mein Hauptprojekt bisher war ein Werkzeug zur statistischen Wasserzeichensetzung der Ausgaben eines Textmodells wie GPT. GrundsÀtzlich wollen wir, dass immer wenn GPT einen langen Text generiert, eine ansonsten unmerkliche geheime Signatur in seinen Wortwahlen vorhanden ist, mit der man spÀter beweisen kann, dass dieser Text von GPT stammt. Wir wollen es viel schwieriger machen, eine GPT-Ausgabe zu nehmen und sie so auszugeben, als kÀme sie von einem Menschen. Das könnte offensichtlich zur Verhinderung von akademischem Plagiat hilfreich sein, aber auch zum Beispiel zur Massenproduktion von Propaganda⊠Oder zur Nachahmung des Schreibstils einer Person, um sie zu belasten. Das sind alles Dinge, die man erschweren möchte, oder?
âŠ
Um dann ein Wasserzeichen zu setzen, anstatt das nĂ€chste Token zufĂ€llig auszuwĂ€hlen, wird die Idee sein, es pseudozufĂ€llig auszuwĂ€hlen, unter Verwendung einer kryptografischen Pseudozufallsfunktion, deren SchlĂŒssel nur OpenAI bekannt ist. Das wird fĂŒr den Endbenutzer keinen nachweisbaren Unterschied machen, vorausgesetzt, der Endbenutzer kann die pseudozufĂ€lligen Zahlen nicht von wirklich zufĂ€lligen unterscheiden.
Eine meiner Sorgen bei dem Versuch, KI-generierte Texte zu identifizieren, ist, dass sie versehentlich gut geschriebene, von Menschen generierte Texte anvisieren wird.
gut geschriebener, von Menschen erzeugter Text scheint auf vielen Foren die Ausnahme zu sein. :sigh:
Ich kehre einfach zur Motivation zurĂŒck.
Wenn Sie böse Absicht identifizieren, sperren oder suspendieren Sie.
Wenn es sich um gut geschriebene, gut gemeinte Texte mit stichhaltigen Fakten handelt, lassen Sie es dann so?
Was ist, wenn die Muttersprache des Benutzers nicht Englisch ist und er ChatGPT verwendet hat, um seine Grammatik zu verbessern?
OK, ich mache mir Sorgen, dass es meine BeitrÀge treffen könnte ![]()
Ich denke schon. Ich sehe kein Problem damit, wenn Leute KI nutzen, um BeitrĂ€ge zu verfassen, vorausgesetzt, es gibt einen tatsĂ€chlichen Menschen, der entscheidet, ob der von der KI generierte Text postwĂŒrdig ist oder nicht.
Es gibt eine Reihe von Tools, die helfen können, die Grammatik zu verbessern. Ich weià nicht, ob ChatGPT besser ist als der Rest.
Die Verbesserung der Grammatik ist jedoch ein etwas anderes Problem als die Erstellung von âoriginellemâ Inhalt. Die KI-Engines werden zunehmend von den Content-Besitzern ins Visier genommen, die eine VergĂŒtung dafĂŒr wĂŒnschen, dass ihr Material zum Trainieren der KI-Engine verwendet wird.


