Wie lässt sich einfach angeben, ob Inhalte von Menschen geschrieben, KI-gestützt oder KI-generiert sind?

Ich bin einer der Administratoren eines Forums mit über 10.000 Mitgliedern. Wir haben festgestellt, dass einige Leute begonnen haben, KI intensiv für Antworten auf Beiträge zu nutzen. Es ist gut, dass sie aktiver werden und versuchen, hilfreich zu sein, aber einige der Antworten können verwirrend sein, da KI-Chatbot-Antworten oft sehr selbstbewusst, aber ungenau sind. Wir möchten die Nutzung von KI nicht verbieten, sondern die Leute ermutigen, offenzulegen, ob sie verwendet wurde, da dies anderen Benutzern (und LLMs, die mit den Forums-Inhalten trainiert werden) helfen kann, zu entscheiden, wie sehr sie dem Inhalt des Beitrags vertrauen.

Wir möchten für jede neue Antwort einen „Inhaltsherkunft“-Selektor hinzufügen, mit den folgenden Optionen:

  • Von Menschen geschrieben
  • KI-gestützt (überprüft und bearbeitet)
  • KI-generiert (leicht überprüft)

Ich nehme an, dass viele andere Foren eine ähnliche Funktionalität benötigen würden, daher könnte dies als Standardfunktion oder Plugin hinzugefügt werden. Aber falls dies nicht geschieht, wäre es großartig, wenn jemand Ratschläge geben könnte, wie man dies auf unserer gehosteten Discourse-Instanz einrichten kann.

3 „Gefällt mir“

Wenn Sie Ihren Benutzern vertrauen, könnten Sie einfach Tags dafür erstellen? Oh, Bearbeitung: Entschuldigung, ich habe gerade gelesen, dass Sie „jeder Beitrag“ gesagt haben.

Oder meinen Sie, dass es „erkannt“ werden soll (ironischerweise per KI) und automatisch eine Art Kennzeichnung hinzugefügt wird?

Dies klingt nach einem Anwendungsfall für die Funktionsanfrage Tag-Antworten, nicht nur Themen, in der angemerkt wurde, dass:

…Sie könnten also dort Ihre Stimme abgeben, um diese Anfrage zu unterstützen.

Ich bin kein Entwickler, aber ich denke, ein Ansatz ohne Tags würde wahrscheinlich die Tabelle post_custom_fields nutzen, die von Plugins wie dem Custom Wizard Plugin verwendet wird. Die Einbindung eines benutzerdefinierten Beitragsfeldes in die Benutzeroberfläche – zur Auswahl, Anzeige, Suche/Filterung – klingt nach einem ziemlich umfangreichen Plugin-Projekt.

1 „Gefällt mir“

Ein Plugin funktioniert nicht auf einem von Discourse gehosteten Forum

Ich denke, Sie könnten auch etwas mit einer Theme-Komponente tun. Vielleicht eine, die die Informationen einfach als [wrap] zum letzten Beitrag hinzufügt und ein Styling enthält, wie die Informationen hervorgehoben werden.

1 „Gefällt mir“

Ich würde den Benutzern vertrauen, aber wenn die KI-Nutzung offensichtlich und nicht offengelegt ist, können Moderatoren den Beitrag auch entsprechend kennzeichnen.

Es wäre eine nette Komfortfunktion, vorzuschlagen, den Beitrag als KI-unterstützt oder KI-generiert zu kennzeichnen, aber ich bin mir nicht sicher, ob dies umsetzbar ist, und es ist nicht wesentlich. Wir könnten den Benutzer zwingen, darüber nachzudenken, wenn der Selektor standardmäßig nicht initialisiert wäre, sodass Benutzer explizit den Ursprung des Inhalts festlegen müssten.

Es könnte leicht vergessen werden, ein Tag hinzuzufügen (Benutzer müssten häufiger daran erinnert werden, es zu verwenden), aber es könnte funktionieren.

Das klingt nach einem guten Ansatz. Wie viel Arbeit wäre es, dies einzurichten? Glauben Sie, dass die Chance besteht, dass dies als eingebaute Funktion oder offizielles Plugin hinzugefügt wird?

Es besteht immer eine Chance, aber ich denke, die Wahrscheinlichkeit, dass dies in absehbarer Zeit geschieht, ist ziemlich gering, es sei denn, diese Funktionsanfrage explodiert mit Stimmen.

Mit der aktuellen Tag-Funktionalität können Sie erzwingen, dass Themen in einer Kategorie ein Tag aus einer angegebenen Tag-Gruppe haben müssen. Obwohl Antwort-Tags nicht existieren (und es unwahrscheinlich klingt, dass sie bald kommen), könnte man auf eine ähnliche Möglichkeit dort hoffen.

(Beitrag vom Autor gelöscht)

Wenn der Zweck darin besteht, einen menschlichen Leser darüber zu informieren, dass ein Text KI beinhaltet, dann ist ein Tag meiner Meinung nach nicht die Lösung. Leute lesen Tags nicht als Teil des eigentlichen Inhalts. Der Hinweis muss daher Teil des Kontexts selbst sein.

Ich persönlich verwende die von Discourse bereitgestellte Methode:

<details class='ai-quote' open>
<summary>
<span>Titel</span>
<span title='Diskussion mit KI'>KI</span>
</summary>
Mehr oder weniger Inhalt…
</details>

Alternativ verwende ich die Komponente Quote Callouts.

Benutzern beizubringen, diese korrekt anzuwenden, ist, wenn nicht unmöglich, so doch zumindest extrem schwierig für Benutzer, die von einem Facebook-Hintergrund kommen. Daher habe ich mich darauf geeinigt, dass KI-generierte Inhalte in irgendeiner Weise gekennzeichnet werden müssen. Solange es einen sichtbaren Hinweis innerhalb des Inhalts selbst gibt und das KI-Material klar getrennt ist, bin ich zufrieden.

Ich habe versucht, ein Tag zu verwenden, aber ich habe sehr schnell bemerkt, dass es keine Reaktion hervorrief. Außerdem möchte ich Tags zur Klassifizierung von Inhalten verwenden, und ich kann mir kaum vorstellen, dass jemand versuchen würde, alle Inhalte in meinem Forum zu finden, die KI beinhalten. Insbesondere da die Nutzung von KI wahrscheinlich mit der Zeit zunehmen wird. Es könnte sogar der Punkt erreicht werden, an dem ein Tag erforderlich wäre, um anzuzeigen, dass Inhalte von Menschen erstellt wurden (und nicht nur mit einem Emoji, da solche Websites und sogar Foren bereits existieren).

5 „Gefällt mir“

setzen Sie diese Anforderung irgendwie durch?

1 „Gefällt mir“

Low-Traffic-Forum, daher lese ich so ziemlich alles. Und Moderatoren können mögliche Fälle markieren. Es ist nicht immer ganz offensichtlich, ob stark KI verwendet oder kopiert und eingefügt wurde. Ich weiß nicht, wie das automatisch gehen würde, also nutzen wir die Nachbarschaftswache :smirking_face:

Aber meine Benutzer kennen die Regel ziemlich gut.

2 „Gefällt mir“

Etwas abseits des Themas, aber in einem (Nicht-Discourse-)Forum haben wir ein Thema, um alles über generative KI zu diskutieren, von den Vor- bis zu den Nachteilen.
Ein enthusiastischer Stammbenutzer begann, sehr argumentative Nachrichten zu posten, um die Punkte anderer Mitglieder in einer leicht hitzigen Debatte zu argumentieren und anzufechten.
Die Art und Weise, wie seine späteren Beiträge verfasst waren, verriet es: Insbesondere ein Beitrag mit 4 Aufzählungspunkten, die alle die Struktur „Es ist nicht… Es ist“ verwendeten.

Er wurde zur Rede gestellt und gab zu, KI für das Schreiben seiner „letzten beiden Nachrichten“ verwendet zu haben, und erklärte, dass dies kein Problem sei, weil er die KI angewiesen hatte, seine Meinungen widerzuspiegeln. Und dass, wenn die Leute seine Punkte nicht widerlegen könnten, dies bedeute, dass sie falsch lagen, unabhängig davon, ob seine Beiträge von einer KI stammten oder nicht.
Unnötig zu erwähnen, dass die anderen Benutzer ziemlich verärgert waren, als sie verstanden, dass sie ihre Zeit und Energie damit verbrachten, mit einer KI zu debattieren.

6 „Gefällt mir“