Wie gehen Sie mit KI-Antworten in Ihrer Community um?

Hallo zusammen!

Ich frage mich, wie andere Community Manager mit KI-Antworten in Diskussions- und Fragenkategorien umgehen.

Unsere aktuelle Richtlinie besagt, dass die Nutzung von KI in Ordnung ist, solange die Antwort validiert wird.

Nachdem ich einige Antworten wie diese gesehen habe, beginne ich zu überlegen, ob ich eine strengere Richtlinie gegen KI einführen möchte.

Gute Frage, ich helfe Ihnen beim Aufruf der Slack-API, um eine Nachricht in einem Kanal zu posten. Hier ist, wie es geht:

Grundlegende API-Anfrage

Sie verwenden den Endpunkt chat.postMessage. Hier ist ein einfaches Beispiel mit curl:

curl -X POST https://slack.com/api/chat.postMessage \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_SLACK_TOKEN" \
  -d '{
    "channel": "C1234567890",
    "text": "Hallo von der Slack-API!"
  }'

Einrichtungsschritte

1. Slack-Token erhalten:

  • Gehen Sie zu Slack API: Applications | Slack
  • Erstellen Sie eine neue App oder wählen Sie eine vorhandene aus
  • Navigieren Sie zu “OAuth & Berechtigungen”
  • Fügen Sie den Scope chat:write unter “Bot Token Scopes” hinzu
  • Installieren/deinstallieren Sie die App in Ihrem Workspace
  • Kopieren Sie das “Bot User OAuth Token” (beginnt mit xoxb-)

2. Kanal-ID erhalten:

  • Klicken Sie mit der rechten Maustaste auf einen Kanal in Slack → “Kanaldetails anzeigen”
  • Die Kanal-ID befindet sich unten (beginnt mit C)
  • Oder verwenden Sie den Kanalnamen wie #general

Codebeispiele

Python:

import requests

url = "https://slack.com/api/chat.postMessage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer YOUR_SLACK_TOKEN"
}
data = {
    "channel": "C1234567890",
    "text": "Hallo von Python!"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

JavaScript (Node.js):

const axios = require('axios');

const url = 'https://slack.com/api/chat.postMessage';
const data = {
  channel: 'C1234567890',
  text: 'Hallo von Node.js!'
};

axios.post(url, data, {
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer YOUR_SLACK_TOKEN'
  }
})
.then(response => console.log(response.data))
.catch(error => console.error(error));

Zusätzliche Optionen

Sie können Ihre Nachricht mit Folgendem erweitern:

  • Blocks für Rich-Formatting
  • Attachments für strukturierte Daten
  • Thread-Antworten mit thread_ts
  • Erwähnungen wie <@U12345678>

Möchten Sie Hilfe bei einer bestimmten Programmiersprache oder bei fortgeschritteneren Nachrichtenformatierungen?

Viele Grüße, {user}!

Auch wenn dies das Problem lösen mag, hätte ich auch selbst KI fragen können, um diese Antwort zu erhalten. Obwohl das Problem noch nicht weit verbreitet ist, mache ich mir Sorgen, dass wir die Persönlichkeit jedes Einzelnen in der Community verlieren. Das Tolle an einer Community sind die Menschen darin und ihre einzigartigen Ideen, Gedanken, Erfahrungen und Worte.

Sehr neugierig, wie andere Communities damit umgehen! Bitte teilen Sie Ihre Gedanken mit!

5 „Gefällt mir“

Meine Richtlinie ist, keine KI zum Schreiben oder Bearbeiten von Forum-Posts zu verwenden. So etwas wie: Wir wollen hören, was Sie zu sagen haben, nicht was die KI zu sagen hat. Es ist in Ordnung, KI-Text einzufügen und dann zu kommentieren, was die KI geschrieben hat, solange Sie offenlegen, dass es sich um KI handelt, über dem KI-Inhalt, zum Beispiel:

„Ich habe ChatGPT nach ___ gefragt und es sagte ___. Hier ist, was ich über das, was ChatGPT geschrieben hat, denke.“

Ich achte sorgfältig auf die Qualität des Inhalts. Ich denke, dass KI-generierte Inhalte aus dem Jahr 2025 in 10 Jahren veraltet aussehen werden, ähnlich wie alte Filmeffekte nicht mehr überzeugend wirken.

Wenn Leute Fragen stellen und die KI antwortet, warum sollten sie dann in ein Forum gehen, anstatt einfach ChatGPT zu fragen? Ich denke, der Hauptwert von Foren in der Zukunft wird darin bestehen, dass Sie Antworten von Menschen und nicht von Bots erhalten können.

8 „Gefällt mir“

Tolle Punkte @j127,

Das ist ungefähr das, was wir auch im Sinn hatten, solange es Kontext und die Worte des Benutzers um den KI-Inhalt herum gibt.

Ich möchte nicht in ein paar Monaten herumschauen und überall in unseren Foren perfekt geschriebene KI-Antworten sehen, also versuche ich, dem jetzt zuvorzukommen. Bringen Sie die Rechtschreibfehler zurück :slight_smile:

4 „Gefällt mir“

Hier ist ein Punkt, den man beachten sollte: Die Entmutigung solcher Praktiken könnte potenzielle neue Benutzer abschrecken. Eine mögliche Lösung ist, eine Kategorie dafür zu erstellen und sie dann einfach dort einzustellen. Auf diese Weise hat der Benutzer das Gefühl, etwas Wertvolles beigetragen zu haben, andere können bei Bedarf in anderen Teilen des Forums darauf verlinken, und Benutzer, die sich nicht für KI-Posts interessieren, können die Kategorie und alle Links überspringen.

Das Posten von KI in Benutzerforen wird auch in Zukunft hier sein. Ich sehe in den nächsten Jahren keine Normen dafür; ähnlich wie bei der Frage des Einsatzes von KI in der formalen Bildung.


Mit der neuen Welle von KI, LLMs und Diffusion ist jedoch die einzige Konstante der Wandel, so dass meine Antwort hierzu nicht als in Stein gemeißelt oder als etwas angesehen werden sollte, dem ich in Zukunft vielleicht sogar zustimmen werde.

2 „Gefällt mir“

Das hängt wirklich davon ab, oder? Im obigen Beispiel wäre ich verärgert über den Poster, wenn die Antwort eindeutig falsch wäre – insbesondere wenn die Falschheit den Benutzer in größere Schwierigkeiten bringen würde. Es ist für mich in Ordnung, wenn Leute KI-Antworten posten, wenn sie sich auch die Zeit genommen haben, die Angemessenheit und Korrektheit der Informationen zu überprüfen und zu verifizieren. Noch besser ist es, wenn sie zustimmen, dass der generierte Inhalt ähnlich oder besser ist, als wie sie diese Informationen ohnehin teilen würden.

Wenn Sie hingegen etwas in ein LLM eingegeben, die Antwort kopiert und eingefügt haben und erwarten, dass ich als Leser Ihres Themas herausfinde, ob dieser Inhalt korrekt ist, dann werde ich nicht glücklich sein. Sie verschwenden nicht nur meine Zeit, indem Sie falsche Informationen als korrekt darstellen, sondern Sie verringern auch die Vertrauenswürdigkeit der Community im Allgemeinen – oder zumindest die Vertrauenswürdigkeit Ihrer eigenen zukünftigen Antworten.

Mit Blick auf die Zukunft vermute ich, dass sich viele gutmeinende Menschen in den nächsten Jahren von der Nutzung von LLMs in Foren abwenden werden, und die Verbleibenden werden entweder böswillige Akteure sein oder Leute, die Foren einfach nicht verstehen. Es ist rein anekdotisch, aber ich benutze LLMs seit etwa 2 Jahren täglich und greife immer mehr auf selbst generierte Inhalte zurück. Gestern wollte ich einen Blogbeitrag schreiben, in den ich nicht besonders investiert war. Ich beschloss, GPT auszuprobieren, aber egal was ich tat, es klang immer wie GPT und das hasste ich. Also probierte ich Claude aus, und obwohl ich eine Stunde damit arbeitete, klang der Inhalt nie so, als wäre er von einem echten, lebendigen Menschen geschrieben worden. Nach insgesamt etwa 3 Stunden habe ich alles überarbeitet und es selbst in etwa einer Stunde geschrieben.

Der Punkt dieser Geschichte ist zu sagen – zumindest für mich – dass selbst generierte Inhalte sich als immer lohnender erweisen, egal wie gut die Modelle werden. Ich hoffe wirklich, dass andere Leute, die LLMs verwenden, in den nächsten 2-3 Jahren ebenfalls dieses Stadium erreichen. Wenn das passiert, werden KI-Antworten in Foren nur noch von böswilligen Akteuren oder von Leuten mit guten Absichten stammen, die es nicht besser wissen. In jedem Fall macht diese Situation den Inhalt viel einfacher zu handhaben: Sie können die böswilligen Akteure verbannen, die gutmeinenden aufklären und eine Moderationsrichtlinie haben wie “KI-Inhalte sind verboten, es sei denn, Sie haben den Inhalt, den Sie posten, klar verdaut UND stimmen voll und ganz zu, dass sein Inhalt Ihre Meinung und Ihr Verständnis zu dem Thema darstellt UND der Inhalt Ihre Meinung auf eine gleichwertige oder verdaulichere Weise ausdrückt, als Sie ihn selbst generieren würden.” oder etwas in dieser Art.

6 „Gefällt mir“

Ich bin generell leicht besorgt, wenn ich KI-Antworten sehe, und noch mehr, wenn der Benutzer, der sie postet, entweder:

  • KI nicht kennzeichnet
  • Direkt kopiert und einfügt

Aber ich denke, was wirklich nicht in Ordnung ist, ist, wenn vollständig KI-generierte Beiträge als Lösungen markiert werden. Wirklich, die Lösung sollte an die KI gehen… oder eigentlich einfach nicht gegeben werden, nur ein Like und ein Dankeschön.


Hierzu füge ich hinzu: Wenn der OP eine KI-Antwort wollte, hätte er einfach ChatGPT fragen können. Er braucht niemanden, der die Frage, die er an menschliche Kollegen gestellt hat, mit etwas von der KI beantwortet.

3 „Gefällt mir“

Ich sehe hier so viele großartige Antworten. In diesem speziellen Beispiel sehe ich KI als nützlich an, weil sie rein taktisch ist. Wenn wir also unsere Communities befragen oder um Antworten von Mitgliedern bitten, berücksichtigen Sie, was taktisch ist und was „Gefühl“ ist. Abhängig von Ihrer Community-Struktur kann es einen bestimmten Bereich für „How-to“-Fragen und einen anderen Bereich für Peer-Verbindungen geben. Zu wissen, dass „How-to“ ein Ort ist, an dem KI willkommen ist und möglicherweise empfohlen wird, um Bedienungsfehler zu vermeiden. :slight_smile: Es ist großartig, ein Gleichgewicht in Ihrem Community-Bereich zu haben, und das ist es, was die Mitglieder immer wieder zurückkommen lässt.

2 „Gefällt mir“

Ich denke, Discourse hat bereits den „How-to“-Bereich (ask.discourse.com). Das ist eigentlich das beste KI-Tool in Discourse, das Benutzer selbst verwenden können, sodass sie niemanden brauchen, der es für sie erledigt. Alles andere sollte der „Peer“-Bereich sein, in dem Menschen interagieren, mehr Fragen stellen als Antworten geben und sich fröhlich widersprechen, um hier und da etwas Wahrheit herauszufiltern.

Wie hier schön gesagt:

Höchstwahrscheinlich kommen Menschen in einen Gemeinschaftsraum, wenn etwas Ungewöhnliches passiert. Es gibt wahrscheinlich viele Fragen, bevor eine Lösung für ein Problem gefunden wird, wie z. B. welche Version sie verwenden, ob sie dies oder das versucht haben. Manchmal ist es großartig, wenn man Empathie von anderen Benutzern spürt. KI stellt keine Fragen; sie hat keine Intuition dafür, wie dumm wir manchmal sind (z. B. auf Meta: Haben Sie versucht, Discourse neu zu erstellen? Haben Sie den abgesicherten Modus versucht?), und jede Empathie ist definitiv gefälscht, egal wie angenehm sie ist.

Mein Weg, mit einer Mehrheit von KI-Inhalten umzugehen – ich würde sie wahrscheinlich verbannen und einen KI-Bot implementieren, damit sich Benutzer leicht selbst helfen können.

1 „Gefällt mir“