Wie benutzt man Discourse AI? Erzählt es uns und macht es noch besser!

Hallo :waving_hand:

Discourse AI ist schon seit einiger Zeit verfügbar und ich versuche zu verstehen, wie es genutzt wird. Als Produktmanager für das KI-Team möchte ich aus euren Erfahrungen lernen, damit wir Discourse AI besser auf eure Community zuschneiden können.

Wenn eure Community Discourse AI nutzt, würde ich gerne von euch hören!

Ich möchte wissen, wie eure Community die verschiedenen verfügbaren KI-Funktionen nutzt. Auf einer allgemeinen Ebene möchte ich wissen…

  • Welche Probleme ihr mit Discourse AI lösen wollt
  • Welche KI-Funktionen ihr derzeit nutzt und warum?
  • Welche gut für euch funktionieren? Gefallen sie euch oder missfallen sie euch?
  • Was ihr gerne ändern oder anders sehen würdet?
  • Ja, lasst uns ein 30-minütiges Interview über Google Meet führen
  • Ja, ich werde mein Feedback schriftlich (PNs) mitteilen
  • Nein danke, nichts für mich
0 voters

Ich werde mich direkt an alle wenden, die interessiert sind. Ihr könnt mich auch gerne kontaktieren, meine Posteingänge sind offen!

Vielen Dank im Voraus

13 „Gefällt mir“

Hallo!

Ich betreibe eine kleine Community und wir nutzen die KI-Funktion nicht. Ich nutze sie jedoch oft hier auf Meta. Bin ich trotzdem berechtigt, mein Feedback zu teilen?

Viele Grüße!

13 „Gefällt mir“

Natürlich! Ich unterhalte mich gerne weiter. Ich werde mich bald bei Ihnen melden.

4 „Gefällt mir“

Habe noch nicht viel über Ihr KI-Angebot recherchiert, aber die beiden Hauptpunkte, die dabei aufkommen:

  • On-Demand-Übersetzung in die Sprache des Benutzers
  • Beantwortung einfacher Fragen durch Verweis auf meinen benutzerdefinierten Antwortkorpus (das Forum plus alle von mir bereitgestellten Dokumentationen)
  • Auf größeren Websites könnte ich mir eine strengere/intelligentere Erkennung von „bereits gefragt“ vorstellen, aber auf meiner Website ist es meiner Meinung nach besser, weniger Posting-Barrieren zu haben und die Moderatoren Themen freundlich und ohne Fehlalarme zusammenführen zu lassen (vielleicht den Moderatoren einen solchen Zusammenführungsvorschlag senden?)

Für den zweiten Punkt oben wäre es auch praktisch, wenn Sie eine Infrastruktur zum Einspeisen von Wissen und Beantworten von Fragen bereitstellen würden, die auch als „iFrame“ für andere Websites dienen könnte.

3 „Gefällt mir“

Wir bieten derzeit Discourse Translator an, der eine Fülle von Anbietern und Konfigurationen hat.

Wir sind dabei, einen KI-Bot mit RAG auf hochgeladenen Dokumentationen zu entwickeln, um häufig gestellte Fragen zu beantworten. Vorerst kann die Forum-Helfer-Persona des KI-Bots eine gute Arbeit leisten!

Ich wollte anmerken, dass ich glaube, bisher alle in den Umfragen erreicht zu haben – ich werde dies in den nächsten Wochen fortsetzen (Wenn ich Sie nicht erreicht habe oder Sie übersehen habe, können Sie mir gerne eine DM schicken!).

2 „Gefällt mir“

Ich mag das Discourse KI-Plugin wirklich sehr. Ich persönlich nutze es, um Bilder zu generieren und Dinge zu googeln. Hauptsächlich nutze ich es aber zum Spaß.

1 „Gefällt mir“

Bitte entschuldigen Sie – ich bin mit den Fähigkeiten der Discourse AI noch nicht vertraut. Ich wollte dieses Feature für die Inhaltsmoderation in Betracht ziehen, habe mich aber noch nicht eingehend mit seiner Positionierung oder seinen Fähigkeiten befasst.

Wir haben eine umfangreiche Liste von verbotener Sprache, aber KI-Moderation als Frontend dazu würde eine Menge Regex und Schlüsselwörter eliminieren.
Ich weiß nicht, ob die Discourse AI Inhalte vorverarbeiten kann, um eine Funktion auszulösen, mit der wir basierend auf den Ergebnissen entscheiden können, was zu tun ist. Berücksichtigen Sie die Moderationsfunktionen in Discourse zum Blockieren von Begriffen im Gegensatz zum Zurückhalten von Inhalten zur Moderation.

Ich möchte an einen Punkt gelangen, an dem jeder von uns die verfügbaren Tools nutzen kann, um zu verfeinern, wie wir diese Konzepte verwalten:

  • Was ist akzeptabler Inhalt?
  • Was passiert, wenn bestimmte Arten von Inhalten erkannt werden? (Funktionen auslösen)
  • Welche API-Funktionen können wir verwenden, um auf bestimmte Arten von Inhaltsauslösern zu reagieren? Beispiele hierfür sind: Benutzer warnen, Benutzer blockieren, basierend auf der Anzahl der Warnungen blockieren, an Moderator weiterleiten, in die Moderationswarteschlange stellen oder Kombinationen dieser Aktionen.

Als Entwickler, der mit dem aktuellen Stand von LLMs und zugehörigen Tools vertraut ist, fehlen mir zwei Dinge in Bezug auf all dies:

  1. Mir fehlt ein festes Verständnis dafür, wo genau die Discourse AI passt, welches spezifische Modell verwendet wird und welche Programmier-/API-Optionen uns für Integration und Verwaltung zur Verfügung stehen.
  2. Mir fehlt ein Verständnis für verfügbare API-Optionen, die es jemandem wie mir ermöglichen würden, fein abgestimmte Lösungen zu programmieren, anstatt sich auf das feine Team hier zu verlassen, das Lösungen in Betracht zieht und bereitstellt, die hoffentlich für die breiteste mögliche Zielgruppe akzeptabel sind.

Also „Wie benutzt man Discourse AI?“ Nun, so möchte ich es benutzen. Was „es noch besser machen“ angeht, hoffe ich, dass detaillierte Dokumentation und eine API standortweite Konfigurationen ermöglichen, die viel Team-Entwicklung hier eliminieren werden. Das wird es dem Team ermöglichen, sich auf Dinge zu konzentrieren, die wir von außen nicht tun können. Ich betrachte das als einen starken Win-Win für alle.

2 „Gefällt mir“

Das klingt sehr nach einer Erweiterung von:

Alle Grundlagen sind bereits vorhanden, es müssen nur noch ein paar Aktionen hinzugefügt und die Benutzeroberfläche verbessert werden.

2 „Gefällt mir“

Die früheren Abschnitte über die Funktionalität/Fähigkeiten von Discourse AI und die verwendeten spezifischen Modelle sollten in der Dokumentation und auf der AI-Seite verfügbar sein.

Der letztere Kommentar zu Programmier-/API-Optionen, um Flexibilität zu schaffen, ist etwas, das wir in Zukunft in Betracht ziehen könnten! Ich stimme Ihren Ansichten zu, dass dies eine Win-Win-Situation sein könnte, wenn und wann wir dort ankommen.

1 „Gefällt mir“

Hallo!

Mir ist aufgefallen, dass Gemini, wenn es sich weigert, einen Beitrag aufgrund von NSFW-Wörtern zusammenzufassen, keinen Fehler auslöst und auch nichts sagt. Es bleibt einfach für immer beim Laden hängen.

Ich schlage eine Art Nachricht vor wie „Entschuldigung, ich kann diesen Inhalt aufgrund unangemessener Inhalte gemäß den Richtlinien von Google nicht zusammenfassen“ oder so etwas. Damit der Benutzer weiß, anstatt zu denken, dass der Bot kaputt ist oder lange braucht, um seine Nachricht zu posten.

2 „Gefällt mir“

Ich habe einige gemischte Ergebnisse (mangelhaft) mit Gemini für Zusammenfassungen erfahren, ist dies nur, wenn NSFW-Inhalte enthalten sind? Könnten Sie einen Screenshot oder Inhalt teilen?

2 „Gefällt mir“

Ich entschuldige mich, ich bin zu OpenAI für Zusammenfassungen gewechselt, da diese aus irgendeinem Grund besser zu funktionieren scheinen.

2 „Gefällt mir“

Auch eine nette Funktion, prüfen Sie auf ähnliche Tags (entweder als Warnung, wenn Sie neue Tags erstellen, oder als wöchentlicher Bericht für Moderatoren, um zu prüfen, welche zusammengeführt werden könnten)

1 „Gefällt mir“

Ich bin neugierig, ob Sie persönlich schon Situationen erlebt haben, in denen dies passiert ist. Könnten Sie diese etwas beschreiben?

1 „Gefällt mir“

Gerade heute habe ich „German“, „Germany“ und „de“ oder „acme-component“ und „component“ als Moderator zusammengeführt. Das kann ich tun, da ich ein Gespür für die meisten Tags habe, da ich eine Liste geschrieben habe, aber sobald die Seite aktiver wird und mehr Moderatoren Teilzeitjobs machen…

2 „Gefällt mir“

Ich hätte wirklich gerne eine Funktion mit KI, um ein Thema oder eine Gruppe ausgewählter Themen in einem Wiki-Beitrag zu transformieren und ihn bei Bedarf bei weiterer Entwicklung von Beiträgen zu aktualisieren.
Optional können nicht zusammenführbare/konfliktierende Beiträge in diesen Themen mit generierten Pools oder spezifischen neuen, dedizierten, fokussierten Themen automatisch verwaltet werden, um zu versuchen, die Diskussion zu erweitern.

Dies wäre im Prozess der Umwandlung von Diskussionen in Positionen/Dokumente mit einem gewissen Grad an Übereinstimmung sehr hilfreich. Jetzt ist es eine sehr mühsame und manuelle Tätigkeit, nur um ein Basisergebnis zu erzielen, insbesondere im großen Maßstab.

Dies mit einer Form der Condorcet-Abstimmung im Konfliktpool wäre ein großartiges und einzigartiges Werkzeug für Discourse:

1 „Gefällt mir“

[Zitat=“Bhack, Beitrag:19, Thema:295402”]
Ich würde wirklich gerne eine Funktion mit KI haben, um ein Thema oder eine Gruppe ausgewählter Themen in einem Wiki-Beitrag zu transformieren und ihn bei Bedarf im Verlauf der Weiterentwicklung zu aktualisieren.
[/Zitat]

Wäre das so etwas wie das Aktualisieren des Originalposts des Wikis mit immer neueren Informationen? Nach welchen Kriterien würdest du bestimmte Beiträge auswählen?

Der OP des WIKI-Posts ist der LLM-Bot/Agent. Und es ist nicht wie die KI-Zusammenfassungsschaltfläche, sondern eher wie ein KI-Bericht/Vorschlag/Dokument als Ergebnis einer Diskussion. Die Updates könnten automatisiert oder auf Abruf erfolgen.

In vielen Themen können nicht alle Positionen in einem einheitlichen Artefakt zusammengeführt werden, da es zu Konflikten kommt. Daher wird der KI-Bot für diese Fälle Pools oder neue Unterthemen zu bestimmten widersprüchlichen Punkten vorschlagen, um zu versuchen, gegensätzliche Meinungen zu fokussieren und zu lösen (mit zusätzlicher Diskussion und dann, wenn eine Frist abgelaufen ist, mit Pool-Abstimmungen).

Die Gruppe der Themen wird von den Moderatoren/Administratoren ausgewählt. Dies könnte manuell erfolgen, dann haben wir eine Verbindung/Beziehung zwischen dem KI-Bot-Wiki-Post und der zugehörigen Liste von Themen-IDs.

Ich denke, dies ist der interessanteste Weg, um halbautomatische Basisartefakte aus Diskussionen vorzubereiten und zu aktualisieren.

Viele Communities benötigen Artefakte aus Diskussionen, aber die Erstellung einer manuellen Basis von Artefakten ist eine sehr zeitaufwändige Aufgabe.

1 „Gefällt mir“