Gibt es KI im Kern von Standard-Discourse?

Das überstürzte und wilde Integrieren von ChatGPT in alles und jedes ist mehr als bedenklich.

Es stellt sich die Frage, die für einen Administrator wichtig ist: Gibt es irgendeinen Teil oder eine Komponente, egal wie klein, die im Kern von Discourse im Wesentlichen KI ist?

Ich gehe davon aus, dass die Antwort nein ist, möchte aber nachfragen.

Seit der Einführung von Plugins, die KI scheinbar außerhalb einer Kerninstallation von Discourse isolieren, denke ich, dass es auch aus Sicht der Roadmap wichtig ist zu wissen, ob jemals eine Integration von KI geplant ist, wo derzeit keine vorhanden ist (falls das stimmt).

Wenn die Antwort auf eine oder mehrere dieser Fragen ja lautet, wäre es großartig, eine Bestätigung zu erhalten.

1 „Gefällt mir“

Ich verstehe Ihre Bedenken. :slight_smile:

Derzeit befinden sich alle KI-bezogenen Funktionen im optionalen Plugin Discourse AI.

Was geplante KI-Kernfunktionen betrifft, überlasse ich die Antwort besser informierten Personen (aber :game_die: ich vermute, es steht nicht auf der Roadmap).

5 „Gefällt mir“

Sie müssen dies etwas genauer definieren, je nachdem, was Sie genau meinen.

Aber ich denke, die allgemeine Antwort ist: keine Sorge – es ist ganz normaler, von Menschen erzeugter Code, der traditionelle prozedurale Logik ausführt.

6 „Gefällt mir“

Ja, ein guter Punkt bezüglich der Definitionen. Ich denke, die OP ist im Allgemeinen klar und bezieht sich auf einen Fall von Vorher und Nachher von ChatGPT (+ähnlichem) und was die Pläne für Discourse sind, in etwa wie folgt:

  • Verwendung zum Schreiben von Kerncode
  • Integration in den Kern

Wenn jemand anderes helfen möchte, dies zu definieren, aber wie Sie es formuliert haben, ist es vielleicht die beste Definition, im Grunde alles, was nicht „altmodischer, von Menschen erzeugter Code ist, der traditionelle prozedurale Logik ausführt“.

Können Sie mir einige (sagen wir 10, große) Beispiele für Open-Source-Projekte geben, die eine Charta / ein öffentliches Dokument haben, das die Nutzung von GitHub Copilot verbietet?

4 „Gefällt mir“

Ja, also dass ein Bot ein Programmierer ist, ist der Grund, warum ich diese Frage so allgemein gestellt habe. Jetzt, da ich mir dessen bewusst bin, gehe ich von Rechtschreib- und Grammatikprüfungen (z. B. Grammarly) bis hin zu Programmierhilfen und Assistenten wie Copilot. Ich schätze, es gibt keine klare und eindeutige Antwort, oder?

1 „Gefällt mir“

Im Extremfall, was ist mit den Refactoring-Tools einer IDE? Methode extrahieren nicht erlaubt? Reiten Sie weiter auf dieser Welle und es geht zurück zu Lochkarten

5 „Gefällt mir“

Nur um hinzuzufügen, Discourse (und viele Plugins) verwenden umfangreiche Suiten von Funktionstests und Linting-Prüfungen.

Dies reduziert Code-Probleme massiv (versuchen Sie, in RoR ohne Prüfungen bereitzustellen …) und würde auch KI-generierten Code oder Copilot-unterstützten Code abdecken. Und das ist noch nicht einmal die Tatsache berücksichtigt, dass Copilot möglicherweise Probleme findet, die Sie übersehen …

Die Kern-Disziplin in Bezug auf Tests auf der Plattform ist unübertroffen und setzt ein Beispiel für das Ökosystem.

Es ist auch irgendwie müßig? Ich glaube nicht, dass eine unbeaufsichtigte KI-Codebereitstellung bald stattfinden wird … Sie würden nicht einmal so weit kommen, Tests auszuführen (Haben Sie versucht, ChatGPT nach einer Lösung in EmberJS zu fragen, die mit Discourse kompatibel ist? Die Halluzinationen sind nicht mehr zu übertreffen :chart_with_upwards_trend: :rofl: ). Vielleicht wird sich das mit der Weiterentwicklung der Modelle verbessern.

Discourse muss mit der Zeit Schritt halten oder sterben, meiner Meinung nach, und das bedeutet, neue Technologien zu erforschen und zu übernehmen, wo es angebracht ist.

Als Autor von zwei “KI”-Plugins (beide handgeschrieben! :sweat_smile:) erkenne ich an, dass sie offensichtlich mit Vorbehalten und Haftungsausschlüssen einhergehen müssen und ich sehe nicht, dass sich das für eine ganze Weile ändern wird …

3 „Gefällt mir“

Lochkarten? Luxus! Zu meiner Zeit haben wir das Betriebssystem durch Umlegen von Kippschaltern an der Frontplatte gebootstrappt.[1]


  1. Ich bin nicht wirklich so alt. Aber ich kenne tatsächlich Leute, die auf diese Weise angefangen haben, auf PDP-8-Systemen… ↩︎

2 „Gefällt mir“

Also im Rahmen von “Discourse”, um beim Thema zu bleiben, weil du auf dieser Welle und der nächsten reitest, ist es natürlich ein weitreichendes Thema, aber:

Wo die Dinge bisher stehen (wenn ich das Feedback richtig verstehe.)

  1. Es gibt keine aktiven KI-Komponenten im Kern von Discourse.

  2. Es gibt keine inaktiven KI-Komponenten oder Code im Kern von Discourse.

  3. Ein Teil oder der gesamte Discourse-Code ist möglicherweise durch die indirekte oder direkte Anwendung von KI-Tools auf verschiedenen Entwicklerplattformen und IDEs usw. entstanden, die den Entwicklern zur Verfügung stehen.

  4. Das Hinzufügen von KI-Funktionen zum Kern steht derzeit nicht auf der Roadmap.

  5. Plugins sind das Tor zu KI-gestützten Funktionen, die mit Discourse funktionieren.

KI ist kein technischer Begriff … eine Person könnte eine Heuristik als KI interpretieren. Die Art und Weise, wie wir Beiträge “bewerten” und Likes, Lesern und Aufrufen Gewicht verleihen, kann als KI betrachtet werden. Akismet kann als “KI” bezeichnet werden. Die Liste ist meilenlang.

Derzeit ist die Branche im Hinblick auf die KI-Sicherheit im Kontext großer Sprachmodelle “besorgt”.

Derzeit liefern Discourse Core und Discourse AI keine großen Sprachmodelle. Discourse AI integriert bestehende große Sprachmodelle über APIs, die Administratoren eingeben können (Open AI und Anthropic). Zukünftig werden wir wahrscheinlich noch mehr Modelle unterstützen.

Ein großes Sprachmodell (LLM) ist ein Sprachmodell, das aus einem neuronalen Netzwerk mit vielen Parametern besteht, die auf großen Mengen unbeschrifteten Textes mithilfe von Deep-Learning-Techniken trainiert werden. Diese Modelle können Text und andere Datenformen erkennen, zusammenfassen, übersetzen, vorhersagen und generieren. LLMs haben in den letzten Jahren erhebliche Fortschritte gemacht, zeichnen sich in einer Vielzahl von Aufgaben aus und verändern die Bereiche künstliche Intelligenz, Wissenschaft und Gesellschaft als Ganzes [1] [2].

Einige Beispiele für große Sprachmodelle sind GPT-3 von OpenAI, das darauf trainiert ist, das nächste Wort in einem Satz vorherzusagen, ähnlich wie eine Autovervollständigungsfunktion für Textnachrichten [3].

Text über Google + GPT-4


Ich finde viele dieser Diskussionen etwas verwirrend. Besteht die Sorge, dass wir den Discourse-Quellcode “verkrüppeln”? Besteht die Sorge, dass wir eine enge, bedingungslose Abhängigkeit von Open AI haben werden?


  1. Wikipedia - Large language model ↩︎

  2. NVIDIA Blog - What Are Large Language Models and Why Are They Important ↩︎

  3. Stanford HAI - How Large Language Models Will Transform Science, Society, and AI ↩︎

4 „Gefällt mir“

Ich bevorzuge definitiv den Begriff „stochastischer Papagei“, wie er von Emily Bender und Timnit Gebru geprägt wurde – er ist definitiv genauer, wenn man sich auf diese LLMs bezieht.

Dort ist keinerlei Intelligenz vorhanden.

2 „Gefällt mir“

Hey, lasst uns Papageien nicht respektlos behandeln.

1 „Gefällt mir“

Wessen Problem ist es also wirklich?

Sie meinen über Plugins, wie es derzeit der Fall ist?

Meine Ansicht ist, wenn Sie wirklich verwirrt sind, würde ich wetten, dass Sie die „Konsequenzen“ nicht so aktiv wahrnehmen oder einschätzen oder sich nicht in sie hineinversetzen können, da es möglicherweise keinen offensichtlichen Wert darin gibt, dies zu erörtern, da das Pferd bereits entkommen ist und die Scheunentür weit offen steht, also lassen alle los!
Sie sagen Krebs, eher eine Quantenwaffe der Massenvernichtung [Lücke füllen], obwohl einige das für übertrieben halten werden. Das ist cool. Jeder darf seine Meinung haben, aber ich denke insgesamt und nicht speziell über Discourse, was Sie mit der Entwicklung machen, hängt davon ab, wie sie funktioniert. Um den Punkt in Bezug auf den OP zu verdeutlichen:

Der Hauptgrund, warum ich frage, ist, dass ich als Administrator von Discourse eine Verantwortung gegenüber einer Benutzerbasis habe, und obwohl dies in Bezug auf den realen Markt nur ein winziger Teil sein mag, ist Ihre Benutzerbasis oder ein Teil Ihrer Benutzerbasis dennoch wichtig und möchte möglicherweise keine Plattform nutzen, die Formen dieser generativen KI für die von ihnen erstellten Inhalte verwendet, aus vielen verschiedenen Gründen. So wie sie Adblocker verwenden, wollen sie nicht Teil dieses „Dings“ sein – wenn diese Frage vom ersten Benutzer kommt, liegt es daran, dass es keine klar angezeigte KI-Richtlinie gab, und Sie müssen auch eine ehrliche Antwort haben.

Daher ist die Auslagerung von KI-Tools als Plugins, die nicht zum Kern gehören, ein guter Ansatz, aber wenn es dazu käme, dass die KI zum Kern gehört, sagen wir in einem zukünftigen Update, könnte dies zu Zögern oder zur vollständigen Ablehnung der Plattform führen.

Solange diese Grenze klar und abgegrenzt bleibt, könnte dies ein rundum zufriedenstellender Weg nach vorne sein, und klare Entwicklungsrichtlinien und Zusicherungen könnten hier ebenfalls wichtig sein.

Ich verstehe auch, dass es schwierig ist, es zur allgemeinen Zustimmung aller zu formulieren, aber hier ist der Kern des Problems: Das passiert, wenn eine Frage aus einem echten Grund gestellt wird. Ob der Grund fundiert oder unerschrocken ist, er wird die Grundlage für Benutzer sein, um Wertentscheidungen zu treffen, die sich in Handlungen umwandeln.

Wenn es einfach darum geht, eine einfache Aussage zu treffen, dass es kein ChatGPT oder ähnliche KI im Kern von Discourse gibt, mit dem Vorbehalt, dass KI als Werkzeug in der Entwicklung und Erstellung verwendet wird, könnte dies für den gewöhnlichen Nutzer eines Discourse-Forums eine zufriedenstellende Antwort sein.


Insgesamt wurde das Thema, wie KI das Web und damit die Welt beeinflussen wird, bereits in Bezug auf Anwendung und Konsequenzen behandelt und gesehen. Diese Phase der offiziellen Veröffentlichung dieser „Spielzeuge“, d. h. die Übergabe einer Büchse der Pandora mit APIs und allem Möglichen an die Entwicklerwelt und damit an die Welt, ist eine Eskalation, da es zuvor eine sehr kontrollierte experimentelle Lern- und relativ geheime Phase war, in der diese KI jahrelang in einem großen Teil des Webs vorhanden war, ohne dass viele normale Menschen es überhaupt bemerkten.

Während ich versuche, es im Rahmen meiner Frage zu halten, wenn Sie wirklich meta sein und das Metaphysische diskutieren wollen, dann sage ich, legen Sie los, aber dieses Thema ist hier bereits angesprochen: How are we all feeling about ChatGPT and other LLMs and how they'll impact forums?

Ein weiterer Aspekt sind z. B. Anzeigen. Ich nehme an, Google verwendet seit Ewigkeiten KI dieser Art in seinen Werbediensten und sogar in seinen Analysediensten, aber zumindest können Benutzer jetzt Blockierungssoftware einsetzen und VPNs verwenden. Verwenden diese Tools auch KI?! :rofl:

Vielleicht läuft es darauf hinaus, wie Menschen KI wahrnehmen, und vielleicht ist der einfachste Weg, das zu artikulieren, dass einige sie als isoliert (Werkzeuge) betrachten, andere sie als ein Feuer im Gefüge der Realitätsmatrix betrachten, das gelöscht werden muss. In jedem Fall geschieht es und es wird geschehen, was auch immer es ist, aber es gibt immer Konsequenzen, und manchmal hat man nur die Wahl, an der Entstehung dieser Konsequenzen beteiligt zu sein oder sie abzumildern. Was wir mit der „Industrie“ haben, ist meiner Meinung nach beides.

2 „Gefällt mir“

Aussage :arrow_double_up:

  • Wenn Sie mich bitten zu sagen: “Von jetzt an … bis zum Ende des Universums können Sie zusichern, dass LLMs niemals in das Kernprodukt Einzug halten werden?” … lautet die Antwort nein.

  • Wenn Sie mich fragen: “Werde ich mich abmelden können, falls so etwas passiert?” Meine Antwort ist … wahrscheinlich … wir neigen dazu, Administratoren enorme Freiheiten bei den Website-Einstellungen und der Konfiguration zu gewähren.

10 „Gefällt mir“

Das ist eine vernünftige Einsicht.

Nun, würde ich Sie bitten, etwas anderes zu sagen als das, was ist, da dies unangemessen wäre, wie Ihre obige Antwort zeigt, wer kann das schon sagen auf einer unendlichen Zeitachse, sicher, es ist wirklich ein Bestreben, die aktuelle Position von Discourse Core unter Nutzung von aktiver KI so gut wie möglich festzustellen.

Ich suche auch keine Versprechungen.

Mein primärer Vorschlag im Voraus einer Antwort bleibt derselbe.

Erwägen Sie, aktive KI vom Kern getrennt zu halten, damit Besitzer/Administratoren eine klare Wahl ohne Verwirrung haben. Meine Präferenz ist dies gegenüber einer Ein/Aus-Option in der Administration, nennen Sie mich ruhig paranoid und altmodisch, ich denke an eine Art Luftspalt.

ChatGPT und Co. werden in so viele Plattformen und Tools integriert, es ist wild und im Allgemeinen sind die Auswirkungen gewaltig, warum sollte Discourse das Boot verpassen (das tat es nicht, das Plugin ist dieses Ereignis in der Zeitachse der Discourse-Entwicklung).

Ich betrachte die Frage als geklärt, wie sie sein wird, und hoffe, dass, wenn es eine nachweisbare Änderung des Kräfteverhältnisses gäbe, dies im Voraus oder in einem angemessenen Zeitrahmen sehr klar kommuniziert würde.

Ein Forum mit aktiver KI tief im Kern zu haben, könnte für einige Administratoren/Besitzer und/oder Benutzerbasen einfach ein Skynet-Schwenk zu weit sein, und ich denke, KI sollte als etwas noch Größeres als ein Paradigmenereignis betrachtet werden, das meta ist.