Wie stehen wir alle zu ChatGPT und anderen LLMs und wie sie Foren beeinflussen werden?

Scheint sehr gut darin zu sein:

Da gehen mehrere Geschäfte! :sweat_smile:

1 „Gefällt mir“

Meiner Meinung nach absolut absurd.

Sollten wir die gesamte Menschheit dafür entschädigen, dass sie die wunderschönen Sprachen entwickelt hat, die wir haben?

Aber ich schweife ab.

1 „Gefällt mir“

Ich stimme Ihnen nicht zu, aber ich vermute, dass viele Klagen von den Beklagten als absolut lächerlich angesehen werden, aber dennoch kostspielig sind.

2 „Gefällt mir“

Wenn eine von einem Menschen geprüfte Frage und Antwort (z. B. ein gelöstes Thema in Discourse) einen wirtschaftlichen Wert als Trainingsdaten hat, erscheint es nicht unzumutbar, dafür bezahlt werden zu wollen. Es besteht ein Bedarf an den Daten, daher wäre es eine Win-Win-Situation.

1 „Gefällt mir“

Es gibt mindestens zwei Schreibwettbewerbe, bei denen es darum geht, im Stil eines bestimmten Autors zu schreiben. (Bulwer-Lytton und Hemingway)

Aber ich kann mir vorstellen, dass die Aufforderung an eine KI, einen Roman im Stil eines bekannten Autors zu schreiben, bei diesem Autor oder seinen Erben einige Irritationen hervorrufen könnte. Ein erkennbarer Stil könnte als „geistiges Eigentum“ betrachtet werden, oder zumindest könnte ein Anwalt bereit sein, dies vor Gericht geltend zu machen.

2 „Gefällt mir“

Hat jemand von den Nutzern viel Begeisterung für die Nutzung von Discourse Chatbot in ihren Foren erfahren? Ich habe all diesen Chatbot-Kram gesehen und nutze täglich ChatGPT, Perplexity, Claude, Bard usw. Aber ich dachte, Foren seien ein sicherer Raum davor. Gestern habe ich einen Artikel darüber geschrieben Ich glaube, die KI-Sättigung wird diese alte Webplattform wiederbeleben (Webforen)

Ich bin wirklich neugierig, ob Forennutzer Chatbots und KI wünschen, wenn sie Diskussionsforen besuchen, die von Discourse und anderen betrieben werden. Wenn das der Fall ist, muss ich meine Vorstellung von Foren wirklich überdenken und sogar ein solches Plugin in Betracht ziehen. Das scheint ein großes Projekt zu sein, vielleicht sogar zeitaufwendig. Wie immer schätze ich alles, was ihr tut. Ich versuche, etwas über die Nachfrage zu erfahren, die dies hervorgebracht hat, damit ich auf dem Laufenden bin.

3 „Gefällt mir“

Ich erwäge, es in einem technischen Supportforum zu verwenden, um einfache/wiederkehrende Fragen schnell zu beantworten, wenn das Personal beschäftigt ist und außerhalb der Geschäftszeiten. Ich denke, es wird in dieser Funktion großartig sein.

5 „Gefällt mir“

Ja, kürzlich habe ich ein Chatfenster mit dem Hostinger-Support geöffnet. Es war ein KI-Chatbot. Und der Chatbot war so effektiv, dass er mir von einer Option für eine Rückerstattung erzählte, von der ich nie etwas gewusst hätte, und mir sogar einen Link zur Rückerstattungsrichtlinie schickte! lol

Er verstand, was ich fragte, und fragte mich nicht, ob ich bereits 10 grundlegende Dinge ausprobiert hätte. Also ja, ich kann sehen, dass es bei Supportfällen nützlich ist.

Hoffentlich wird das dann im Forum gespeichert, damit andere es sehen oder sogar zur Diskussion beitragen können, anstatt es zu ersetzen.

1 „Gefällt mir“

Wäre das auch bei einer sachkundigen Supportperson der Fall, die Erfahrung mit der Software hat, für die sie Support leistet?

1 „Gefällt mir“

Natürlich nicht. Es gibt keine perfekte Option für jeden.\n\nGPTs können sich weiterentwickeln. Aber im Moment sind das Low-Level-Optionen, selbst wenn sie einfache Mathematik machen. 3.5 kann doch nicht einmal Grundlagen zuverlässig erledigen, oder? Halluzination ist ein wirklich großes Problem, wenn es um Fakten gehen sollte, oder auch nur annähernd richtig. \n\nAndere Sprachen als Englisch sind schwierig. Für wenige massive Sprachen wird es gut funktionieren, aber für mich und für jeden, der eine Minderheitensprache spricht und insbesondere wenn die Struktur keine Präpositionen verwendet, werden Übersetzungen nie Spitzenklasse sein.\n\nGPT wird zuerst ins Englische übersetzen und den Prompt ändern. Dann wird die Antwort aus dem Englischen zurückübersetzt, und GPT wird andere Änderungen und eine Halluzinationsrunde durchführen. Das Endprodukt wird weit davon entfernt sein, was gefragt wurde, und sogar davon, was GPT anfangs angeboten hat.\n\nUnd weil das Training auf der Idee basiert, wo Millionen von Fliegen nicht irren können und Quantität über Qualität geht, ist die Menge an Fehlinformationen und Desinformation mehr als nur riesig. Und selbst in dieser Situation wird es noch mehr Fiktion geben, wegen der Halluzination.\n\nNatürlich ist es nicht so schwarz und weiß. Ich benutze eine Einstiegslösung. Aber wenn man Geld ausgeben kann, kann man sein eigenes Training machen und die Spielwiese wird sich stark verändern.\n\nDennoch behaupte ich: GPT funktioniert am besten, wenn es analysiert oder etwas tut, bei dem es nicht zu viele Variationen gibt. Oder wenn es etwas “Neues”, völlig Fiktives erschaffen kann. Aber der breite Mittelweg, auf dem ein GPT Fakten und verlässliche Informationen anbieten sollte… nicht so sehr.\n\nIch benutze GPT3.5 von OpenAI täglich viel als… Suche mit Steroiden. Und ich bin nicht allzu glücklich. Ich muss viel überprüfen, erneut überprüfen und umschreiben, aber ich leugne nicht, dass GPT mir immer noch Zeit spart, wenn es Textmassen erstellt.

4 „Gefällt mir“

Es gab eine interessante Studie zu einer Version dieser Frage, die kürzlich veröffentlicht wurde:

https://www.nature.com/articles/s41598-024-61221-0

Die Folgen generativer KI für Online-Wissensgemeinschaften

Generative künstliche Intelligenztechnologien, insbesondere große Sprachmodelle (LLMs) wie ChatGPT, revolutionieren den Wissenserwerb und die Inhaltsproduktion in verschiedenen Bereichen. Diese Technologien haben ein erhebliches Potenzial, die Teilnahme und Inhaltsproduktion in Online-Wissensgemeinschaften zu beeinflussen. Wir liefern erste Beweise dafür, indem wir Daten von Stack Overflow und Reddit-Entwicklergemeinschaften zwischen Oktober 2021 und März 2023 analysieren und den Einfluss von ChatGPT auf die Benutzeraktivität in ersterer dokumentieren. Wir beobachten signifikante Rückgänge sowohl bei den Website-Besuchen als auch beim Fragvolumen auf Stack Overflow, insbesondere bei Themen, bei denen ChatGPT glänzt. Im Gegensatz dazu zeigen Aktivitäten in Reddit-Communities keine Anzeichen eines Rückgangs, was die Bedeutung des sozialen Gefüges als Puffer gegen die gemeinschaftszerstörenden Auswirkungen von LLMs nahelegt. Schließlich konzentriert sich der Rückgang der Beteiligung auf Stack Overflow bei neueren Benutzern, was darauf hindeutet, dass jüngere, weniger sozial eingebettete Benutzer mit größerer Wahrscheinlichkeit aussteigen.

7 „Gefällt mir“

Das beschreibt ziemlich genau mein eigenes Verhalten. Ich stelle und beantworte immer noch Fragen auf Meta – ich habe hier eine soziale Verbindung. Aber um neue Programmiersprachen und Frameworks zu lernen, verlasse ich mich auf eine Kombination aus ChatGPT und Online-Dokumentation.

Das Hauptargument für LLMs ist vielleicht ihre Verfügbarkeit. Ich würde lieber Rat von menschlichen Experten erhalten, aber niemand hat genug Zeit oder Geduld, um alle meine Fragen sofort zu beantworten.

Ein großer Nachteil des Lernens durch LLMs im Gegensatz zum Lernen in einem öffentlichen Forum ist, dass die generierten Informationen privat sind. Es ist ziemlich selten, dass das Erlernen von etwas über ein LLM nur darin besteht, ihm eine Frage zu stellen und die richtige Antwort zu erhalten. Es ist eher so: Stelle eine Frage, versuche, die Antwort anzuwenden, lies etwas Dokumentation, um herauszufinden, warum die Antwort nicht funktioniert hat, gehe mit einer Folgefrage zurück zum LLM… irgendwann wird ein wenig Wissen generiert.

Ich glaube nicht, dass jemand die Chatprotokolle anderer Leute lesen möchte, aber vielleicht könnten technische Foren die Idee fördern, dass Leute Wissen posten, das sie aus LLMs gewonnen haben.

Ein weiterer offensichtlicher Nachteil des Lernens über LLMs ist der Verlust der sozialen Verbindung, menschliche Aufmerksamkeit als Lernmotivation, Jobmöglichkeiten usw. Das ist aus meiner Sicht eine ziemlich große Sache.

14 „Gefällt mir“

Verfügbarkeit ist der Hauptgrund, warum wir einen Support-Bot entwickeln.

4 „Gefällt mir“

Ich bin gleichermaßen begeistert von dieser Technologie und leicht besorgt über die Zukunft des Webs.

Unternehmen wie Google (und Bing) nutzen nun Daten, die beim Crawlen Ihrer Website gesammelt wurden, um eine KI-gestützte Frage-und-Antwort-Funktion am oberen Rand ihrer Suchseite anzubieten.

Dies verschiebt nicht nur die Suchergebnisse nach unten auf der Seite und betont die Quellen weniger, sondern schafft auch eine weitere besorgniserregende Dynamik: Dies wird Suchanbieter dazu ermutigen, eine stärkere Integration mit einigen ausgewählten großen Datenquellen anzustreben.

Z.B. Berichten zufolge hat Google eine Vereinbarung mit Reddit getroffen, um Zugang zu deren API zu erhalten.

Meiner bescheidenen Meinung nach wird dies dazu führen, dass Inhalte auf größeren Plattformen weiter gefördert werden und kleinere Websites geschädigt werden.

Derzeit gibt es eine ziemliche Kontroverse bezüglich der Qualität der Ergebnisse, die Google mit seiner Funktion „AI Overview“ erzielt, und einige urkomische und nicht so urkomische Beispiele, die für das Unternehmen arguably ziemlich peinlich sind. Ich bin sicher, die Technologie wird sich jedoch verbessern.

Vielleicht sind kleinere Foren besser positioniert, um ihre lokale KI-Nutzung zu optimieren, da sie sich spezialisieren können. Google kämpft damit, einen sehr generischen Dienst anzubieten.

Die Zeit wird es zeigen, aber der Kampf um Aufmerksamkeit wird immer noch sehr intensiv geführt.

5 „Gefällt mir“

Das war eine meiner Ideen. Ich dachte daran, ein BERT-ähnliches Modell feinabzustimmen, um Beiträge automatisch in Kategorien zu klassifizieren oder automatisch Tags hinzuzufügen. Das Erkennen von „toxischen“ Beiträgen wäre ein weiterer Anwendungsfall.

Für etwas wie Discourse gibt es wahrscheinlich mehr, was man mit KI tun kann, als ich es in einem Leben tun könnte. Obwohl, sobald KI bei der Implementierung hilft, kann es vielleicht in einem Leben gemacht werden…

3 „Gefällt mir“

Ehrlich gesagt, ich denke, dieses Problem liegt allen KI-bezogenen Themen zugrunde, und der naive Mensch, der ich bin, denkt, dass dies (nur) durch ein gemeinschaftseigenes Modell gelöst werden kann.

Eines, das mit Daten trainiert wird, die wir bereitwillig bereitstellen und regulieren, indem wir uns einfach an die bereitgestellten Lizenzen halten. Ein ethisch trainiertes Modell, das auf all unseren Maschinen berechnet wird.

Peer-to-Peer-Datenberechnung hat eine lange Tradition, da bestimmte wissenschaftliche Bereiche dies seit einigen Jahrzehnten tun.

Meiner bescheidenen Meinung nach gibt es keinen Weg daran vorbei, oder zumindest eine vergleichbare Lösung, wenn wir KI nutzen und unsere Prinzipien langfristig nicht opfern wollen.

2 „Gefällt mir“

LLM-basierte Moderation wird großartig sein, Sie könnten sie bitten, jeden Beitrag anhand verschiedener willkürlicher Maße (relevant für die Community) zu bewerten und Aktionen, Filter oder Hilfe durchzuführen.

Ich sehe hier den Anfang davon, bin mir aber über den Funktionsumfang nicht im Klaren: Discourse AI Features | Discourse - Civilized Discussion

6 „Gefällt mir“

Ich glaube, der Funktionsumfang, den Sie suchen, ist Discourse AI - AI Triage

Wir haben einige Pläne, die Landingpage zu überarbeiten, damit der Kontext für alle KI-Funktionen noch klarer wird.

2 „Gefällt mir“

Wie man bei Facebook, Instagram, TikTok usw. im Großen und Ganzen sieht :winking_face_with_tongue:

1 „Gefällt mir“

Es hängt wirklich davon ab, was das Ziel ist – anstößige Inhalte entfernen, den Benutzer anleiten usw.

Ein Ziel, das mich besonders interessiert, ist die Verwendung eines LLM zur Analyse von Fragen/Problemen, wenn sie eingereicht werden. Das Ziel ist nicht, die Frage zu beantworten, sondern dem Benutzer zu helfen, sein Problem konstruktiver auszudrücken. Zu oft sehen wir, dass die erste Antwort lautet: „Können Sie bitte Ihre Fehlerprotokolle posten?“ oder „Was genau versuchen Sie zu tun?“. Ein LLM könnte Themen dieser Art erkennen und den Benutzer dazu anhalten, diese Details anzugeben, was den gesamten Supportprozess beschleunigt und ein qualitativ hochwertigeres Thema für zukünftige Leser schafft.

Frühe Arbeiten waren vielversprechend und zeigten eine Genauigkeit von etwa 93–95 % bei einem Datensatz von etwa 60 Themen. Die Ungenauigkeiten sind nicht einmal so schlimm – die Hälfte der Antworten, bei denen unsere Einschätzung von der des LLM abweicht, ist ohnehin sehr zweifelhaft.

Meine wichtigste Erkenntnis, so offensichtlich sie auch sein mag, ist: Je mehr Sie den Geltungsbereich Ihrer Abfrage für das LLM einschränken, desto genauer wird die Antwort sein.

9 „Gefällt mir“