Scheint sehr gut darin zu sein:
Da gehen mehrere GeschÀfte! ![]()
Meiner Meinung nach absolut absurd.
Sollten wir die gesamte Menschheit dafĂŒr entschĂ€digen, dass sie die wunderschönen Sprachen entwickelt hat, die wir haben?
Aber ich schweife ab.
Ich stimme Ihnen nicht zu, aber ich vermute, dass viele Klagen von den Beklagten als absolut lÀcherlich angesehen werden, aber dennoch kostspielig sind.
Wenn eine von einem Menschen geprĂŒfte Frage und Antwort (z. B. ein gelöstes Thema in Discourse) einen wirtschaftlichen Wert als Trainingsdaten hat, erscheint es nicht unzumutbar, dafĂŒr bezahlt werden zu wollen. Es besteht ein Bedarf an den Daten, daher wĂ€re es eine Win-Win-Situation.
Es gibt mindestens zwei Schreibwettbewerbe, bei denen es darum geht, im Stil eines bestimmten Autors zu schreiben. (Bulwer-Lytton und Hemingway)
Aber ich kann mir vorstellen, dass die Aufforderung an eine KI, einen Roman im Stil eines bekannten Autors zu schreiben, bei diesem Autor oder seinen Erben einige Irritationen hervorrufen könnte. Ein erkennbarer Stil könnte als âgeistiges Eigentumâ betrachtet werden, oder zumindest könnte ein Anwalt bereit sein, dies vor Gericht geltend zu machen.
Hat jemand von den Nutzern viel Begeisterung fĂŒr die Nutzung von Discourse Chatbot in ihren Foren erfahren? Ich habe all diesen Chatbot-Kram gesehen und nutze tĂ€glich ChatGPT, Perplexity, Claude, Bard usw. Aber ich dachte, Foren seien ein sicherer Raum davor. Gestern habe ich einen Artikel darĂŒber geschrieben Ich glaube, die KI-SĂ€ttigung wird diese alte Webplattform wiederbeleben (Webforen)
Ich bin wirklich neugierig, ob Forennutzer Chatbots und KI wĂŒnschen, wenn sie Diskussionsforen besuchen, die von Discourse und anderen betrieben werden. Wenn das der Fall ist, muss ich meine Vorstellung von Foren wirklich ĂŒberdenken und sogar ein solches Plugin in Betracht ziehen. Das scheint ein groĂes Projekt zu sein, vielleicht sogar zeitaufwendig. Wie immer schĂ€tze ich alles, was ihr tut. Ich versuche, etwas ĂŒber die Nachfrage zu erfahren, die dies hervorgebracht hat, damit ich auf dem Laufenden bin.
Ich erwĂ€ge, es in einem technischen Supportforum zu verwenden, um einfache/wiederkehrende Fragen schnell zu beantworten, wenn das Personal beschĂ€ftigt ist und auĂerhalb der GeschĂ€ftszeiten. Ich denke, es wird in dieser Funktion groĂartig sein.
Ja, kĂŒrzlich habe ich ein Chatfenster mit dem Hostinger-Support geöffnet. Es war ein KI-Chatbot. Und der Chatbot war so effektiv, dass er mir von einer Option fĂŒr eine RĂŒckerstattung erzĂ€hlte, von der ich nie etwas gewusst hĂ€tte, und mir sogar einen Link zur RĂŒckerstattungsrichtlinie schickte! lol
Er verstand, was ich fragte, und fragte mich nicht, ob ich bereits 10 grundlegende Dinge ausprobiert hĂ€tte. Also ja, ich kann sehen, dass es bei SupportfĂ€llen nĂŒtzlich ist.
Hoffentlich wird das dann im Forum gespeichert, damit andere es sehen oder sogar zur Diskussion beitragen können, anstatt es zu ersetzen.
WĂ€re das auch bei einer sachkundigen Supportperson der Fall, die Erfahrung mit der Software hat, fĂŒr die sie Support leistet?
NatĂŒrlich nicht. Es gibt keine perfekte Option fĂŒr jeden.\n\nGPTs können sich weiterentwickeln. Aber im Moment sind das Low-Level-Optionen, selbst wenn sie einfache Mathematik machen. 3.5 kann doch nicht einmal Grundlagen zuverlĂ€ssig erledigen, oder? Halluzination ist ein wirklich groĂes Problem, wenn es um Fakten gehen sollte, oder auch nur annĂ€hernd richtig. \n\nAndere Sprachen als Englisch sind schwierig. FĂŒr wenige massive Sprachen wird es gut funktionieren, aber fĂŒr mich und fĂŒr jeden, der eine Minderheitensprache spricht und insbesondere wenn die Struktur keine PrĂ€positionen verwendet, werden Ăbersetzungen nie Spitzenklasse sein.\n\nGPT wird zuerst ins Englische ĂŒbersetzen und den Prompt Ă€ndern. Dann wird die Antwort aus dem Englischen zurĂŒckĂŒbersetzt, und GPT wird andere Ănderungen und eine Halluzinationsrunde durchfĂŒhren. Das Endprodukt wird weit davon entfernt sein, was gefragt wurde, und sogar davon, was GPT anfangs angeboten hat.\n\nUnd weil das Training auf der Idee basiert, wo Millionen von Fliegen nicht irren können und QuantitĂ€t ĂŒber QualitĂ€t geht, ist die Menge an Fehlinformationen und Desinformation mehr als nur riesig. Und selbst in dieser Situation wird es noch mehr Fiktion geben, wegen der Halluzination.\n\nNatĂŒrlich ist es nicht so schwarz und weiĂ. Ich benutze eine Einstiegslösung. Aber wenn man Geld ausgeben kann, kann man sein eigenes Training machen und die Spielwiese wird sich stark verĂ€ndern.\n\nDennoch behaupte ich: GPT funktioniert am besten, wenn es analysiert oder etwas tut, bei dem es nicht zu viele Variationen gibt. Oder wenn es etwas âNeuesâ, völlig Fiktives erschaffen kann. Aber der breite Mittelweg, auf dem ein GPT Fakten und verlĂ€ssliche Informationen anbieten sollte⊠nicht so sehr.\n\nIch benutze GPT3.5 von OpenAI tĂ€glich viel als⊠Suche mit Steroiden. Und ich bin nicht allzu glĂŒcklich. Ich muss viel ĂŒberprĂŒfen, erneut ĂŒberprĂŒfen und umschreiben, aber ich leugne nicht, dass GPT mir immer noch Zeit spart, wenn es Textmassen erstellt.
Es gab eine interessante Studie zu einer Version dieser Frage, die kĂŒrzlich veröffentlicht wurde:
https://www.nature.com/articles/s41598-024-61221-0
Die Folgen generativer KI fĂŒr Online-Wissensgemeinschaften
Generative kĂŒnstliche Intelligenztechnologien, insbesondere groĂe Sprachmodelle (LLMs) wie ChatGPT, revolutionieren den Wissenserwerb und die Inhaltsproduktion in verschiedenen Bereichen. Diese Technologien haben ein erhebliches Potenzial, die Teilnahme und Inhaltsproduktion in Online-Wissensgemeinschaften zu beeinflussen. Wir liefern erste Beweise dafĂŒr, indem wir Daten von Stack Overflow und Reddit-Entwicklergemeinschaften zwischen Oktober 2021 und MĂ€rz 2023 analysieren und den Einfluss von ChatGPT auf die BenutzeraktivitĂ€t in ersterer dokumentieren. Wir beobachten signifikante RĂŒckgĂ€nge sowohl bei den Website-Besuchen als auch beim Fragvolumen auf Stack Overflow, insbesondere bei Themen, bei denen ChatGPT glĂ€nzt. Im Gegensatz dazu zeigen AktivitĂ€ten in Reddit-Communities keine Anzeichen eines RĂŒckgangs, was die Bedeutung des sozialen GefĂŒges als Puffer gegen die gemeinschaftszerstörenden Auswirkungen von LLMs nahelegt. SchlieĂlich konzentriert sich der RĂŒckgang der Beteiligung auf Stack Overflow bei neueren Benutzern, was darauf hindeutet, dass jĂŒngere, weniger sozial eingebettete Benutzer mit gröĂerer Wahrscheinlichkeit aussteigen.
Das beschreibt ziemlich genau mein eigenes Verhalten. Ich stelle und beantworte immer noch Fragen auf Meta â ich habe hier eine soziale Verbindung. Aber um neue Programmiersprachen und Frameworks zu lernen, verlasse ich mich auf eine Kombination aus ChatGPT und Online-Dokumentation.
Das Hauptargument fĂŒr LLMs ist vielleicht ihre VerfĂŒgbarkeit. Ich wĂŒrde lieber Rat von menschlichen Experten erhalten, aber niemand hat genug Zeit oder Geduld, um alle meine Fragen sofort zu beantworten.
Ein groĂer Nachteil des Lernens durch LLMs im Gegensatz zum Lernen in einem öffentlichen Forum ist, dass die generierten Informationen privat sind. Es ist ziemlich selten, dass das Erlernen von etwas ĂŒber ein LLM nur darin besteht, ihm eine Frage zu stellen und die richtige Antwort zu erhalten. Es ist eher so: Stelle eine Frage, versuche, die Antwort anzuwenden, lies etwas Dokumentation, um herauszufinden, warum die Antwort nicht funktioniert hat, gehe mit einer Folgefrage zurĂŒck zum LLM⊠irgendwann wird ein wenig Wissen generiert.
Ich glaube nicht, dass jemand die Chatprotokolle anderer Leute lesen möchte, aber vielleicht könnten technische Foren die Idee fördern, dass Leute Wissen posten, das sie aus LLMs gewonnen haben.
Ein weiterer offensichtlicher Nachteil des Lernens ĂŒber LLMs ist der Verlust der sozialen Verbindung, menschliche Aufmerksamkeit als Lernmotivation, Jobmöglichkeiten usw. Das ist aus meiner Sicht eine ziemlich groĂe Sache.
VerfĂŒgbarkeit ist der Hauptgrund, warum wir einen Support-Bot entwickeln.
Ich bin gleichermaĂen begeistert von dieser Technologie und leicht besorgt ĂŒber die Zukunft des Webs.
Unternehmen wie Google (und Bing) nutzen nun Daten, die beim Crawlen Ihrer Website gesammelt wurden, um eine KI-gestĂŒtzte Frage-und-Antwort-Funktion am oberen Rand ihrer Suchseite anzubieten.
Dies verschiebt nicht nur die Suchergebnisse nach unten auf der Seite und betont die Quellen weniger, sondern schafft auch eine weitere besorgniserregende Dynamik: Dies wird Suchanbieter dazu ermutigen, eine stĂ€rkere Integration mit einigen ausgewĂ€hlten groĂen Datenquellen anzustreben.
Z.B. Berichten zufolge hat Google eine Vereinbarung mit Reddit getroffen, um Zugang zu deren API zu erhalten.
Meiner bescheidenen Meinung nach wird dies dazu fĂŒhren, dass Inhalte auf gröĂeren Plattformen weiter gefördert werden und kleinere Websites geschĂ€digt werden.
Derzeit gibt es eine ziemliche Kontroverse bezĂŒglich der QualitĂ€t der Ergebnisse, die Google mit seiner Funktion âAI Overviewâ erzielt, und einige urkomische und nicht so urkomische Beispiele, die fĂŒr das Unternehmen arguably ziemlich peinlich sind. Ich bin sicher, die Technologie wird sich jedoch verbessern.
Vielleicht sind kleinere Foren besser positioniert, um ihre lokale KI-Nutzung zu optimieren, da sie sich spezialisieren können. Google kÀmpft damit, einen sehr generischen Dienst anzubieten.
Die Zeit wird es zeigen, aber der Kampf um Aufmerksamkeit wird immer noch sehr intensiv gefĂŒhrt.
Das war eine meiner Ideen. Ich dachte daran, ein BERT-Ă€hnliches Modell feinabzustimmen, um BeitrĂ€ge automatisch in Kategorien zu klassifizieren oder automatisch Tags hinzuzufĂŒgen. Das Erkennen von âtoxischenâ BeitrĂ€gen wĂ€re ein weiterer Anwendungsfall.
FĂŒr etwas wie Discourse gibt es wahrscheinlich mehr, was man mit KI tun kann, als ich es in einem Leben tun könnte. Obwohl, sobald KI bei der Implementierung hilft, kann es vielleicht in einem Leben gemacht werdenâŠ
Ehrlich gesagt, ich denke, dieses Problem liegt allen KI-bezogenen Themen zugrunde, und der naive Mensch, der ich bin, denkt, dass dies (nur) durch ein gemeinschaftseigenes Modell gelöst werden kann.
Eines, das mit Daten trainiert wird, die wir bereitwillig bereitstellen und regulieren, indem wir uns einfach an die bereitgestellten Lizenzen halten. Ein ethisch trainiertes Modell, das auf all unseren Maschinen berechnet wird.
Peer-to-Peer-Datenberechnung hat eine lange Tradition, da bestimmte wissenschaftliche Bereiche dies seit einigen Jahrzehnten tun.
Meiner bescheidenen Meinung nach gibt es keinen Weg daran vorbei, oder zumindest eine vergleichbare Lösung, wenn wir KI nutzen und unsere Prinzipien langfristig nicht opfern wollen.
LLM-basierte Moderation wird groĂartig sein, Sie könnten sie bitten, jeden Beitrag anhand verschiedener willkĂŒrlicher MaĂe (relevant fĂŒr die Community) zu bewerten und Aktionen, Filter oder Hilfe durchzufĂŒhren.
Ich sehe hier den Anfang davon, bin mir aber ĂŒber den Funktionsumfang nicht im Klaren: Discourse AI Features | Discourse - Civilized Discussion
Ich glaube, der Funktionsumfang, den Sie suchen, ist Discourse AI - AI Triage
Wir haben einige PlĂ€ne, die Landingpage zu ĂŒberarbeiten, damit der Kontext fĂŒr alle KI-Funktionen noch klarer wird.
Wie man bei Facebook, Instagram, TikTok usw. im GroĂen und Ganzen sieht ![]()
Es hĂ€ngt wirklich davon ab, was das Ziel ist â anstöĂige Inhalte entfernen, den Benutzer anleiten usw.
Ein Ziel, das mich besonders interessiert, ist die Verwendung eines LLM zur Analyse von Fragen/Problemen, wenn sie eingereicht werden. Das Ziel ist nicht, die Frage zu beantworten, sondern dem Benutzer zu helfen, sein Problem konstruktiver auszudrĂŒcken. Zu oft sehen wir, dass die erste Antwort lautet: âKönnen Sie bitte Ihre Fehlerprotokolle posten?â oder âWas genau versuchen Sie zu tun?â. Ein LLM könnte Themen dieser Art erkennen und den Benutzer dazu anhalten, diese Details anzugeben, was den gesamten Supportprozess beschleunigt und ein qualitativ hochwertigeres Thema fĂŒr zukĂŒnftige Leser schafft.
FrĂŒhe Arbeiten waren vielversprechend und zeigten eine Genauigkeit von etwa 93â95 % bei einem Datensatz von etwa 60 Themen. Die Ungenauigkeiten sind nicht einmal so schlimm â die HĂ€lfte der Antworten, bei denen unsere EinschĂ€tzung von der des LLM abweicht, ist ohnehin sehr zweifelhaft.
Meine wichtigste Erkenntnis, so offensichtlich sie auch sein mag, ist: Je mehr Sie den Geltungsbereich Ihrer Abfrage fĂŒr das LLM einschrĂ€nken, desto genauer wird die Antwort sein.