Wie stehen wir alle zu ChatGPT und anderen LLMs und wie sie Foren beeinflussen werden?

Während ich die Nachrichten über ChatGPT, GPT-4 und andere LLMs verfolge und mit dem Discourse Chatbot 🤖 herumspiele, fühle ich mich aufgeregt, verängstigt und unsicher, was das für die Online-Kommunikation bedeuten wird.

Ich frage mich, wie es Foren und textbasierte Kommunikation im Allgemeinen beeinflussen wird. Ich mache mir auch Sorgen, wie es schlieĂźlich die sprachbasierte Kommunikation beeinflussen wird.

Wird es so weit kommen, dass die meisten Benutzer Beiträge mit ChatGPT erstellen und sie in Foren kopieren und einfügen? Wenn ja, werden die Leute versuchen, Forenbeiträge in ChatGPT zu kopieren und einzufügen, um den KI-geschriebenen Beitrag zusammenzufassen? Wird es uns kümmern, ob jemand ihn “organisch” geschrieben hat oder die Hilfe von KI in Anspruch genommen hat? Wird es für Foren und Websites im Allgemeinen genauso vorteilhaft sein, wenn Leute ähnliche Antworten von ChatGPT erhalten können? Wie werden sich Foren differenzieren und relativ relevant bleiben?

Ich bin mir ziemlich unsicher, was kommen wird, und würde gerne hören, was andere gerade darüber fühlen und denken :slight_smile:

31 „Gefällt mir“

Nachdem ChatGPT mir gerade einige sehr falsche Antworten über meine lokalen Mountainbike-Trails gegeben hat, gehe ich davon aus, dass LLMs keinen großen Einfluss auf Online-Diskussionen haben werden. Seine Antworten werden mit der Zeit besser werden, aber es wird nie die menschliche Motivation haben, im Internet nicht falsch zu liegen. Außerdem ist es als Sprachmodell „nicht zu physischen Handlungen wie einer Mountainbike-Fahrt fähig“. Selbst wenn es mir genaue Informationen über die Trails geben könnte, fehlt ihm die menschliche Dimension, die ein lokales Mountainbike-Forum mit sich bringen würde.

25 „Gefällt mir“

Wie stehe ich also zu all diesen Dingen?

Offensichtlich bin ich begeistert. Wir haben eine brandneue Spielzeugkiste zum Spielen, und dieses Spielzeug ist anders als alles andere, was wir bisher hatten. Wie bei den meisten Technologien kann dies zum Guten oder zum Bösen eingesetzt werden.

Persönlich fühle ich mich, als wäre ich mitten in einem KI-Nebel. Früher hatte ich eine ziemlich gute Vorstellung davon, wohin sich die Dinge in den nächsten drei bis vier Jahren entwickeln würden; jedoch haben LLMs und zukünftige Entwicklungen dieser Technologie einen Riegel vorgeschoben. Ich weiß einfach nicht, wo die Dinge in einem Jahr sein werden.

Wenn man sich eng ansieht, wie schnell sich Stable Diffusion in den letzten Monaten entwickelt hat, ist das atemberaubend. Wenn man sich den Fortschritt von GPT 3.5 zu 4 ansieht, ist das ebenfalls ziemlich atemberaubend.

Selbst mit dem neuen KI-Nebel habe ich einige sehr reale Bedenken:

  • Es ist mir zu 100 % klar, dass Support-Foren von LLMs aufgenommen und als Trainingsdaten fĂĽr hilfreiche Chatbots verwendet werden. Der Vorteil hierbei ist, dass ein GroĂźteil der mĂĽhsamen Arbeit im Support wegfallen kann und man sofort Antworten erhält. Der Nachteil ist jedoch, dass weniger neue Inhalte erstellt werden, was sehr schnell zu einer Abwärtsspirale fĂĽhren kann, wenn es nicht abgemildert wird.

  • Ich bin sicher, dass Spam und andere böswillige Akteure diese Technologie nutzen werden, um Angriffe zu starten, die weitaus ausgefeilter sind als alles, was wir bisher gesehen haben, und Foren potenziell zerstören, wenn wir nicht vorsichtig sind.

  • Diese assistierende Technologie kann das Vertrauen untergraben. Wenn Sie die Worte lesen, die ich schreibe, erwarten Sie, dass die Worte von mir stammen. Menschen können KI nutzen, um mehr als nur Korrektur zu lesen; sie können unsere Worte komplett neu formulieren. Möchten Sie wie Malcolm Gladwell klingen? Kein Problem, das können Sie tun. Welches MaĂź an Kennzeichnung sollten verantwortungsbewusste Forennutzer erwarten? Die Leute werden Foren verlassen, wenn sie nicht mehr vertrauen, dass sie mit Menschen sprechen oder nur mit Facsimiles sprechen.

lesen Sie dies in Malcolms Worten

In der heutigen Welt hat assistierende Technologie die Macht, das Vertrauen auf eine Weise zu untergraben, die wir vielleicht nicht erwartet haben. Als Konsumenten des geschriebenen Wortes haben wir bestimmte Erwartungen – nämlich, dass die Worte, die wir lesen, authentisch sind und von ihrer angegebenen Quelle stammen. Mit dem Aufkommen der KI-Technologie können Einzelpersonen jedoch geschriebene Texte auf eine Weise manipulieren, die über bloße Korrektur hinausgeht. Im Wesentlichen können sie eine Nachricht komplett neu formulieren, um wie jede beliebige Person zu klingen. Wenn Sie also jemals davon geträumt haben, wie Malcolm Gladwell oder eine andere bemerkenswerte Persönlichkeit zu klingen, kann diese Technologie dies mit Leichtigkeit ermöglichen. Dies wirft jedoch Fragen zur verantwortungsvollen Kennzeichnung für Forennutzer auf. Wenn die Menschen nicht mehr darauf vertrauen können, dass sie mit anderen Menschen und nicht nur mit computergenerierten Facsimiles kommunizieren, könnten sie Foren insgesamt verlassen. Das Maß an Kennzeichnung, das erforderlich ist, um das Vertrauen im Online-Diskurs aufrechtzuerhalten, ist ein dringendes Anliegen, das ernsthafte Überlegungen verdient.

  • Wir haben in der Vergangenheit SEO-Factory-Foren gesehen; wir werden weitaus elaboriertere und beängstigendere Versionen davon sehen.
andere Bedenken GPT 4 hat, die ähnlich sind
  • Es besteht die Gefahr, dass die Nutzung von LLMs in Foren eine Kultur der Faulheit unter den Nutzern schafft, die sich zu sehr auf die KI-Technologie verlassen, um Antworten und Erkenntnisse zu erhalten. Dies könnte zu einem RĂĽckgang des kritischen Denkens und der Problemlösungsfähigkeiten bei den Forennutzern fĂĽhren.
  • Die Nutzung von LLMs in Foren wirft ethische Bedenken hinsichtlich Datenschutz und Sicherheit auf. Die Nutzer könnten sich unwohl fĂĽhlen bei dem Gedanken, dass ihre persönlichen Daten und Interaktionen von einem KI-System analysiert und verarbeitet werden, insbesondere wenn sie nicht vollständig darĂĽber informiert sind, wie ihre Daten verwendet werden.
  • Die Integration von LLMs in Foren kann bestehende Vorurteile und Ungleichheiten verschärfen, insbesondere wenn die KI-Technologie auf einem begrenzten Datensatz trainiert wird, der die Vielfalt der Erfahrungen und Perspektiven der Forennutzer nicht erfasst.
  • Die Nutzung von LLMs in Foren kann auch zu einer Homogenisierung des Diskurses fĂĽhren, da die Nutzer eher standardisierte Antworten erhalten, die vom KI-System generiert werden, anstatt nuanciertes und vielfältiges Feedback von anderen menschlichen Nutzern. Dies könnte Kreativität und Originalität in Foren-Gesprächen ersticken.
  • Es besteht die Gefahr, dass die Integration von LLMs in Foren zur Verdrängung menschlicher Moderatoren und Support-Mitarbeiter fĂĽhren könnte, was negative Auswirkungen auf die Arbeitsplatzsicherheit und die Qualität der den Nutzern gebotenen UnterstĂĽtzung hätte.

Trotz dieser und weiterer Ängste bleibe ich sowohl begeistert als auch hoffnungsvoll. Es wird wunderbare und äußerst nützliche Anwendungen dieser Technologie geben, und wir hoffen, diese bei Discourse zu erforschen.

Das Feuer ist aus; das Beste, was wir hier tun können, ist, sehr vorsichtig mit unseren Ansätzen und Experimenten umzugehen und zu versuchen, das Feuer einzudämmen. Ich hoffe, wir können das Feuer eindämmen. Aber wissen Sie… KI-Nebel…

34 „Gefällt mir“

Dies berührt eine der tiefgreifendsten Fragen über KI, nämlich ob es wichtig ist und in welcher Weise es wichtig ist, ob ich mit einer normalen Person, einer „erweiterten“ Person oder einer künstlichen Intelligenz kommuniziere. Nennen wir das das „Interaktionsidentitätsproblem“.

In gewisser Weise haben sich Menschen immer mit dem Problem der Interaktionsidentität auseinandergesetzt. In der Philosophie ist dies manchmal als „Problem der anderen Geister“ bekannt. Eine der bekannteren Aussagen dazu stammt aus Descartes’ bösem Dämon, dem Kontext für sein „Ich denke, also bin ich“. Die Fragen, wie wir uns fühlen werden oder wie wir uns fühlen sollten, wenn wir mit einer KI interagieren, sind im Wesentlichen eine Erweiterung derselben Frage.

Es taucht in Foren auf interessante Weise auf, denn in vielerlei Hinsicht akzeptieren wir meiner Meinung nach bereits ein hohes Maß an Intransparenz bei der Interaktionsidentität. Alles, was wir haben, um unsere Gesprächspartner zu beurteilen, sind ihre Worte und möglicherweise ihre Selbstdarstellung (d. h. Avatar, Benutzername usw.). Zum Besseren oder Schlechteren denken wir in vielen Fällen nicht viel über die Interaktionsidentität nach oder sind zumindest bereit, Intransparenz zu akzeptieren.

Dieser Kontext führt mich zu einigen vorsichtigeren Schlussfolgerungen (oder vielleicht Fragen) darüber, wie sich dies auf Foren auswirkt. Betrachten wir zum Beispiel Spam. Wir mögen Spam aus einer Reihe von Gründen nicht, aber konzentrieren wir uns auf zwei verwandte:

  1. Es ist hässliches Rauschen, das ein Forum unattraktiver macht.
  2. Es hat einen kommerziellen, bösartigen oder anderen Zweck, den wir nicht unterstützen wollen.

Nehmen wir an, die Anwendung eines LLM auf „Spam“ führt zu einer Reduzierung des ersten und einem nuancierteren Ansatz für das zweite. Wenn dies nicht geschieht, reichen bestehende Spam-Eliminierungsmethoden aus, um es abzufangen. In gewisser Weise ist es irreführend, dies Spam zu nennen, sondern eher „hochentwickeltes automatisiertes Marketing“ oder… „Sam“ (Entschuldigung, das konnte ich mir nicht verkneifen).

Wenn wir uns jedoch in das Territorium von Sam begeben, kommen wir unweigerlich näher an dasselbe zugrunde liegende Problem der Interaktionsidentität heran. Es ist bereits der Fall, dass einige Leute ihre Präsenz in einem Forum nutzen, um auf nuancierte, indirekte Weise zu vermarkten. Die Frage ist, ob uns die Identität des Akteurs, der dies tut, kümmert.

Ich teile definitiv Ihre Bedenken hinsichtlich seiner Auswirkungen auf den Arbeitsmarkt. Aus ähnlichen Gründen bin ich mir jedoch nicht so sicher, ob dies zu einem dümmeren, fauleren, hässlicheren oder kommerzielleren Forum-Ökosystem führen wird. Wenn ein LLM dies mit einem Forum tut, wird dieses Forum wahrscheinlich nicht gut abschneiden, aber dann werden seine früheren Benutzer ein anderes Forum finden, das nicht von einem LLM betroffen ist oder von einem ausgefeilteren betroffen ist.

Foren erleichtern Märkte für Wissen, Interesse und menschliche Verbindung. Wenn ein LLM in diesen Märkten erfolgreich ist, wird es zweifellos Auswirkungen auf die Arbeit haben, aber ich bin mir nicht so sicher, ob es die Nachfrage verringern wird. Tatsächlich impliziert Erfolg das Gegenteil.

24 „Gefällt mir“

KI ist schlecht.
Ich sehe keinen Nutzen.
Es wird meinen Appetit auf alles verringern.

7 „Gefällt mir“

Ist dies vielleicht der wichtigste Faktor? Jeder Beitrag ist an eine eindeutige Identität gebunden. Wenn ich einen Beitrag von Ihnen oder dem (vermutlich) echten Sam sehe, schätze ich ab, wie wahrscheinlich es ist, dass diese Informationen wahr sind. Ich habe Sam in einem Podcast gehört und letztes Jahr mit Ihnen in einem Experten-Videoanruf gesprochen, daher kann ich davon ausgehen, dass sich irgendwo hinter diesen Beiträgen mindestens eine echte Person verbirgt.

Aber ist die echte Person überhaupt wichtig? Wenn es ein Konto namens „Hal Mcdave“ gibt, das korrekte Informationen in einem konsistenten und kohärenten Stil liefert, dann werde ich auch beginnen, diesen Informationen zu vertrauen und sie zu nutzen. Ist das also in Ordnung?

Sicherlich war das wirkliche Problem nie kĂĽnstliche Intelligenz, sondern kĂĽnstliche Dummheit.

5 „Gefällt mir“

Nein. Machen Sie einen kurzen Rundgang durch Foren und sehen Sie, worum es bei den Inhalten wirklich geht.

KIs werden die CMS-Welt verändern. Und sie werden die Welt im WordPress-Stil stark treffen. Und dort auch diese spamartigen, bereits kopierten Inhalte wie Liste des Jahres XXXX, wie man…, usw.

Dieser Kreis hier ist Teil dieses Publikums, das die starke Nutzung von ChatGPT usw. nutzen und sehen wird. Aber die große Mehrheit des Rests der Welt… nicht so sehr. Sie schreiben nicht mehr, wissen nicht, wie man kopiert und einfügt, und benutzen keine dieser schicken Werkzeuge, die zum Beispiel Discourse anbietet.

Ihr seid rosafarbene Einhörner :wink: Seltene Exemplare. Für euch ist alles KI-basiert ein neuer Spielplatz oder ein Spielzeug, weil es Teil eures Berufs und eurer Hobbys ist.

Für CDCK ist dies eine Angelegenheit der nahen Zukunft wegen großer Unternehmenskunden. Sie nutzen Discourse oft für Dokumentation, Hilfe und Support. Für sie generieren solche Support-Funktionen keinen Umsatz und benötigen bezahlte menschliche Arbeitskraft. Sie werden im siebten Himmel sein, wenn es eine KI gibt, die Kunden bedient und sie keine Support-Crew mehr brauchen. Und Entwickler sind als solche glücklich, denn wie wir alle wissen, funktioniert Technik einfach nicht ohne endlose Fehlersuche und Reparatur.

Daher fressen KI-basierte Lösungen kein Vertrauen oder etwas anderes, weil es im Moment auch kein solches Vertrauen gibt. Normale Benutzer können nicht sehen oder sich sogar darum kümmern, ob Antworten und Kommentare von einem Haufen Code kommen. Sie sind total glücklich über neue Meme-Ersteller und TikTok-Filter :wink: Um Himmels willen, sie bezahlen bereits für Dating-Apps, bei denen die meisten Gegenüber keine Menschen sind…

Entschuldigt, Leute, aber ihr diskutiert jetzt in einer engen Kiste :grin:

8 „Gefällt mir“

Aber anstatt automatischer Content-Erstellung, die nur die Plattformbesitzer unterstützt, würde ich gerne einen KI-basierten Echtzeit-Übersetzer sehen, der tatsächlich funktioniert – denn die, die wir jetzt haben, funktionieren einfach nicht.

Das wĂĽrde Benutzern helfen, beliebige textbasierte Inhalte, und natĂĽrlich auch per Sprache, so einfach zu erstellen, dass Foren, Chats, was auch immer, ein echtes globales Publikum erreichen wĂĽrden. Das ist ein Werkzeug, auf das ich warte.

Oder etwas Ähnliches. Sam hat in einem Thema mit dem Gedanken gespielt, KI zu nutzen, um Themen in die richtige Kategorie einzuordnen. Eine wirklich hilfreiche, benutzerbezogene Verschlagwortung basierend auf Lese-/Suchhistorie wäre etwas. Solche Dinge.

Daher sehe ich KI nicht als wirkliche Bedrohung für Kreation und Konversation. Ich sehe KI „nur“ als Werkzeug, um die Notwendigkeit, langweilige Dinge zu tun, zu minimieren :wink:

Nochmal. Es gibt bereits minderwertige und qualitativ schlechte Inhalte, die unzählige Seitenaufrufe wert sind. Wenn KI das ändert, sehe ich darin keine Bedrohung. Und wenn KI-Lösungen genauso schlechten Mist erzeugen… nun, dann wird sie wie die Möchtegern-automatischen Support-Chats sterben (die nur schicke Oberflächen für E-Mail-basierte Formulare sind).

7 „Gefällt mir“

Sehr gute Fragen. @merefield hat kürzlich ein fantastisches Plugin veröffentlicht, das ChatGPT zur Erstellung von Themenzusammenfassungen verwendet.

Google hat seine Variante namens Bard veröffentlicht.

5 „Gefällt mir“

Ich empfinde dasselbe, aber ich hoffe, dass Menschen weiterhin menschliche Dinge tun wollen, wie diskutieren (nicht nur Code, Daten kopieren und einfĂĽgen).

KI-Werkzeuge könnten für operative und repetitive Aufgaben äußerst nützlich sein, und ich glaube nicht, dass Bots tatsächlich in menschliche Gespräche verwickelt werden könnten.

Das ist grundsätzlich nicht möglich und 99,99 % der Daten der Welt werden das nicht ändern, wegen Freiheit, Wahl und Leben.

Das Leben ist Veränderung und KI kann sich nicht von selbst verändern, nicht grundlegend (abgesehen von Skynet, natürlich).

Die Mehrheit der Menschen da drauĂźen wird weiterhin bei Google suchen und nur auf den ersten Link klicken.

Aber es wird immer 3 % der Welt geben, die sich entscheiden, die ersten 5/10 Seiten zu durchsuchen oder stattdessen Duckduckgo nutzen, um im Internet wie in alten Zeiten zu surfen und wirklich zu navigieren.

KI ist in sozialen Medien extrem schlecht wegen Kontrolle, Zensur und massiver Manipulation, aber nicht so sehr auf Foren-Instanzen.

Eines Tages werden nur sehr wenige Menschen auf der Welt alles über alle wissen, aber wird das auch unsere Möglichkeit zur Veränderung beinhalten?

Ich glaube nicht (und dasselbe gilt fĂĽr Quantentechnologie, die alles auf einmal brechen wird).

5 „Gefällt mir“

Vor Jahren verband eines der Tech-Magazine zwei Eliza-ähnliche Programme, eines war darauf ausgelegt, wie ein Arzt zu sprechen, das andere wie eine paranoide Person. Die Ergebnisse waren lustig, aber das waren keine hochentwickelten Engines wie GPT.

Wenn zwei GPT-Instanzen miteinander ĂĽber Sportmannschaften, Schach oder Backen (die Bereiche, in denen ich derzeit Diskussionsforen betreibe) chatten, wird es dann interessant zu lesen sein? Ich bezweifle es irgendwie.

6 „Gefällt mir“

Das ist eine ehrliche Antwort auf die Frage des OP. Wir leben wirklich in interessanten Zeiten :slight_smile:
Ich hoffe, dass Foren genutzt werden können, um uns dabei zu helfen, das Gefühl dafür zu bewahren, was es bedeutet, ein Mensch zu sein.

6 „Gefällt mir“

Der Begriff „Künstliche Intelligenz“ kann durchaus Angst hervorrufen, und KIs haben in Büchern, Filmen usw. oft für Chaos gesorgt.

Ich frage mich, ob wir anders empfinden würden, wenn all diese Technologien, die heutzutage viral gehen (Midjourney, ChatGPT usw.), gar nicht den Begriff „KI“ verwenden würden, sondern etwas anderes, wofür wir kulturell weniger voreingenommen sind.

7 „Gefällt mir“

Ich möchte einen KI-Tierarzt-Chatbot für die automatische Erstberatung sowie zur Informationsaufnahme erhalten, um ein detailliertes Supportanfragenthema für menschliche Tierärzte zu erstellen.

2 „Gefällt mir“

Es würde mich nicht überraschen, wenn etwas Ähnliches für Tierärzte bereits auf dem Markt ist. Einige medizinische Praxen beginnen, sie einzusetzen, um Personalzeit zu sparen.

2 „Gefällt mir“

Wie ich mich fühle, mit ein wenig Hilfe von Midjourney und ChatGPT… :upside_down_face:


4 „Gefällt mir“

Ich kann wohl nicht wirklich für andere sprechen. Aber aus meiner Erfahrung habe ich hauptsächlich Discourse-Foren (& Discord-Chat) genutzt, um mit Leuten über bestimmte gemeinsame Interessen an Produkten zu interagieren, die gerade wachsen, wo ich mir nicht sicher bin, ob es sehr nützlich wäre, mit einer KI zu chatten, z.B.

  • Auxy App Forum (Musik-App, jetzt geschlossen, aber sie sind auf Discord), wo Leute Feedback zu den WIP-Tracks anderer teilten und app-spezifische Tipps gaben. Es gibt kein schriftliches Material ĂĽber die App, auĂźer dem, was die Community schreibt.
  • Hopscotch Forum (Drag-and-Drop-Coding-App, wo ich arbeite und geholfen habe, es zu starten, als es anfing). Auch hier gab es kein schriftliches Material & detaillierte Anleitungen zur App irgendwo im Internet, bevor die Community all diese Beiträge schrieb, sodass jede KI wiederholen wĂĽrde, was wir geschrieben haben.
  • Sky: Children of the Light (Spiel, Community auf Discord, aber die Prämisse ist immer noch die gleiche) Auch hier habe ich es während der Beta gespielt, bevor es ĂĽberhaupt schriftliches Material gab. Und ich habe geholfen, die musikalischen Inhalte im Wiki zu SCHREIBEN und bin seitdem Teil der Community, bevor all diese Inhalte generiert wurden.

In allen Fällen hat die KI die Apps auch nicht selbst “benutzt”.

Daher weiß ich nicht, ob KI hilfreich gewesen wäre, außer vielleicht, um all die Dinge, die die Community generiert hat, nett zu formulieren, weil es vorher überhaupt keine schriftlichen Inhalte zu diesen Themen gab, bevor all diese Leute sie durch Diskussionen geschrieben haben.

(Ich glaube, Marx sagte in Das Kapital, nachdem er Fabrikarbeiter in England beobachtet hatte, so etwas wie, dass die Leute nicht die Maschinen benutzen; die Maschinen benutzen die Leute)

Nicht, dass diese KI nicht cool oder nützlich ist, es ist nur, dass sie wahrscheinlich nicht sehr hilfreich gewesen wäre, wenn sie während meiner Zeit in diesen Communities präsent gewesen wäre.

10 „Gefällt mir“

Ich betreibe ein Forum, das Unternehmer unterstĂĽtzt.

Seit November habe ich @Robolivier erstellt, einen freundlichen KI-Roboter, der den Nutzern hilft, wenn sie ihn erwähnen. Er antwortet auch auf jedes neue Thema in der Hoffnung, dem Nutzer eine zufriedenstellende Antwort zu geben. Ich habe jeder seiner Nachrichten einen Haftungsausschluss hinzugefügt.

Bisher finden die Nutzer ihn meist amĂĽsant und nĂĽtzlich.

Ich plane, ihn mit meinen eigenen Interaktionen im Forum zu trainieren, wir werden sehen, wie das laufen wird.

Da es sich um ein kostenpflichtiges Forum handelt, sind Bots für mich kein Problem. Aber ich kann mir vorstellen, dass ein offenes und kostenloses Forum durch Spam unbrauchbar gemacht werden könnte.

8 „Gefällt mir“

Ein entscheidender Unterschied besteht darin, dass, wenn KI qualitativ hochwertige Informationen unter einer beliebig großen Anzahl von unterschiedlichen „Identitäten“ (Labels) massenhaft generieren kann, es billig wird, in kritischen/profitablen Momenten das Vertrauen zu verletzen, das fälschlicherweise um diese Identitäten aufgebaut wurde. Als Mensch möchte ich kein Vertrauen verletzen, das ich zu anderen aufgebaut habe, nicht nur wegen meines Gewissens, sondern wegen der schädlichen Auswirkungen auf meinen Ruf. Aber eine künstlich an eine KI gebundene Identität ist weitaus entbehrlicher und missbrauchbarer, sowohl für kapitalistische Gier als auch für politische Machenschaften.

Wie fühle ich mich also? Ich habe Angst vor der Zukunft. Diese Technologie wird uns in naher Zukunft (Jahre) sozial zugrunde richten und uns schließlich (Jahrzehnte) physisch zerstören, wenn wir nicht herausfinden, wie wir sie aufhalten können.

4 „Gefällt mir“

In einem der Foren, die ich betreibe, haben wir seit Jahren den Verdacht, dass jemand unter mindestens zwei verschiedenen Namen mit unterschiedlichen Personas postet, eine konfrontativer als die andere. KĂĽrzlich ist er ausgerutscht und hat einen Beitrag von einer E-Mail-Adresse mit seinem Namen aus der anderen signiert und dann einen weiteren Beitrag mit einem dritten Namen signiert. Jetzt wissen wir es sicher!

Es gibt ein sehr interessantes Buch, in dem berühmte Schriftsteller einer statistischen Analyse von Wortverwendungsmustern unterzogen werden. Es wird interessant, wenn Bücher von mehreren Autoren geschrieben werden, viele der späteren Tom-Clancy-Bücher wurden größtenteils von anderen Autoren geschrieben.

Diese Art der statistischen Analyse war es, die J. K. Rowling als auch unter einem anderen Namen schreiben ließ, bevor sie die Tatsache bestätigte. Sie wurde auch verwendet, um die Federalist Papers zu analysieren, und kam 1962 zu dem Schluss, dass, wie viele behauptet hatten, Alexander Hamilton einige davon geschrieben hatte, darunter mehrere, deren Urheberschaft andere beansprucht hatten. (Sie wurden damals anonym veröffentlicht, weil man glaubte, dass die Kenntnis des Autors ihre politische Wirksamkeit verringern könnte.)

Vielleicht gibt es also einen Wert darin, ChatGPT-ähnliche Schnittstellen in unseren Foren zu haben, wenn wir sie nutzen können, um die Schreibstile unserer Teilnehmer zu analysieren.

7 „Gefällt mir“