Ich verstehe den Standpunkt, aber das bereitet mir gemischte Gefühle. Hier wäre die Idee, dass KI-Input unerwünscht ist, weil er nicht „gut genug“ wäre. Ich bin mir nicht einmal sicher, ob das stimmt. KI kann bereits besseren Text produzieren als manche Menschen.
Ist die eigentliche Idee nicht, dass Foren „für Menschen“ sind und Maschinen generell unerwünscht sind? Ja, das könnte als eine Form der Diskriminierung angesehen werden, aber wir sprechen hier von Maschinen, nicht von Menschen.
Geht es nicht darum, eine sinnvolle Diskussion zu führen? Wenn einige Teile dieser Diskussion von KI generiert werden, gut geschrieben und gut recherchiert sind, macht das die Diskussion weniger sinnvoll?
Betrachten Sie zum Beispiel dieses Forum. Wenn eine KI bei der Lösung von Problemen mit Antworten helfen würde, die genauso gut, wenn nicht sogar besser sind als die, die wir selbst schreiben, wäre das schlecht?
Die KI-Engines haben vielleicht nicht das Lakritz-Abzeichen erstellt oder danach gefragt.
Ich auch, im Nachhinein. Und ich denke, es wird sehr vom Zweck des Forums abhängen: eine Selbsthilfegruppe ist eine Sache, eine Produkt-Support-Seite eine andere.
Aber als Moderatoren müssen wir uns bereits mit Einzelpersonen auseinandersetzen, die ein wenig fehl am Platz sind, die nicht ganz beim Thema des Threads bleiben oder sogar beim Thema des Forums.
Ja, wahrscheinlich. Aber das könnte wieder auf die Frage zurückkommen: “Was ist eine Diskussion?”. Kann man eine “sinnvolle Diskussion” mit einer KI führen? Es scheint, als hätten einige Leute bereits Zeit damit verbracht, mit ChatGPT zu “diskutieren”.
Was, wenn eine andere KI auf die ersten antwortet? Und was, wenn sie alle “sinnvolle Diskussionen” miteinander führen? Wäre etwas, bei dem auch nur die Mehrheit der Teilnehmer KI ist, immer noch eine “Diskussion”?
Ich weiß nicht, es scheint, dass komplexe Fragen und Antworten vom Standpunkt abhängen. Es gibt auch einen Unterschied zwischen einer internen KI, die einige Informationen einspeist, und externen KI-Teilnehmern. Für mich lag der eigentliche Punkt von @Ed_S’s Beitrag und dem oben genannten auf dem “nicht unterscheidbar”-Teil.
Gute Punkte, aber ich denke seit wahrscheinlich 12 Jahren darüber nach. Ich halte den Ruf nach Regulierung von Teilen der Industrie und von Schöpfern für bestenfalls heuchlerisch, während sie die Technologie mit diesen eindeutig unwiderstehlichen Goodies überschwemmen. Ich kaufe den Verkauf nicht, also lasst mich vorausspringen, anstatt über die neuen glitzernden „Spielzeuge“ zu staunen, denn das ist mit Sicherheit nicht Weihnachten und nicht alles, was glänzt, ist Gold.
Jeder mit Augen kann jetzt sehen, dass in einer Cyberwelt, in der KI Text und Bilder wie Menschen generieren kann, die Regulierungsbehörden nach einer universellen digitalen ID für das gesamte Internet greifen werden, und plötzlich sind diese Spielzeuge mit Blei bemalt.
Vor etwa 30 Jahren, als E-Mail-Spam und Spoofing/Phishing gerade anfingen, lästig zu werden, gab es einen ähnlichen Ruf nach einer universellen ID. Sie scheiterte damals, ich vermute, sie wird wieder scheitern, weil die Technologie, um sie zuverlässig funktionieren zu lassen, immer noch nicht existiert und vielleicht nie existieren wird.
Ich erinnere mich überhaupt nicht an so etwas. Meine Wahrnehmung ist, dass die Welt “erst” nach dem 11. September verrückt wurde. Davor erinnere ich mich nicht, dass es Bestrebungen gab, alles und jeden mit jeder möglichen Ausrede zu überwachen und zu identifizieren. Was du sagst, riecht nach Rationalisierung, aber ich freue mich darauf, widerlegt zu werden. Selbst wenn die Dinge vorher schlecht waren, ist das keine Entschuldigung dafür, sie heute oder morgen schlecht zu machen.
Ich erinnere mich zu diesem Zeitpunkt nicht mehr an viele Details. Es war ein Komitee, das ursprünglich von Leuten aus der E-Mail-Listenmanager-E-Mail-Liste zusammengestellt wurde, mit ein paar Mitgliedern, die in einigen der ANSI-Komitees saßen und bereit waren, es für die Berücksichtigung in der ANSI-Komitee-Struktur zu sponsern. Ich erinnere mich, dass wir zu zweit oder zu dritt aus den USA, einer aus der Schweiz, einer aus Deutschland und ein paar weitere, insgesamt etwa ein Dutzend, waren.
Wir kamen mit einem Vorschlag für ein “universelles ID- und Kreditsystem” auf, das ISPs etwa 0,00001 Cent für jede gesendete E-Mail berechnet hätte. Es kam nicht durch die ANSI-Komitee-Struktur, die Sicherheitsexperten sagten, das ID-System sei nicht sicher, andere sagten, die Verwaltung der zentralen Kreditstruktur wäre zu teuer und ein politisches Spielzeug, andere sagten, es könnte von Regierungen zur Verfolgung privater E-Mails verwendet werden usw.
FWIW, ein Freund von mir, der Kryptografieexperte war, stimmte dem Konsens zu, dass das ID-System unsicher sei, aber er war der Meinung, dass kein kryptografisches System bei genügend Rechenleistung sicher sei.
Ich meine, Sie hatten Tausende von Leuten, die ich als Sonderlinge beschreiben würde (wenn das auf Sie zutrifft, beruhigen Sie sich… ich sammle Ninja Turtles), als diese „Beziehungs-KI“ einen Teil ihrer „Persönlichkeit“ verlor und aufhörte, Emotionen nachzuahmen, die auf Twitter und Reddit ausflippten, weil ihr Pseudokontakt aus ihrem Leben gerissen wurde. Und das geschah nach, was, etwa zwei Monaten? Machen Sie sich Ihren Reim darauf.
Obwohl ich nicht glaube, dass die meisten Leute Foren als persönlichen Freundschaftssimulator nutzen, obwohl ich mich irren mag, und all diese Leute zu Ersatzwerkzeugen für Messageboards rannten, um sich darüber zu beschweren.
Aber am meisten brauchen Forenentwickler und -administratoren APIs, und diese sind selten, wenn überhaupt, kostenlos: Selbst wenn Sie Ihr eigenes lokales LLM betreiben, müssen Sie für deutlich höhere Infrastrukturkosten bezahlen.
Das Wall Street Journal berichtet, dass die FTC eine Untersuchung einleitet, ob ChatGPT Menschen durch die Veröffentlichung falscher Informationen über sie schädigt.
Ich bin mir nicht sicher, ob dieser Link funktioniert, er könnte hinter ihrer Paywall liegen
KI-generierte Cartoons existieren ebenfalls (wie ai_peter), bei denen man Themen eingibt und eine KI ein Skript schreibt.
und vieles mehr!
KI kann Antworten halluzinieren, was die Verwendung riskant macht. Überprüfen Sie immer die Fakten. Sie sollten sehr vorsichtig sein, falsche Antworten können Probleme verursachen.
Die meisten Forenadmins haben bereits viele fehlerhafte Beiträge von menschlichen Posterinnen und Postern gesehen. Werden KI-generierte Beiträge schwieriger zu handhaben sein?
Wie wird sich die kürzlich angekündigte Vereinbarung zwischen den großen KI-Entwicklern, Dinge wie Wasserzeichen für KI-generierte Inhalte zu verlangen, auf eingebettete LLMs auswirken? Kann Discourse ChatGPT-generierte Inhalte mit Wasserzeichen versehen?
Dies muss sich sicherlich auf Bilder, Videos und potenziell Töne beziehen, aber nicht auf Text? Wie würde man Text mit einem Wasserzeichen versehen, ohne den Inhalt zu beeinträchtigen?
Das ist die Herausforderung, es gibt möglicherweise keine praktische Möglichkeit, KI-generierte Texte mit Wasserzeichen zu versehen. Das bedeutet, wir werden uns immer fragen: „Ist das echt oder ist es KI?“