Comment ressentons-nous tous ChatGPT et autres LLMs et leur impact potentiel sur les forums ?

Alors que je suis les nouvelles concernant ChatGPT, GPT-4 et d’autres LLM, et que j’ai joué avec le Discourse Chatbot 🤖, je me sens excité, terrifié et incertain de ce que cela signifiera pour la communication en ligne.

Je me demande comment cela impactera les forums et la communication textuelle en général. Je m’inquiète aussi de l’impact que cela aura éventuellement sur la communication vocale.

Arrivera-t-on au point où la plupart des utilisateurs créeront des publications avec ChatGPT et les copier-colleront dans les forums ? Si oui, les gens essaieront-ils de copier-coller des publications de forums dans ChatGPT pour résumer la publication écrite par l’IA ? Cela nous importera-t-il si quelqu’un l’a écrit « organiquement » ou avec l’aide de l’IA ? Les forums et les sites web en général auront-ils autant d’avantages si les gens peuvent obtenir des réponses similaires de ChatGPT ? Comment les forums se différencieront-ils et resteront-ils relativement pertinents ?

Je suis assez incertain de ce qui va arriver et j’aimerais beaucoup entendre ce que les autres ressentent et pensent à ce sujet en ce moment :slight_smile:

31 « J'aime »

Ayant récemment vu ChatGPT répondre avec assurance à des questions très erronées sur mes pistes de VTT locales, je me lance et je dis que je ne m’attends pas à ce que les LLM aient un impact énorme sur les discussions en ligne. Ses réponses s’amélioreront avec le temps, mais il n’aura jamais la motivation humaine d’éviter d’avoir tort sur Internet. De plus, en tant que modèle linguistique, il « n’est pas capable d’actions physiques telles que faire une sortie en VTT ». Donc, même s’il pouvait me donner des informations précises sur les pistes, il lui manque la dimension humaine qui proviendrait d’un forum local de VTT.

25 « J'aime »

Alors… que penser de tout cela ?

Manifestement, je suis enthousiasmé. Nous avons une toute nouvelle boîte à jouets avec laquelle jouer, et ces jouets sont différents de tous les jouets que nous avons eus par le passé. Comme pour la plupart des technologies, celle-ci peut être utilisée pour le bien ou pour le mal.

Personnellement, j’ai l’impression d’être au milieu d’un brouillard d’IA. J’avais une assez bonne idée de la direction que prendraient les choses dans les trois à quatre prochaines années ; cependant, les LLM et les évolutions futures de cette technologie ont mis des bâtons dans les roues. Je ne sais tout simplement pas où en seront les choses dans un an.

Quand on regarde de près la rapidité avec laquelle Stable Diffusion a évolué ces derniers mois, c’est époustouflant. Quand on regarde l’ampleur des progrès de GPT 3.5 à 4, c’est aussi assez époustouflant.

Même avec ce nouveau brouillard d’IA, j’ai quelques préoccupations très réelles :

  • Il est 100 % clair pour moi que les forums de support seront ingĂ©rĂ©s par les LLM et utilisĂ©s comme donnĂ©es d’entraĂ®nement pour des chatbots utiles. L’avantage est que beaucoup de corvĂ©es liĂ©es au support peuvent disparaĂ®tre, et vous obtenez des rĂ©ponses immĂ©diatement. Cependant, l’inconvĂ©nient est que moins de nouveau contenu sera créé, ce qui peut très rapidement entraĂ®ner une spirale infernale si cela n’est pas attĂ©nuĂ©.

  • Je suis certain que le spam et d’autres acteurs malveillants vont s’appuyer sur cette technologie, lançant des attaques bien plus sophistiquĂ©es que tout ce que nous avons vu jusqu’à prĂ©sent, tuant potentiellement les forums si nous ne faisons pas attention.

  • Cette technologie d’assistance peut Ă©roder la confiance. Quand vous lisez les mots que j’écris, vous vous attendez Ă  ce que les mots viennent de moi. Les gens peuvent utiliser l’IA pour faire plus que relire ; elle peut complètement réécrire nos mots. Vous voulez sonner comme Malcolm Gladwell ? Pas de problème, vous pouvez le faire. Quel est le niveau d’étiquetage que les utilisateurs responsables de forums devraient attendre ? Les gens abandonneront les forums s’ils ne font plus confiance au fait qu’ils parlent Ă  des personnes ou s’ils parlent simplement Ă  des fac-similĂ©s.

lisez ceci avec les mots de Malcolm

Dans le monde d’aujourd’hui, la technologie d’assistance a le pouvoir d’éroder la confiance d’une manière que nous n’avions peut-être pas anticipée. En tant que consommateurs du texte écrit, nous avons certaines attentes - à savoir, que les mots que nous lisons sont authentiques et émanent de leur source déclarée. Cependant, avec l’avènement de la technologie de l’IA, les individus peuvent manipuler le texte écrit d’une manière qui va au-delà de la simple relecture. Essentiellement, ils peuvent complètement réécrire un message pour qu’il sonne comme n’importe qui d’autre. Ainsi, si vous avez toujours rêvé de sonner comme Malcolm Gladwell ou toute autre figure notable, cette technologie peut le réaliser facilement. Cependant, cela soulève des questions sur l’étiquetage responsable pour les utilisateurs de forums. Si les gens ne peuvent plus faire confiance au fait qu’ils conversent avec d’autres personnes, et pas seulement avec des fac-similés générés par ordinateur, ils pourraient très bien abandonner les forums. Le niveau d’étiquetage requis pour maintenir la confiance dans le discours en ligne est une préoccupation pressante qui mérite une sérieuse considération.

  • Nous avons vu des forums d’usine Ă  SEO par le passĂ© ; nous en verrons des versions beaucoup plus Ă©laborĂ©es et effrayantes.
autres préoccupations similaires de GPT 4
  • Il existe un risque que l’utilisation des LLM dans les forums crĂ©e une culture de paresse chez les utilisateurs qui s’appuient trop sur la technologie de l’IA pour fournir des rĂ©ponses et des idĂ©es. Cela pourrait entraĂ®ner une diminution de la pensĂ©e critique et des compĂ©tences en rĂ©solution de problèmes chez les utilisateurs de forums.
  • L’utilisation des LLM dans les forums soulève des prĂ©occupations Ă©thiques concernant la confidentialitĂ© et la sĂ©curitĂ© des donnĂ©es. Les utilisateurs peuvent ĂŞtre mal Ă  l’aise Ă  l’idĂ©e que leurs informations personnelles et leurs interactions soient analysĂ©es et traitĂ©es par un système d’IA, surtout s’ils ne sont pas pleinement conscients de la manière dont leurs donnĂ©es sont utilisĂ©es.
  • L’intĂ©gration des LLM dans les forums peut exacerber les biais et les inĂ©galitĂ©s existants, en particulier si la technologie de l’IA est entraĂ®nĂ©e sur un ensemble de donnĂ©es limitĂ© qui ne parvient pas Ă  capturer la diversitĂ© des expĂ©riences et des perspectives des utilisateurs de forums.
  • L’utilisation des LLM dans les forums peut Ă©galement entraĂ®ner une homogĂ©nĂ©isation du discours, car les utilisateurs sont plus susceptibles de recevoir des rĂ©ponses standardisĂ©es gĂ©nĂ©rĂ©es par le système d’IA plutĂ´t que des commentaires nuancĂ©s et diversifiĂ©s d’autres utilisateurs humains. Cela pourrait Ă©touffer la crĂ©ativitĂ© et l’originalitĂ© dans les conversations des forums.
  • Il existe un risque que l’intĂ©gration des LLM dans les forums entraĂ®ne le remplacement des modĂ©rateurs humains et du personnel de support, ce qui pourrait avoir des implications nĂ©gatives sur la sĂ©curitĂ© de l’emploi et la qualitĂ© du support fourni aux utilisateurs.

Malgré ces craintes et d’autres, je reste à la fois enthousiaste et plein d’espoir. Il y aura des applications délicieuses et extrêmement utiles de cette technologie, et nous espérons l’explorer chez Discourse.

Le feu est éteint ; le mieux que nous puissions faire ici est d’être très prudents dans nos approches et nos expériences et d’essayer de contenir le feu. J’espère que nous pourrons contenir le feu. Mais vous savez… le brouillard d’IA…

34 « J'aime »

Cela touche à l’une des questions les plus profondes concernant l’IA, à savoir si cela importe, et de quelles manières cela importe, que je communique avec une personne normale, une personne « augmentée » ou une intelligence artificielle. Appelons cela le « problème d’identité de l’interlocuteur ».

À certains égards, les humains ont toujours été confrontés au problème d’identité de l’interlocuteur. En philosophie, cela est parfois connu sous le nom de « problème des autres esprits ». L’une des affirmations les plus connues à ce sujet provient du Malin Génie de Descartes, dans le contexte de son « Je pense, donc je suis ». La question de savoir comment nous allons, ou comment nous devrions, nous sentir par rapport à une IA est essentiellement une extension de la même question.

Cela se pose de manière intéressante dans le contexte des forums, car à bien des égards, je pense que nous acceptons déjà un haut niveau d’opacité dans l’identité de l’interlocuteur. Tout ce que nous avons pour juger nos interlocuteurs, ce sont leurs mots et éventuellement leur auto-présentation (c’est-à-dire avatar, nom d’utilisateur, etc.). Pour le meilleur ou pour le pire, dans de nombreux cas, nous ne réfléchissons pas trop à l’identité de l’interlocuteur, ou du moins nous sommes prêts à accepter l’opacité.

Ce contexte me conduit à des conclusions (ou peut-être à des questions) plus prudentes sur la façon dont cela affecte les forums. Par exemple, considérons le spam. Nous n’aimons pas le spam pour un certain nombre de raisons, mais concentrons-nous sur deux raisons connexes :

  1. C’est un bruit disgracieux qui rend un forum moins attrayant.
  2. Il a un but commercial, malveillant ou autre que nous ne voulons pas encourager.

Supposons que l’application d’un LLM au « spam » entraîne une réduction du premier et une approche plus nuancée du second. Si cela ne fait pas ces choses, alors les méthodes existantes d’élimination du spam suffiront à le détecter. À certains égards, il est inapproprié d’appeler cela du spam, c’est plutôt comme du « marketing automatisé sophistiqué », ou… « Sam » (désolé, je n’ai pas pu m’en empêcher).

Cependant, une fois que nous entrons dans le territoire de Sam, nous nous rapprochons inévitablement du même problème sous-jacent d’identité de l’interlocuteur. Il est déjà arrivé que certaines personnes utilisent leur présence sur un forum pour faire du marketing de manière nuancée et indirecte. La question est de savoir si nous nous soucions de l’identité de l’acteur qui le fait.

Je partage tout à fait vos préoccupations quant à son impact sur le marché du travail. Cependant, pour des raisons similaires, je ne suis pas si sûr que cela conduira à un écosystème de forums plus stupide, plus paresseux, plus laid ou plus commercial. Si un LLM fait cela à un forum, ce forum ne se portera effectivement probablement pas très bien, mais alors ses anciens utilisateurs trouveront un autre forum non affecté par un LLM, ou affecté par un LLM plus sophistiqué.

Les forums facilitent les marchés de la connaissance, de l’intérêt et de la connexion humaine. Si un LLM réussit sur ces marchés, il affectera sans aucun doute le travail, mais je ne suis pas si sûr qu’il réduira la demande. En fait, le succès implique le contraire.

24 « J'aime »

L’IA est nulle.
Je n’y vois aucun avantage.
Cela réduira mon envie de participer à quoi que ce soit.

7 « J'aime »

Est-ce là peut-être le facteur le plus important ? Chaque publication est liée à une identité unique. Quand je vois une publication de vous ou de Sam (supposé être le vrai Sam), j’estime la probabilité que cette information soit vraie. J’ai entendu Sam dans un podcast et j’ai parlé avec vous lors de l’appel vidéo des experts l’année dernière, donc je peux supposer qu’il y a au moins une vraie personne quelque part derrière ces publications.

Mais la vraie personne est-elle même importante ? S’il existe un compte nommé « Hal Mcdave » qui fournit des informations correctes dans un style cohérent et logique, alors je commencerai également à faire confiance et à utiliser ces informations. Donc, n’est-ce pas suffisant ?

Certes, le vrai problème n’a jamais été l’intelligence artificielle ; plutôt la stupidité artificielle.

5 « J'aime »

Non. Faites un petit tour sur les forums et regardez quel est réellement le contenu.

Les IA vont changer le monde des CMS. Et cela touchera fortement le monde du style WordPress. Et là, il y a déjà ce contenu copié-collé et spammé comme liste de l’année XXXX, comment faire…, etc.

Ce cercle ici fait partie de ce public qui utilisera et verra une forte utilisation de ChatGPT, etc. Mais la grande majorité du reste du monde… pas tellement. Ils n’écrivent plus, ne savent pas copier-coller et n’utilisent aucun de ces outils sophistiqués que Discourse propose par exemple.

Vous êtes des licornes roses :wink: Rares. Pour vous, tout ce qui est basé sur l’IA est un nouveau terrain de jeu ou un jouet car cela fait partie de votre vie professionnelle et de vos loisirs.

Pour CDCK, c’est une question de futur proche à cause de ses clients d’entreprise majeurs. Ils utilisent très souvent Discourse pour la documentation, l’aide et le support. Pour eux, de telles fonctions de support ne génèrent pas de revenus et nécessitent une main-d’œuvre humaine payée. Ils seront aux anges quand il y aura une IA qui répondra aux clients et qu’ils n’auront plus besoin d’équipe de support. Et les développeurs sont heureux car, comme nous le savons tous, la technologie ne fonctionne tout simplement pas sans débogage et corrections sans fin.

Ainsi, les solutions basées sur l’IA ne mangent pas la confiance ou autre chose, car il n’y a pas non plus de confiance à l’heure actuelle. Les utilisateurs ordinaires ne peuvent pas voir ni même se soucier de savoir si les réponses et les commentaires proviennent d’un tas de code. Ils sont totalement heureux des nouveaux créateurs de mèmes et des filtres TikTok :wink: Pour l’amour de Dieu, ils paient déjà pour des applications de rencontres où la plupart des interlocuteurs ne sont pas humains…

Désolé les gars, mais vous discutez maintenant dans une boîte étroite :grin:

8 « J'aime »

Mais au lieu de la création de contenu automatique, qui ne profite qu’aux propriétaires de la plateforme, j’aimerais voir un traducteur à la volée basé sur l’IA qui fonctionne réellement — car ceux que nous avons actuellement ne fonctionnent tout simplement pas.

Cela aiderait les utilisateurs à créer n’importe quel type de texte, et par la parole aussi bien sûr, tellement que les forums, les chats, peu importe, atteindraient une véritable audience mondiale. C’est un outil que j’attends.

Ou quelque chose de similaire. Sam a réfléchi dans un sujet à utiliser l’IA pour classer les sujets dans la bonne catégorie. Obtenir un étiquetage vraiment utile par utilisateur basé sur l’historique de lecture/recherche serait quelque chose. Ce genre de choses.

Donc, je ne vois pas l’IA comme une réelle menace contre la création et la conversation. Je vois l’IA « juste » comme un outil pour minimiser le besoin de faire des choses ennuyeuses :wink:

Encore une fois. Il existe déjà du contenu de bas niveau et de mauvaise qualité qui vaut des ziljons de chargements de pages. Si l’IA change cela, je ne le vois pas comme une menace. Et si les solutions d’IA créent de la merde aussi mauvaise… eh bien, elle mourra comme les chats de support automatique fantaisistes (qui ne sont que des skins sophistiqués pour des formulaires basés sur l’e-mail).

7 « J'aime »

Très bonnes questions. @merefield a récemment publié un plugin génial qui utilise Chatgpt pour créer des résumés de sujets.

Google a sorti sa propre version appelée Bard.

5 « J'aime »

J’ai ressenti la même chose, mais j’espère que les humains voudront continuer à faire des choses humaines comme discuter (pas seulement coder, copier-coller des données).

Les outils d’IA pourraient être super utiles pour les tâches opérationnelles et répétitives et je ne pense pas que les bots puissent réellement s’engager dans des conversations humaines.

C’est fondamentalement impossible et 99,99 % des données dans le monde ne changeront pas cela à cause de la liberté, du choix et de la vie.

La vie est changement et l’IA ne peut pas changer par elle-même, pas fondamentalement (au-delà de Skynet, bien sûr).

La majorité des gens là-bas continueront à chercher sur Google et à cliquer uniquement sur le premier lien.

Mais il y aura toujours 3 % du monde qui choisiront de sauter dans les 5/10 premières pages ou utiliseront Duckduckgo à la place pour naviguer sur Internet comme autrefois.

\u003e L’IA est super mauvaise sur les réseaux sociaux à cause du contrôle, de la censure et de la manipulation massive, mais pas tellement sur les instances de forums.

Un jour, très peu de gens dans le monde sauront tout sur tout le monde, mais cela inclura-t-il notre possibilité de changer ?

Je ne pense pas (et il en va de même pour la technologie quantique qui brisera tout d’un coup).

5 « J'aime »

Il y a des années, l’un des magazines technologiques a connecté deux programmes de type Eliza, l’un conçu pour parler comme un médecin, l’autre comme une personne paranoïaque. Les résultats étaient amusants, mais ce n’étaient pas des moteurs sophistiqués comme GPT.

Si deux instances de GPT commencent à discuter entre elles de sports, d’échecs ou de pâtisserie (les domaines sur lesquels j’anime actuellement des forums de discussion), sera-ce une lecture intéressante ? J’en doute un peu.

6 « J'aime »

Cela ressemble à une réponse honnête à la question de l’OP. Nous vivons vraiment une époque intéressante :slight_smile:
Mon espoir est que les forums puissent être utilisés pour nous aider à conserver le sens de ce que signifie être humain.

6 « J'aime »

Le terme « Intelligence Artificielle » peut légitimement susciter la peur et les IA ont souvent été la cause de ravages dans les livres, les films, etc.

Je me demande si nous ressentirions les choses différemment si toute cette technologie qui devient virale de nos jours (midjourney, chatGPT…) n’utilisait pas du tout le terme « IA » mais quelque chose d’autre envers lequel nous sommes moins culturellement biaisés.

7 « J'aime »

Je voudrais obtenir un chatbot vétérinaire IA pour une consultation initiale automatique, ainsi qu’une collecte d’informations pour construire un sujet de demande de support détaillé pour les vétérinaires humains.

2 « J'aime »

Je ne serais pas surpris si quelque chose comme ça pour les vétérinaires était déjà sur le marché, certaines des pratiques médicales commencent à les utiliser pour réduire le temps du personnel.

2 « J'aime »

Ce que je ressens, avec un petit coup de pouce de Midjourney et ChatGPT… :upside_down_face:


4 « J'aime »

Je suppose que je ne peux pas vraiment parler au nom des autres. Mais d’après mon expérience, j’ai principalement utilisé les forums Discourse (& chat Discord) pour interagir avec des personnes partageant certains intérêts communs pour des produits en pleine croissance, où je ne suis pas sûr qu’il serait très utile de discuter avec une IA, par exemple :

  • Forum de l’application Auxy (application de musique, maintenant fermĂ©e mais ils sont sur Discord) oĂą les gens partageaient des commentaires sur les pistes WIP les uns des autres et donnaient des conseils spĂ©cifiques Ă  l’application. Il n’existe aucun matĂ©riel Ă©crit prĂ©alable sur l’application en dehors de ce que la communautĂ© Ă©crit.
  • Forum Hopscotch (application de codage par glisser-dĂ©poser, oĂą je travaille et j’ai aidĂ© Ă  l’amorcer Ă  ses dĂ©buts). Encore une fois, il n’y avait aucun matĂ©riel Ă©crit & guides dĂ©taillĂ©s sur l’application nulle part sur Internet, avant que la communautĂ© n’écrive tous ces messages, donc toute IA rĂ©gurgiterait ce que nous avons Ă©crit.
  • Sky: Children of the Light (jeu, communautĂ© sur Discord mais le principe reste le mĂŞme) Encore une fois, j’y ai jouĂ© pendant la bĂŞta avant qu’il n’y ait de matĂ©riel Ă©crit. Et j’ai aidĂ© Ă  ÉCRIRE le contenu musical sur le wiki et je suis avec la communautĂ© depuis avant que tout ce contenu ne soit gĂ©nĂ©rĂ©.

Dans tous les cas, l’IA n’a pas non plus « utilisé les applications » elle-même.

Donc, je ne sais pas si l’IA aurait été utile, sauf peut-être pour bien formuler tout ce que la communauté a généré, car il n’y avait aucun contenu écrit sur ces sujets avant que toutes ces personnes ne l’écrivent par le biais de discussions.

(Je pense que Marx dans Das Kapital, après avoir observé les ouvriers d’usine en Angleterre, a dit quelque chose comme que les gens n’utilisent pas les machines ; les machines utilisent les gens)

Non pas que cette IA ne soit pas cool ou utile, c’est juste qu’elle n’aurait probablement pas été très utile si elle avait été présente pendant que j’étais dans ces communautés.

10 « J'aime »

J’administre un forum qui offre du soutien aux entrepreneurs.

Depuis novembre, j’ai créé @Robolivier, un robot IA amical qui aide les utilisateurs lorsqu’ils le mentionnent. Il répond également à chaque nouveau sujet une fois, dans l’espoir de fournir à l’utilisateur une réponse satisfaisante. J’ai ajouté un avertissement à chacun de ses messages.

Jusqu’à présent, les utilisateurs trouvent cela amusant et utile la plupart du temps.

Je prévois de l’entraîner sur mes propres interactions sur le forum, nous verrons comment cela se passera.

Puisqu’il s’agit d’un forum payant, les robots ne me posent pas de problème. Mais je peux voir comment un forum ouvert et gratuit pourrait être inondé de spam jusqu’à devenir non pertinent.

8 « J'aime »

Une différence cruciale est que lorsque l’IA peut générer en masse des informations de qualité sous un nombre arbitrairement grand d’“identités” (étiquettes) distinctes, il devient facile, à des moments critiques/rentables, de violer la confiance qui a été bâtie à tort autour de ces identités. En tant qu’humain, je ne veux pas violer la confiance que j’ai établie avec les autres, non seulement à cause de ma conscience, mais aussi à cause de l’effet dommageable sur ma réputation. Mais une identité artificiellement liée à une IA est beaucoup plus jetable et abusive, tant pour la cupidité capitaliste que pour les machinations politiques.

Alors, comment je me sens ? J’ai peur de l’avenir. Il est très probable que cette technologie nous détruise socialement dans un avenir proche (années), et finira par nous détruire physiquement (décennies) si nous ne trouvons pas comment l’arrêter.

4 « J'aime »

Sur l’un des forums que j’administre, nous soupçonnons depuis des années qu’une personne publiait sous au moins deux noms différents avec des personnalités distinctes, l’une plus conflictuelle que l’autre. Récemment, elle a commis une erreur en signant un message d’une adresse e-mail avec son nom de l’autre, puis a signé un autre message avec un troisième nom. Nous le savons donc avec certitude !

Il existe un livre très intéressant où des écrivains célèbres sont analysés par des analyses statistiques de leurs habitudes d’utilisation des mots. Cela devient intéressant lorsque des livres sont écrits par plusieurs auteurs ; bon nombre des derniers livres de Tom Clancy ont été largement écrits par d’autres auteurs.

Ce type d’analyse statistique est la manière dont il a été déterminé que J. K. Rowling écrivait également sous un nom différent, avant qu’elle ne confirme le fait. Elle a également été utilisée pour analyser les « Federalist Papers », concluant en 1962 que, comme beaucoup l’avaient affirmé, Alexander Hamilton en avait écrit un bon nombre, y compris plusieurs dont d’autres avaient revendiqué la paternité. (Ils ont été publiés anonymement à l’époque car on pensait que savoir qui les avait écrits pourrait diminuer leur efficacité politique.)

Il y a donc peut-être une valeur à avoir des interfaces de type chatGPT sur nos forums si nous pouvons l’utiliser pour analyser les styles d’écriture de nos participants.

7 « J'aime »