Comment ressentons-nous tous ChatGPT et autres LLMs et leur impact potentiel sur les forums ?

Alors… que penser de tout cela ?

Manifestement, je suis enthousiasmé. Nous avons une toute nouvelle boîte à jouets avec laquelle jouer, et ces jouets sont différents de tous les jouets que nous avons eus par le passé. Comme pour la plupart des technologies, celle-ci peut être utilisée pour le bien ou pour le mal.

Personnellement, j’ai l’impression d’être au milieu d’un brouillard d’IA. J’avais une assez bonne idée de la direction que prendraient les choses dans les trois à quatre prochaines années ; cependant, les LLM et les évolutions futures de cette technologie ont mis des bâtons dans les roues. Je ne sais tout simplement pas où en seront les choses dans un an.

Quand on regarde de près la rapidité avec laquelle Stable Diffusion a évolué ces derniers mois, c’est époustouflant. Quand on regarde l’ampleur des progrès de GPT 3.5 à 4, c’est aussi assez époustouflant.

Même avec ce nouveau brouillard d’IA, j’ai quelques préoccupations très réelles :

  • Il est 100 % clair pour moi que les forums de support seront ingĂ©rĂ©s par les LLM et utilisĂ©s comme donnĂ©es d’entraĂ®nement pour des chatbots utiles. L’avantage est que beaucoup de corvĂ©es liĂ©es au support peuvent disparaĂ®tre, et vous obtenez des rĂ©ponses immĂ©diatement. Cependant, l’inconvĂ©nient est que moins de nouveau contenu sera créé, ce qui peut très rapidement entraĂ®ner une spirale infernale si cela n’est pas attĂ©nuĂ©.

  • Je suis certain que le spam et d’autres acteurs malveillants vont s’appuyer sur cette technologie, lançant des attaques bien plus sophistiquĂ©es que tout ce que nous avons vu jusqu’à prĂ©sent, tuant potentiellement les forums si nous ne faisons pas attention.

  • Cette technologie d’assistance peut Ă©roder la confiance. Quand vous lisez les mots que j’écris, vous vous attendez Ă  ce que les mots viennent de moi. Les gens peuvent utiliser l’IA pour faire plus que relire ; elle peut complètement réécrire nos mots. Vous voulez sonner comme Malcolm Gladwell ? Pas de problème, vous pouvez le faire. Quel est le niveau d’étiquetage que les utilisateurs responsables de forums devraient attendre ? Les gens abandonneront les forums s’ils ne font plus confiance au fait qu’ils parlent Ă  des personnes ou s’ils parlent simplement Ă  des fac-similĂ©s.

lisez ceci avec les mots de Malcolm

Dans le monde d’aujourd’hui, la technologie d’assistance a le pouvoir d’éroder la confiance d’une manière que nous n’avions peut-être pas anticipée. En tant que consommateurs du texte écrit, nous avons certaines attentes - à savoir, que les mots que nous lisons sont authentiques et émanent de leur source déclarée. Cependant, avec l’avènement de la technologie de l’IA, les individus peuvent manipuler le texte écrit d’une manière qui va au-delà de la simple relecture. Essentiellement, ils peuvent complètement réécrire un message pour qu’il sonne comme n’importe qui d’autre. Ainsi, si vous avez toujours rêvé de sonner comme Malcolm Gladwell ou toute autre figure notable, cette technologie peut le réaliser facilement. Cependant, cela soulève des questions sur l’étiquetage responsable pour les utilisateurs de forums. Si les gens ne peuvent plus faire confiance au fait qu’ils conversent avec d’autres personnes, et pas seulement avec des fac-similés générés par ordinateur, ils pourraient très bien abandonner les forums. Le niveau d’étiquetage requis pour maintenir la confiance dans le discours en ligne est une préoccupation pressante qui mérite une sérieuse considération.

  • Nous avons vu des forums d’usine Ă  SEO par le passĂ© ; nous en verrons des versions beaucoup plus Ă©laborĂ©es et effrayantes.
autres préoccupations similaires de GPT 4
  • Il existe un risque que l’utilisation des LLM dans les forums crĂ©e une culture de paresse chez les utilisateurs qui s’appuient trop sur la technologie de l’IA pour fournir des rĂ©ponses et des idĂ©es. Cela pourrait entraĂ®ner une diminution de la pensĂ©e critique et des compĂ©tences en rĂ©solution de problèmes chez les utilisateurs de forums.
  • L’utilisation des LLM dans les forums soulève des prĂ©occupations Ă©thiques concernant la confidentialitĂ© et la sĂ©curitĂ© des donnĂ©es. Les utilisateurs peuvent ĂŞtre mal Ă  l’aise Ă  l’idĂ©e que leurs informations personnelles et leurs interactions soient analysĂ©es et traitĂ©es par un système d’IA, surtout s’ils ne sont pas pleinement conscients de la manière dont leurs donnĂ©es sont utilisĂ©es.
  • L’intĂ©gration des LLM dans les forums peut exacerber les biais et les inĂ©galitĂ©s existants, en particulier si la technologie de l’IA est entraĂ®nĂ©e sur un ensemble de donnĂ©es limitĂ© qui ne parvient pas Ă  capturer la diversitĂ© des expĂ©riences et des perspectives des utilisateurs de forums.
  • L’utilisation des LLM dans les forums peut Ă©galement entraĂ®ner une homogĂ©nĂ©isation du discours, car les utilisateurs sont plus susceptibles de recevoir des rĂ©ponses standardisĂ©es gĂ©nĂ©rĂ©es par le système d’IA plutĂ´t que des commentaires nuancĂ©s et diversifiĂ©s d’autres utilisateurs humains. Cela pourrait Ă©touffer la crĂ©ativitĂ© et l’originalitĂ© dans les conversations des forums.
  • Il existe un risque que l’intĂ©gration des LLM dans les forums entraĂ®ne le remplacement des modĂ©rateurs humains et du personnel de support, ce qui pourrait avoir des implications nĂ©gatives sur la sĂ©curitĂ© de l’emploi et la qualitĂ© du support fourni aux utilisateurs.

Malgré ces craintes et d’autres, je reste à la fois enthousiaste et plein d’espoir. Il y aura des applications délicieuses et extrêmement utiles de cette technologie, et nous espérons l’explorer chez Discourse.

Le feu est éteint ; le mieux que nous puissions faire ici est d’être très prudents dans nos approches et nos expériences et d’essayer de contenir le feu. J’espère que nous pourrons contenir le feu. Mais vous savez… le brouillard d’IA…

34 « J'aime »