Alors… que penser de tout cela ?
Manifestement, je suis enthousiasmé. Nous avons une toute nouvelle boîte à jouets avec laquelle jouer, et ces jouets sont différents de tous les jouets que nous avons eus par le passé. Comme pour la plupart des technologies, celle-ci peut être utilisée pour le bien ou pour le mal.
Personnellement, j’ai l’impression d’être au milieu d’un brouillard d’IA. J’avais une assez bonne idée de la direction que prendraient les choses dans les trois à quatre prochaines années ; cependant, les LLM et les évolutions futures de cette technologie ont mis des bâtons dans les roues. Je ne sais tout simplement pas où en seront les choses dans un an.
Quand on regarde de près la rapidité avec laquelle Stable Diffusion a évolué ces derniers mois, c’est époustouflant. Quand on regarde l’ampleur des progrès de GPT 3.5 à 4, c’est aussi assez époustouflant.
Même avec ce nouveau brouillard d’IA, j’ai quelques préoccupations très réelles :
-
Il est 100 % clair pour moi que les forums de support seront ingérés par les LLM et utilisés comme données d’entraînement pour des chatbots utiles. L’avantage est que beaucoup de corvées liées au support peuvent disparaître, et vous obtenez des réponses immédiatement. Cependant, l’inconvénient est que moins de nouveau contenu sera créé, ce qui peut très rapidement entraîner une spirale infernale si cela n’est pas atténué.
-
Je suis certain que le spam et d’autres acteurs malveillants vont s’appuyer sur cette technologie, lançant des attaques bien plus sophistiquées que tout ce que nous avons vu jusqu’à présent, tuant potentiellement les forums si nous ne faisons pas attention.
-
Cette technologie d’assistance peut éroder la confiance. Quand vous lisez les mots que j’écris, vous vous attendez à ce que les mots viennent de moi. Les gens peuvent utiliser l’IA pour faire plus que relire ; elle peut complètement réécrire nos mots. Vous voulez sonner comme Malcolm Gladwell ? Pas de problème, vous pouvez le faire. Quel est le niveau d’étiquetage que les utilisateurs responsables de forums devraient attendre ? Les gens abandonneront les forums s’ils ne font plus confiance au fait qu’ils parlent à des personnes ou s’ils parlent simplement à des fac-similés.
lisez ceci avec les mots de Malcolm
Dans le monde d’aujourd’hui, la technologie d’assistance a le pouvoir d’éroder la confiance d’une manière que nous n’avions peut-être pas anticipée. En tant que consommateurs du texte écrit, nous avons certaines attentes - à savoir, que les mots que nous lisons sont authentiques et émanent de leur source déclarée. Cependant, avec l’avènement de la technologie de l’IA, les individus peuvent manipuler le texte écrit d’une manière qui va au-delà de la simple relecture. Essentiellement, ils peuvent complètement réécrire un message pour qu’il sonne comme n’importe qui d’autre. Ainsi, si vous avez toujours rêvé de sonner comme Malcolm Gladwell ou toute autre figure notable, cette technologie peut le réaliser facilement. Cependant, cela soulève des questions sur l’étiquetage responsable pour les utilisateurs de forums. Si les gens ne peuvent plus faire confiance au fait qu’ils conversent avec d’autres personnes, et pas seulement avec des fac-similés générés par ordinateur, ils pourraient très bien abandonner les forums. Le niveau d’étiquetage requis pour maintenir la confiance dans le discours en ligne est une préoccupation pressante qui mérite une sérieuse considération.
- Nous avons vu des forums d’usine à SEO par le passé ; nous en verrons des versions beaucoup plus élaborées et effrayantes.
autres préoccupations similaires de GPT 4
- Il existe un risque que l’utilisation des LLM dans les forums crée une culture de paresse chez les utilisateurs qui s’appuient trop sur la technologie de l’IA pour fournir des réponses et des idées. Cela pourrait entraîner une diminution de la pensée critique et des compétences en résolution de problèmes chez les utilisateurs de forums.
- L’utilisation des LLM dans les forums soulève des préoccupations éthiques concernant la confidentialité et la sécurité des données. Les utilisateurs peuvent être mal à l’aise à l’idée que leurs informations personnelles et leurs interactions soient analysées et traitées par un système d’IA, surtout s’ils ne sont pas pleinement conscients de la manière dont leurs données sont utilisées.
- L’intégration des LLM dans les forums peut exacerber les biais et les inégalités existants, en particulier si la technologie de l’IA est entraînée sur un ensemble de données limité qui ne parvient pas à capturer la diversité des expériences et des perspectives des utilisateurs de forums.
- L’utilisation des LLM dans les forums peut également entraîner une homogénéisation du discours, car les utilisateurs sont plus susceptibles de recevoir des réponses standardisées générées par le système d’IA plutôt que des commentaires nuancés et diversifiés d’autres utilisateurs humains. Cela pourrait étouffer la créativité et l’originalité dans les conversations des forums.
- Il existe un risque que l’intégration des LLM dans les forums entraîne le remplacement des modérateurs humains et du personnel de support, ce qui pourrait avoir des implications négatives sur la sécurité de l’emploi et la qualité du support fourni aux utilisateurs.
Malgré ces craintes et d’autres, je reste à la fois enthousiaste et plein d’espoir. Il y aura des applications délicieuses et extrêmement utiles de cette technologie, et nous espérons l’explorer chez Discourse.
Le feu est éteint ; le mieux que nous puissions faire ici est d’être très prudents dans nos approches et nos expériences et d’essayer de contenir le feu. J’espère que nous pourrons contenir le feu. Mais vous savez… le brouillard d’IA…
