Cela dépend vraiment, n’est-ce pas ? Dans l’exemple ci-dessus, je serais contrarié par l’auteur si la réponse présentait une erreur évidente, surtout une erreur qui entraînerait de plus gros problèmes pour l’utilisateur. Je suis d’accord avec les gens qui publient des réponses générées par l’IA s’ils ont également pris le temps de valider et de vérifier la pertinence et l’exactitude des informations. Encore mieux s’ils conviennent que le contenu généré est similaire à la façon dont ils partageraient cette information, ou même meilleur.
Si, par contre, vous venez de jeter quelque chose dans un LLM, de copier-coller la réponse, et que vous attendez de moi, en tant que lecteur de votre sujet, que je découvre si ce contenu est correct, alors je ne serai pas content. Non seulement vous perdez mon temps en présentant des informations fausses comme étant correctes, mais vous réduisez la confiance générale dans la communauté, ou du moins dans vos propres réponses futures.
À l’avenir, je soupçonne que de nombreuses personnes bien intentionnées s’éloigneront de l’utilisation des LLM dans les forums au cours des prochaines années, et que ceux qui resteront seront de mauvais acteurs, ou des personnes qui ne comprennent tout simplement pas les forums. C’est purement anecdotique, mais j’utilise des LLM quotidiennement depuis environ 2 ans maintenant, et je me tourne de plus en plus vers le contenu auto-généré. Hier, je voulais écrire un article de blog dans lequel je n’étais pas super investi. J’ai décidé d’essayer GPT, mais quoi que je fasse, cela sonnait toujours comme du GPT et je détestais ça. J’ai donc essayé Claude, et malgré une heure de travail avec lui, le contenu ne ressemblait jamais à quelque chose écrit par une personne réelle et vivante. Donc, après environ 3 heures au total, j’ai tout déchiré et je l’ai écrit moi-même en environ une heure.
Le but de cette histoire est de dire - du moins pour moi - que le contenu auto-généré se révèle de plus en plus gratifiant, peu importe à quel point les modèles deviennent bons. J’espère vraiment que d’autres personnes utilisant des LLM atteindront également ce stade dans les 2-3 prochaines années. Si cela se produit, les réponses de l’IA dans les forums ne proviendront que de mauvais acteurs, ou de personnes bien intentionnées qui ne savent pas mieux. Dans tous les cas, cette situation rend le contenu beaucoup plus facile à gérer : vous pouvez bannir les mauvais acteurs, éduquer ceux qui ont de bonnes intentions, et avoir une politique de modération du type “le contenu IA est interdit, sauf si vous avez clairement digéré le contenu que vous publiez ET que vous êtes entièrement d’accord pour dire que son contenu représente votre opinion et votre compréhension de la question ET que le contenu exprime votre opinion d’une manière égale ou plus digestible que vous ne le généreriez vous-même.” ou quelque chose dans ce sens.