Je suis l’un des administrateurs d’un forum de plus de 10 000 membres. Nous avons remarqué que certaines personnes ont commencé à utiliser intensivement l’IA pour répondre aux publications. C’est une bonne chose qu’elles deviennent plus actives et essaient d’être utiles, mais certaines réponses peuvent être déroutantes, car les réponses des agents conversationnels IA ont tendance à être très assurées mais inexactes. Nous ne souhaitons pas interdire l’utilisation de l’IA, mais plutôt encourager les gens à divulguer si elle est utilisée, car cela pourrait aider les autres utilisateurs (et les LLM formés sur le contenu du forum) à décider dans quelle mesure ils font confiance au contenu de la publication.
Nous aimerions ajouter un sélecteur « Origine du contenu » à chaque nouvelle réponse avec les options suivantes :
Écrit par un humain
Assisté par l’IA (examiné et édité)
Généré par l’IA (légèrement examiné)
Je suppose que de nombreux autres forums auront besoin d’une fonctionnalité similaire, elle pourrait donc être ajoutée comme fonctionnalité standard ou plugin. Mais si cela ne se produit pas, ce serait formidable si quelqu’un pouvait donner des conseils sur la façon de configurer cela sur notre instance Discourse hébergée.
Si vous faites confiance à vos utilisateurs, vous pourriez simplement créer des étiquettes pour cela ? Oh, édition : Désolé, je viens de lire que vous avez dit « chaque publication »
Ou voulez-vous que cela soit « détecté » (par l’IA ironiquement) et qu’une sorte d’indication y soit automatiquement ajoutée ?
Cela ressemble à un cas d’utilisation pour la demande de fonctionnalité tag replies, not just topics, où il a été noté que :
…vous pourriez donc intervenir pour voter en faveur de cette demande.
Je ne suis pas développeur, mais je pense qu’une approche sans balise utiliserait probablement la table post_custom_fields utilisée par des plugins comme le Custom Wizard Plugin. Intégrer un champ personnalisé de publication dans l’interface utilisateur — pour la sélection, l’affichage, la recherche/le filtrage — semble être un projet de plugin assez substantiel.
Un plugin ne fonctionnera pas sur un forum hébergé par Discourse
Je pense que vous pourriez également faire quelque chose avec un composant de thème. Peut-être un qui ajoute simplement l’information comme un [wrap] au message final et inclut un style sur la façon dont l’information est mise en évidence.
Je ferais confiance aux utilisateurs, mais si l’utilisation de l’IA est évidente et non divulguée, les modérateurs peuvent également marquer le message en conséquence.
Ce serait une fonctionnalité de commodité agréable pour suggérer de marquer le message comme assisté par l’IA ou généré par l’IA, mais je ne suis pas sûr que ce soit réalisable, et ce n’est pas essentiel. Nous pourrions forcer l’utilisateur à y réfléchir si le sélecteur n’était pas initialisé par défaut, afin que les utilisateurs aient besoin de définir explicitement l’origine du contenu.
Il pourrait être facile d’oublier d’ajouter une étiquette (les utilisateurs devraient être rappelés plus souvent de l’utiliser), mais cela pourrait fonctionner.
Cela semble être une bonne approche. Combien de travail faudrait-il pour mettre cela en place ? Pensez-vous qu’il y a une chance que cela soit ajouté comme fonctionnalité intégrée ou plugin officiel ?
Il y a toujours une chance, mais je pense qu’elle est assez faible que cela se produise dans un avenir prévisible, à moins que cette demande de fonctionnalité n’explose en votes.
Avec la fonctionnalité d’étiquetage actuelle, vous pouvez exiger que les sujets d’une catégorie aient une étiquette d’un groupe d’étiquettes spécifié. Bien que les étiquettes de réponse n’existent pas (et semblent peu probables de sitôt), on pourrait espérer une capacité similaire pour celles-ci.
Si le but est d’informer un lecteur humain qu’un texte implique l’IA, alors à mon avis, une étiquette n’est pas la solution. Les gens ne lisent pas les étiquettes comme faisant partie du contenu réel. L’indication doit donc faire partie du contexte lui-même.
Personnellement, j’utilise la méthode fournie par Discourse :
<details class='ai-quote' open>
<summary>
<span>Titre</span>
<span title='Discussion avec l'IA'>IA</span>
</summary>
Plus ou moins le contenu…
</details>
Apprendre aux utilisateurs à les appliquer correctement est, si ce n’est impossible, du moins extrêmement difficile pour les utilisateurs venant d’un milieu Facebook. J’ai donc opté pour l’exigence que le contenu généré par l’IA soit marqué d’une manière ou d’une autre. Tant qu’il y a un indicateur visible dans le contenu lui-même et que le matériel IA est clairement séparé, je suis satisfait.
J’ai essayé d’utiliser une étiquette, mais j’ai remarqué très rapidement qu’elle n’entraînait aucune réaction. De plus, je souhaite utiliser des étiquettes pour la classification du contenu, et j’ai du mal à imaginer que quelqu’un essaie de trouver tout le contenu de mon forum qui impliquait l’IA. Surtout que l’utilisation de l’IA est susceptible de s’intensifier avec le temps. On pourrait même arriver au point où une étiquette serait nécessaire pour indiquer que le contenu est fait par l’homme (et pas seulement avec un emoji, car de tels sites web et même des forums existent déjà).
Forum à faible trafic, donc je lis pratiquement tout. Et les modérateurs peuvent/vont signaler les cas possibles. Il n’est pas toujours évident si l’IA est fortement utilisée ou si c’est du copier-coller. Je ne sais pas comment cela pourrait être automatique, alors nous utilisons la surveillance du voisinage
Mais mes utilisateurs connaissent très bien la règle.
Un peu hors sujet, mais sur un forum (non-Discourse) nous avons un sujet pour discuter de tout ce qui concerne l’IA générative, des avantages aux inconvénients.
Un utilisateur régulier enthousiaste a commencé à publier des messages très argumentatifs pour débattre et contester les points de vue des autres membres dans un débat légèrement houleux.
La manière dont ses derniers messages étaient rédigés l’a trahi : en particulier, un message contenant 4 points sous forme de liste utilisant tous la structure « Ce n’est pas… C’est ».
Il a été interpellé et a admis avoir utilisé l’IA pour rédiger ses « deux derniers messages » et a expliqué que ce n’était pas un problème car il avait demandé à l’IA de refléter ses opinions. Et que si les gens ne pouvaient pas réfuter ses arguments, cela signifiait qu’ils avaient tort, que leurs messages aient été générés par l’IA ou non.
Inutile de dire que les autres utilisateurs étaient passablement énervés lorsqu’ils ont compris qu’ils perdaient leur temps et leur énergie à débattre avec une IA.