Comment gérez-vous les réponses de l'IA dans votre communauté ?

Bonjour à tous !

Je me demande comment les autres responsables de communauté gèrent les réponses de l’IA dans les catégories de discussion et de questions.

Notre politique actuelle est que l’utilisation de l’IA est acceptable tant que vous validez la réponse.

Après avoir vu des réponses comme celle-ci, par exemple, je commence à penser que je veux créer une politique plus stricte contre l’IA.

Bonne question, je vais vous aider à appeler l’API Slack pour publier un message dans un canal. Voici comment faire :

Requête API de base

Vous utiliserez le point de terminaison chat.postMessage. Voici un exemple simple utilisant curl :

curl -X POST https://slack.com/api/chat.postMessage \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer VOTRE_JETON_SLACK" \
  -d '{
    "channel": "C1234567890",
    "text": "Bonjour depuis l'API Slack !"
  }'

Étapes de configuration

1. Obtenir un jeton Slack :

  • Allez sur Slack API: Applications | Slack
  • Créez une nouvelle application ou sélectionnez-en une existante
  • Accédez à “OAuth & Permissions”
  • Ajoutez la portée chat:write sous “Bot Token Scopes”
  • Installez/réinstallez l’application dans votre espace de travail
  • Copiez le “Bot User OAuth Token” (commence par xoxb-)

2. Obtenir l’ID du canal :

  • Faites un clic droit sur un canal dans Slack → “Afficher les détails du canal”
  • L’ID du canal se trouve en bas (commence par C)
  • Ou utilisez le nom du canal comme #general

Exemples de code

Python :

import requests

url = "https://slack.com/api/chat.postMessage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer VOTRE_JETON_SLACK"
}
data = {
    "channel": "C1234567890",
    "text": "Bonjour depuis Python !"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

JavaScript (Node.js) :

const axios = require('axios');

const url = 'https://slack.com/api/chat.postMessage';
const data = {
  channel: 'C1234567890',
  text: 'Bonjour depuis Node.js!'
};

axios.post(url, data, {
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer VOTRE_JETON_SLACK'
  }
})
.then(response => console.log(response.data))
.catch(error => console.error(error));

Options supplémentaires

Vous pouvez enrichir votre message avec :

  • Blocs pour un formatage riche
  • Pièces jointes pour des données structurées
  • Réponses dans un fil en utilisant thread_ts
  • Mentions comme <@U12345678>

Souhaitez-vous de l’aide avec un langage de programmation spécifique ou un formatage de message plus avancé ?

Cordialement, {user} !

Bien que cela puisse résoudre le problème, j’aurais pu moi-même demander à l’IA d’obtenir cette réponse. Bien que le problème ne soit pas encore généralisé, je crains que nous ne perdions la personnalité de chaque individu au sein de la communauté. La beauté d’une communauté réside dans les personnes qui la composent et dans leurs idées, pensées, expériences et mots uniques.

Très curieux de savoir comment les autres communautés gèrent cela ! Partagez vos réflexions !

5 « J'aime »

Ma politique est de ne pas utiliser l’IA pour écrire ou modifier des publications de forum. Quelque chose comme : nous voulons entendre ce que vous avez à dire, pas ce que l’IA a à dire. Il est acceptable de coller du texte généré par l’IA, puis de commenter ce que l’IA a écrit, tant que vous divulguez qu’il s’agit d’IA au-dessus du contenu de l’IA, par exemple :

« J’ai demandé à ChatGPT à propos de ___ et il a dit ___. Voici ce que je pense de ce que ChatGPT a écrit. »

Je surveille attentivement la qualité du contenu. Je pense que le contenu généré par l’IA en 2025 semblera dépassé dans 10 ans, un peu comme les anciens effets spéciaux de films ne sont plus convaincants.

Si les gens posent des questions et que l’IA y répond, pourquoi iraient-ils sur un forum au lieu de simplement demander à ChatGPT ? Je pense que la principale valeur des forums à l’avenir sera de pouvoir obtenir des réponses d’humains au lieu de bots.

8 « J'aime »

Excellents points @j127,

C’est un peu dans cette direction que nous nous orientions, tant qu’il y a du contexte et les mots des utilisateurs autour du contenu de l’IA.

Je ne veux pas dans quelques mois voir partout sur nos forums des réponses IA parfaitement écrites, donc j’essaie de prendre de l’avance maintenant. Ramenez les fautes d’orthographe :slight_smile:

4 « J'aime »

Voici un point à considérer : décourager de telles pratiques pourrait éloigner de nouveaux utilisateurs potentiels. Une solution possible est de créer une catégorie pour cela, puis de les laisser y publier le contenu. De cette façon, l’utilisateur a le sentiment d’avoir contribué quelque chose de valeur, d’autres peuvent y faire référence si nécessaire dans d’autres parties du forum, et les utilisateurs qui ne sont pas intéressés par les publications d’IA peuvent ignorer la catégorie et tous les liens.

La publication d’IA sur les forums d’utilisateurs continuera à l’avenir. Je ne vois pas de normes pour cela dans les prochaines années ; similaire à la question de l’utilisation de l’IA dans l’éducation formelle.


Cependant, avec la nouvelle vague d’IA, de LLM et de diffusion, la seule constante est le changement, donc ma réponse à ce sujet ne doit pas être considérée comme gravée dans le marbre ou comme quelque chose avec lequel je pourrais même être d’accord à l’avenir.

2 « J'aime »

Cela dépend vraiment, n’est-ce pas ? Dans l’exemple ci-dessus, je serais contrarié par l’auteur si la réponse présentait une erreur évidente, surtout une erreur qui entraînerait de plus gros problèmes pour l’utilisateur. Je suis d’accord avec les gens qui publient des réponses générées par l’IA s’ils ont également pris le temps de valider et de vérifier la pertinence et l’exactitude des informations. Encore mieux s’ils conviennent que le contenu généré est similaire à la façon dont ils partageraient cette information, ou même meilleur.

Si, par contre, vous venez de jeter quelque chose dans un LLM, de copier-coller la réponse, et que vous attendez de moi, en tant que lecteur de votre sujet, que je découvre si ce contenu est correct, alors je ne serai pas content. Non seulement vous perdez mon temps en présentant des informations fausses comme étant correctes, mais vous réduisez la confiance générale dans la communauté, ou du moins dans vos propres réponses futures.

À l’avenir, je soupçonne que de nombreuses personnes bien intentionnées s’éloigneront de l’utilisation des LLM dans les forums au cours des prochaines années, et que ceux qui resteront seront de mauvais acteurs, ou des personnes qui ne comprennent tout simplement pas les forums. C’est purement anecdotique, mais j’utilise des LLM quotidiennement depuis environ 2 ans maintenant, et je me tourne de plus en plus vers le contenu auto-généré. Hier, je voulais écrire un article de blog dans lequel je n’étais pas super investi. J’ai décidé d’essayer GPT, mais quoi que je fasse, cela sonnait toujours comme du GPT et je détestais ça. J’ai donc essayé Claude, et malgré une heure de travail avec lui, le contenu ne ressemblait jamais à quelque chose écrit par une personne réelle et vivante. Donc, après environ 3 heures au total, j’ai tout déchiré et je l’ai écrit moi-même en environ une heure.

Le but de cette histoire est de dire - du moins pour moi - que le contenu auto-généré se révèle de plus en plus gratifiant, peu importe à quel point les modèles deviennent bons. J’espère vraiment que d’autres personnes utilisant des LLM atteindront également ce stade dans les 2-3 prochaines années. Si cela se produit, les réponses de l’IA dans les forums ne proviendront que de mauvais acteurs, ou de personnes bien intentionnées qui ne savent pas mieux. Dans tous les cas, cette situation rend le contenu beaucoup plus facile à gérer : vous pouvez bannir les mauvais acteurs, éduquer ceux qui ont de bonnes intentions, et avoir une politique de modération du type “le contenu IA est interdit, sauf si vous avez clairement digéré le contenu que vous publiez ET que vous êtes entièrement d’accord pour dire que son contenu représente votre opinion et votre compréhension de la question ET que le contenu exprime votre opinion d’une manière égale ou plus digestible que vous ne le généreriez vous-même.” ou quelque chose dans ce sens.

6 « J'aime »

Je suis généralement un peu inquiet lorsque je vois des réponses d’IA, et encore plus lorsque l’utilisateur qui les publie :\n- ne crédite pas l’IA\n- fait un copier-coller direct\n\nMais je pense que ce qui n’est vraiment pas acceptable, c’est que des publications entièrement générées par l’IA soient marquées comme Solutions. Vraiment, la solution devrait aller à l’IA… ou en fait, ne pas être donnée du tout, juste un j’aime et un merci.\n\n\u003chr /\u003e\n\nPour ajouter à cela, si l’OP voulait une réponse d’IA, il aurait pu simplement demander à ChatGPT. Il n’a pas besoin que quelqu’un réponde à la question qu’il a posée à ses semblables avec quelque chose provenant de l’IA.

3 « J'aime »

Je vois tellement de bonnes réponses ici. Dans cet exemple spécifique, je vois l’IA comme utile car elle est purement tactique. Ainsi, lorsque nous posons des questions à nos communautés ou demandons des réponses aux membres, tenez compte de ce qui est tactique par rapport à ce qui est « ressenti ». Selon la structure de votre communauté, il peut y avoir un espace spécifique dédié aux questions « comment faire », et un autre espace dédié aux connexions entre pairs. Savoir que le « comment faire » sera un endroit où l’IA est la bienvenue et peut-être recommandée pour éviter les erreurs de l’opérateur. :slight_smile: C’est formidable d’avoir un équilibre au sein de l’espace de votre communauté, et c’est ce qui fidélise les membres.

2 « J'aime »

Je pense que Discourse a déjà la section « comment faire » (ask.discourse.com). C’est en fait le meilleur outil d’IA dans Discourse que les utilisateurs peuvent utiliser par eux-mêmes, donc ils n’ont pas besoin de quelqu’un pour le faire à leur place. Tout le reste devrait être l’espace « pairs », où les humains interagissent, posent plus de questions que de réponses, et sont heureux de ne pas être d’accord afin d’en extraire une vérité ici et là.

Comme merveilleusement dit ici :

Très probablement, les gens viennent dans un espace communautaire lorsqu’il leur arrive quelque chose d’inhabituel. Il y a probablement beaucoup de questions posées avant qu’une solution ne soit trouvée à un problème, comme quelle version ils utilisent, ont-ils essayé ceci ou cela. Parfois, c’est formidable si vous ressentez de l’empathie de la part d’autres utilisateurs. L’IA ne pose pas de questions ; elle n’a aucune intuition sur la façon dont nous sommes stupides parfois (par exemple, sur Meta : Avez-vous essayé de reconstruire Discourse ? Avez-vous essayé le mode sans échec ?), et toute empathie est certainement fausse, aussi agréable soit-elle.

Donc, ma façon de gérer les réponses avec une majorité de contenu IA – je les bannirais probablement et implémenterais un bot IA afin que les utilisateurs puissent facilement s’aider eux-mêmes.

1 « J'aime »