Comment ressentons-nous tous ChatGPT et autres LLMs et leur impact potentiel sur les forums ?

Semble très bon à ça :

voilà plusieurs entreprises ! :sweat_smile:

1 « J'aime »

Absolument absurde, à mon humble avis.

Devrions-nous rembourser toute l’humanité pour avoir fait évoluer les belles langues que nous avons ?

Mais je digresse.

1 « J'aime »

Je ne suis pas en désaccord avec vous, mais je soupçonne que de nombreux procès sont considérés comme absolument absurdes par les défendeurs, mais coûteux néanmoins.

2 « J'aime »

Si une question et une réponse validées par un humain (par exemple, un sujet résolu sur Discourse) ont une valeur économique en tant que données d’entraînement, il ne semble pas déraisonnable de vouloir être payé pour cela. Il y a un besoin pour les données, donc ce serait un peu un scénario gagnant-gagnant.

1 « J'aime »

Il existe au moins deux concours d’écriture dont l’objectif est d’écrire dans le style d’un auteur désigné. (Bulwer-Lytton et Hemingway)

Mais je peux imaginer que demander à une IA d’écrire un roman dans le style d’un auteur connu pourrait susciter des réactions de la part de cet auteur ou de ses héritiers, un style reconnaissable pouvant être considéré comme une « propriété intellectuelle », ou du moins qu’un avocat serait prêt à le revendiquer devant les tribunaux.

2 « J'aime »

Quelqu’un a-t-il eu beaucoup d’enthousiasme de la part des utilisateurs désireux d’utiliser Discourse Chatbot sur leurs forums ? J’ai vu toutes ces choses sur les chatbots et j’utilise ChatGPT, Perplexity, Claude, Bard, etc. tous les jours. Mais je pensais que les forums étaient un espace sûr à l’abri de tout cela. J’ai écrit un article à ce sujet hier Je pense que la saturation de l’IA fera revivre cette ancienne plateforme Web (forums Web)

Je suis vraiment curieux de savoir si les utilisateurs de forums désirent des chatbots et de l’IA lorsqu’ils visitent des forums de discussion alimentés par Discourse et d’autres. Si c’est le cas, je devrai vraiment revoir mon idée des forums et même envisager un plugin comme celui-ci. Cela semble être un gros projet, peut-être même chronophage. Comme toujours, j’apprécie tout ce que vous faites. J’essaie de comprendre la demande qui a produit cela afin d’être informé, pour ainsi dire.

3 « J'aime »

Je cherche à l’utiliser dans un forum de support technique pour aider à répondre rapidement aux questions simples/répétitives lorsque le personnel est occupé et en dehors des heures de bureau. Je pense que ce sera excellent dans cette capacité.

5 « J'aime »

Oui, j’ai récemment ouvert une fenêtre de chat avec le support Hostinger. C’était un chatbot IA. Et le chatbot était si efficace qu’il m’a parlé d’une option de remboursement que je n’aurais jamais connue et m’a même envoyé un lien vers la politique de remboursement ! lol

Il a compris ce que je demandais et ne m’a pas demandé si j’avais déjà essayé 10 choses basiques. Donc oui, je vois son utilité pour les cas de support.

J’espère que cela sera ensuite sauvegardé sur les forums, afin que d’autres puissent voir ou même ajouter à la discussion plutôt que de la remplacer.

1 « J'aime »

Est-ce que ce serait également le cas avec une personne du support compétente qui aurait de l’expérience dans l’utilisation du logiciel pour lequel elle fournit du support ?

1 « J'aime »

Bien sûr que non. Il n’existe pas d’option parfaite pour tout le monde.

Les GPT peuvent évoluer. Mais pour l’instant, ce sont des options de bas niveau, même pour faire des calculs simples. 3.5 ne peut même pas faire les bases de manière fiable, n’est-ce pas ? L’hallucination est un problème majeur quand il devrait y avoir des faits, ou même quelque chose qui s’en approche.

Les langues autres que l’anglais sont difficiles. Pour quelques langues très répandues, cela fonctionnera bien, mais pour moi, et pour tous ceux qui parlent une langue mineure, et spécialement si la structure n’utilise pas de prépositions, les traductions ne seront jamais de premier ordre.

GPT traduira d’abord en anglais, et modifiera la requête. Ensuite, la réponse sera retraduite de l’anglais, et GPT apportera d’autres modifications et une autre phase d’hallucination. Le produit final sera très éloigné de ce qui a été demandé et même de ce que GPT proposait au début.

Et comme l’entraînement est basé sur l’idée que des millions de mouches ne peuvent pas avoir tort et que la quantité prime sur la qualité, la quantité de désinformation est plus qu’énorme. Et même dans cette situation, il y aura encore plus de fiction, à cause de l’hallucination.

Bien sûr, ce n’est pas si tranché. J’utilise une solution d’entrée de gamme. Mais si l’on a de l’argent à dépenser, on peut faire son propre entraînement et le terrain de jeu changera énormément.

Je maintiens néanmoins une affirmation : GPT fonctionne mieux lorsqu’il analyse ou fait quelque chose où il n’y a pas trop de variations. Ou s’il peut créer quelque chose de “nouveau”, du matériel totalement fictif. Mais le large terrain du milieu où un GPT devrait offrir des faits et des informations fiables… pas tellement.

J’utilise beaucoup GPT3.5 d’OpenAI tous les jours comme… une recherche avec des stéroïdes. Et je ne suis pas très satisfait. Je dois vérifier, revérifier et réécrire beaucoup, mais je ne nie pas que GPT me fait toujours gagner du temps lors de la création de textes en masse.

4 « J'aime »

Une étude intéressante sur une version de cette question a été publiée récemment :

https://www.nature.com/articles/s41598-024-61221-0

Les conséquences de l’IA générative pour les communautés de savoir en ligne

Les technologies d’intelligence artificielle générative, en particulier les grands modèles linguistiques (LLM) tels que ChatGPT, révolutionnent l’acquisition d’informations et la production de contenu dans divers domaines. Ces technologies ont un potentiel significatif pour impacter la participation et la production de contenu dans les communautés de savoir en ligne. Nous fournissons des preuves initiales de cela, en analysant des données de Stack Overflow et des communautés de développeurs sur Reddit entre octobre 2021 et mars 2023, documentant l’influence de ChatGPT sur l’activité des utilisateurs dans la première. Nous observons des déclins significatifs à la fois dans les visites de sites Web et le volume de questions sur Stack Overflow, en particulier autour des sujets où ChatGPT excelle. En revanche, l’activité dans les communautés Reddit ne montre aucune preuve de déclin, suggérant l’importance du tissu social comme tampon contre les effets dégradants des LLM sur les communautés. Enfin, le déclin de la participation sur Stack Overflow est concentré parmi les nouveaux utilisateurs, indiquant que les utilisateurs plus juniors et moins socialement intégrés sont particulièrement susceptibles de partir.

7 « J'aime »

Cela décrit à peu près mon propre comportement. Je pose toujours des questions et y réponds sur Meta - j’ai une connexion sociale ici. Mais pour apprendre de nouveaux langages de programmation et frameworks, je m’appuie sur une combinaison de ChatGPT et de documentation en ligne.

La principale chose que les LLM ont pour eux est peut-être leur disponibilité. Je préférerais obtenir des conseils d’experts humains, mais personne n’a assez de temps ou de patience pour répondre à toutes mes questions à la volée.

Un inconvénient majeur de l’apprentissage par les LLM par rapport à l’apprentissage sur un forum public est que les informations générées sont privées. Il est assez rare qu’apprendre quelque chose via un LLM se résume à lui poser une question et à obtenir la bonne réponse. C’est plutôt : poser une question, essayer d’appliquer la réponse, lire de la documentation pour comprendre pourquoi la réponse n’a pas fonctionné, revenir au LLM avec une question de suivi… finalement, un peu de connaissance est générée.

Je ne pense pas que quiconque veuille lire les journaux de discussion d’autres personnes, mais peut-être que les forums techniques pourraient promouvoir l’idée que les gens publient les connaissances qu’ils ont acquises auprès des LLM.

Un autre inconvénient évident de l’apprentissage via les LLM est la perte de connexion sociale, l’attention humaine comme motivation pour apprendre, les opportunités d’emploi, etc. C’est une affaire assez importante de mon point de vue.

14 « J'aime »

La disponibilité est la raison principale pour laquelle nous construisons un bot de support.

4 « J'aime »

Je suis à la fois enthousiasmé par cette technologie et légèrement inquiet pour l’avenir du web.

Des entreprises comme Google (et Bing) utilisent désormais les données collectées lors de l’exploration de votre site pour fournir une réponse IA aux questions en haut de leur page de recherche.

Non seulement cela repousse les résultats de recherche plus bas sur la page et minimise les sources, mais cela crée également une autre dynamique inquiétante : cela encouragera les fournisseurs de recherche à rechercher une plus grande intégration avec certaines grandes sources de données sélectionnées.
Par exemple, Google aurait conclu un accord avec Reddit pour accéder à leur API.

À mon humble avis, le résultat sera une promotion accrue du contenu sur les grandes plateformes et un préjudice pour les sites plus petits.

Il y a actuellement une controverse considérable concernant la qualité des résultats que Google obtient avec sa fonctionnalité « AI Overview » et certains exemples hilarants et moins hilarants qui sont sans doute assez embarrassants pour l’entreprise. Je suis sûr que la technologie s’améliorera cependant.

Peut-être que les forums plus petits sont mieux placés pour optimiser leur utilisation locale de l’IA car ils peuvent se spécialiser. Google peine à fournir un service très générique.

Le temps nous le dira, mais la bataille pour attirer l’attention est toujours bien réelle.

5 « J'aime »

C’était l’une de mes idées. Je pensais affiner un modèle de type BERT pour classer automatiquement les publications par catégories, ou ajouter automatiquement des étiquettes. La détection de publications « toxiques » serait un autre cas d’utilisation.

Pour quelque chose comme Discourse, il y a probablement plus que ce que je pourrais faire en une vie avec l’IA. Bien que, une fois que l’IA aura aidé à le mettre en œuvre, peut-être que cela pourra être fait en une vie…

3 « J'aime »

Honnêtement, je pense que ce problème est sous-jacent à tous les sujets liés à l’IA, et le naïf que je suis pense que cela ne peut être résolu (uniquement) par un modèle appartenant à la communauté.

Un modèle entraîné par des données que nous fournissons volontairement et que nous réglementons, en adhérant simplement aux licences fournies. Un modèle entraîné de manière éthique, qui est calculé sur toutes nos machines.

Le calcul pair à pair de données a une longue tradition, car certains domaines scientifiques le font depuis quelques décennies maintenant.

À mon humble avis, il n’y a pas d’issue, ou du moins une solution comparable, si nous voulons utiliser l’IA sans sacrifier nos principes à long terme.

2 « J'aime »

La modération basée sur les LLM sera formidable, vous pourriez lui demander d’évaluer chaque publication selon différentes mesures arbitraires (pertinentes pour la communauté) et d’effectuer des actions, des filtres ou de l’aide.

Je vois le début de certaines de ces fonctionnalités ici, mais je ne suis pas sûr de l’ensemble des fonctionnalités : Discourse AI Features | Discourse - Civilized Discussion

6 « J'aime »

Je pense que l’ensemble des fonctionnalités que vous recherchez est Discourse AI - AI triage

Nous avons quelques projets pour refondre la page d’accueil afin que le contexte soit encore plus clair pour toutes les fonctionnalités d’IA.

2 « J'aime »

Comme on le voit largement sur Facebook, Instagram, TikTok, etc. :winking_face_with_tongue:

1 « J'aime »

Cela dépend vraiment de l’objectif : supprimer le contenu offensant, guider l’utilisateur, etc.

Un objectif qui m’intéresse particulièrement est d’utiliser un LLM pour analyser les questions/problèmes lorsqu’ils sont soumis. L’objectif n’est pas de répondre à la question, mais plutôt d’aider l’utilisateur à exprimer son problème de manière plus constructive. Trop souvent, la première réponse est « pouvez-vous s’il vous plaît poster vos journaux d’erreurs » ou « qu’essayez-vous de faire exactement ? ». Un LLM pourrait identifier les sujets qui entrent dans cette catégorie et inciter l’utilisateur à fournir ces détails, accélérant ainsi l’ensemble du processus de support et créant un sujet de meilleure qualité pour les futurs lecteurs.

Les premiers travaux ont été prometteurs, montrant une précision d’environ 93 à 95 % sur un ensemble de données d’environ 60 sujets. Les inexactitudes ne sont même pas si graves : la moitié des réponses où notre évaluation est en désaccord avec celle du LLM sont d’ailleurs très douteuses au départ.

Ma principale conclusion, aussi évidente soit-elle, est la suivante : plus vous réduisez la portée de votre requête au LLM, plus la réponse sera précise.

9 « J'aime »