Pour objectif cette année, nous essayons d’Augmenter l’adoption de Discourse AI et de ses fonctionnalités. J’essaie de comprendre globalement ce qui vous empêche d’essayer Discourse AI au sein de votre communauté.
Je comprends qu’il pourrait y avoir des aspects spécifiques aux fonctionnalités qui pourraient être gênants, mais dans ce cas, j’essaie d’avoir une vision d’ensemble des raisons problématiques potentielles.
De plus, si vous êtes disposé à discuter avec moi à ce sujet lors d’un appel, j’apprécierais grandement vos commentaires .
Abus de l’IA. Je veux dire par là que les gens utilisent l’IA pour, genre, tout écrire. Ça rend les humains inutiles, mais c’est inévitable pour toute IA. Mais je pourrais bientôt (si je pouvais payer) !
Oui, je comprends, nous pensons faire de Discourse AI un assistant utile dans votre parcours Discourse plutôt que de nous fier à lui pour tout « écrire » ; tout en sensibilisant les gens au fait qu’il s’agit de contenu généré par l’IA qui est affiché pour la fonctionnalité GenAI.
Dans notre communauté, les utilisateurs spamment avec des réponses ou des solutions inutiles aux tutoriels avec la fonctionnalité qui était très courante juste au moment du lancement de ChatGPT…
Tellement cher en ce moment et je ne veux pas que mes utilisateurs tapent ou créent du contenu IA lorsque l’accent est mis sur les discussions humaines.
Nous ne sommes pas encore sur Discourse (l’évaluation est toujours en cours), mais d’un point de vue conceptuel, il y a deux obstacles majeurs :
Notre communauté est principalement composée d’amateurs de jeux de rôle sur table et la créativité humaine est très appréciée - par conséquent, une partie importante de nos utilisateurs a une perspective négative sur l’IA générative. Il y a aussi beaucoup d’expérimentation avec les nouveaux outils, mais en fait, toute utilisation de l’IA générative doit être soigneusement examinée.
Nous auto-hébergeons et avons un budget limité (contribué par certains de nos utilisateurs) - il est suffisant pour un serveur décent afin d’héberger Discourse (ou tout autre logiciel communautaire), mais le coût des offres actuelles de LLM en tant que service et des serveurs GPU dédiés est trop élevé pour s’y intégrer. Et le bénéfice attendu est également trop faible pour le justifier.
Je fais écho à certains des commentaires ci-dessus, en particulier à la crainte que les gens écrivent trop avec l’IA et qu’il devienne plus difficile de distinguer ce qu’un humain a « écrit » de ce qui n’a pas été écrit.
Cependant, je pense qu’une plus grande crainte que j’ai est l’utilisation d’une IA distante. J’ai souvent débattu de la publicité que je voulais donner à mes forums Discourse et je suppose que je n’ai tout simplement pas d’heuristique sur le caractère invasif des API d’IA de nos jours en matière de confidentialité.
Je pense que s’il existait des LLM auto-hébergés plus puissants et moins chers, voire sur appareil, je me sentirais plus à l’aise. Je ne suis pas sûr de la manière dont un LLM sur appareil bénéficierait à Discourse, mais quelque chose dans l’utilisation d’un LLM distant me fait hésiter ces jours-ci.
Un LLM open source hébergé par Discourse serait-il plus rassurant qu’un autre fournisseur tiers ? (bien que probablement un peu moins qu’un appareil ?)
Peut-être un peu, mais je préférerais davantage l’auto-hébergement ou l’hébergement sur l’appareil (encore une fois, si cela pouvait fonctionner pour un forum auto-hébergé).
Peut-être si c’était hébergé par Discourse avec l’option d’auto-hébergement, tout comme Discourse l’est maintenant, oui, je serais plus enthousiasmé. À ce stade, je pense que ma préoccupation se déplacerait vers la qualité de la sortie du LLM et le coût d’exécution.
Je soupçonne que vous souhaitez entendre des personnes ayant des communautés plus établies que la mienne, mais je vais quand même vous faire part de mon avis.
Rien ne m’empêche d’ajouter des fonctionnalités alimentées par l’IA à mon site Discourse, mais ce sont les fonctionnalités qui m’intéressent, pas le fait qu’elles soient alimentées par l’IA.
Par exemple, la recherche sémantique et la capacité de signaler automatiquement des publications (pour qu’elles puissent être examinées ultérieurement par un humain) sont deux fonctionnalités que j’aimerais utiliser. La capacité de traduire des publications à la volée serait également utile.
Quelques exemples de ce dont je parle en termes de marketing :
lorsque vous traduisez du texte via Google, ils ne disent pas « traduire avec l’IA », ils proposent simplement de traduire le texte
lorsque vous effectuez une recherche sur Google, ils ne disent pas « rechercher avec l’IA » même si l’IA est impliquée dans le retour des résultats de recherche (actuellement pas excellents)
lorsque Soundcloud suggère des tags pour une piste téléchargée, ils ne disent pas « taguer avec l’IA », l’interface utilisateur suggère simplement quelques tags - l’utilisateur final n’est pas encouragé à réfléchir à la (géniale) technologie qui permet au système de suggérer des tags appropriés basés sur une analyse de la piste téléchargée
Certaines fonctionnalités liées à l’IA, en particulier tout ce qui concerne les chatbots, pourraient aller à l’encontre de l’esprit de ce que sont les communautés en ligne. En regroupant toutes les fonctionnalités liées à l’IA sous le titre « Discourse AI », vous risquez d’éloigner les gens de fonctionnalités qui se trouvent être alimentées par l’IA, mais qui pourraient également être incroyablement utiles pour leurs forums.
Je ne suis pas un génie du marketing, alors prenez tout ce qui précède avec des pincettes.
Outils essentiels créés avec l’IA pour aider à la modération, ça me va. Je veux pouvoir générer des images, mais je refuse toute méthode de création utilisant l’IA si elle risque de faire perdre l’esprit de communauté.
Les réseaux sociaux meurent pour une raison, c’est ça le problème.
Je l’utilise. Sur mon forum, l’IA est utilisée pour expliquer des choses[1]. Mais je ne l’autorise pas pour les membres généraux car c’est tout simplement trop cher — je suis à un niveau où 50 dollars par mois, c’est horriblement cher ;)\n\nMais son principal problème pour moi n’est pas la faute de l’IA, mais la quantité de travail nécessaire pour créer une base de connaissances décente. Mais pour moi, la plus grande faiblesse de l’IA est la façon dont elle utilise mal les embeddings et ensuite le contenu créé par la communauté n’est pas assez bien utilisé.\n\nOui, je sais. Cela vient principalement des limitations d’OpenAI. Et la technologie n’est pas aussi prête pour la production qu’annoncé. De plus, il y a une barrière linguistique.\n\nLa cerise sur le gâteau : créer de bons prompts est vraiment difficile. Et après quelques semaines, quelque chose change et les prompts doivent être corrigés à nouveau.\n\nCela peut aider avec certains travaux de fond, un jour. Mais en voyant les équipes lutter (et de mon point de vue, une grosse perte de temps et d’argent, désolé ) avec les résumés quotidiens, etc., j’affirme qu’il faut trop de ce travail qui n’augmente pas réellement les revenus, peu importe si c’est compté en dollars ou en bonheur. Cela ne diminue pas la charge de travail des administrateurs et des développeurs, cela l’augmente.\n\nMais bien sûr, les grandes entreprises où quelques 10 000 dollars représentent moins que le remplissage mensuel du stock de boissons énergisantes, peuvent et devraient automatiser les choses en utilisant l’IA, y compris le forum de support par Diacourse. C’est, et cela doit être, la cible de CDCK — mais je ne sais pas combien d’entre eux sont ici pour exprimer leurs pensées.
as: expliquer les règles du baseball et deviner pourquoi c’est un sport si populaire même s’il est lent et même ennuyeux ↩︎
Il semble que le sentiment général soit que la GenAI cause des problèmes ou ait le potentiel de semer le chaos au sein des communautés, nuisant aux échanges naturels et à la créativité humaine. Je pense que chez Discourse AI, nous essayons de trouver un équilibre, de sorte qu’elle ne soit là que pour améliorer votre écriture, pas pour l’écrire entièrement à votre place.
@simon excellent point sur « l’utilisation de l’IA » dans les fonctionnalités, le marketing derrière cela peut certainement en repousser certains et, inversement, faire apprécier à d’autres la conscience qu’ils interagissent avec l’IA.
Nous gérons une petite communauté créative pour les fans, créateurs, auteurs et artistes de fiction interactive. Nous ne rencontrons généralement pas de problèmes où les tâches de modération sont trop importantes, et nos modérateurs ainsi que de nombreux membres de notre communauté sont heureux de répondre aux questions. Nous n’utiliserions donc pas l’IA pour « faire du travail de forum ».
Bien que nous discutions souvent de l’IA dans le contexte de la « génération de texte » en relation avec les jeux que nous créons et que beaucoup de gens s’y intéressent, nous avons établi une règle selon laquelle le contenu généré par l’IA n’est pas autorisé à être publié dans une situation où une construction d’IA « prétend » être un véritable utilisateur du forum et tente de tromper les gens dans le but de passer le test de Turing. Nous ne voulons pas que notre forum soit utilisé comme terrain d’essai pour l’IA, ni que notre contenu historique depuis 2006 soit utilisé comme champ de données à extraire.
Si des personnes publient du matériel généré par l’IA, que ce soit pour leurs propres objectifs en tant qu’assistant d’écriture ou comme démonstration pour un jeu qu’elles construisent, nous leur demandons de le signaler ou de le citer comme une source, car il ne s’agit techniquement pas de leur propre matériel. Nous avons eu plusieurs spammeurs qui ont essayé de participer et d’augmenter les niveaux de confiance en (je suppose) soumettant un sujet à une IA comme ChatGPT et en publiant les résultats afin qu’il semble s’agir d’une participation légitime au forum. Étant donné que notre genre artistique entier consiste à créer une œuvre textuelle qui « répond » à l’interaction d’un utilisateur (pensez aux aventures textuelles comme Zork), la plupart des gens peuvent repérer le contenu généré par machine assez facilement et le signaler.
Une IA ou un LLM ne peut pas accepter les Conditions d’utilisation et le Code de conduite. Si cela offense quelqu’un, il n’y a aucun moyen de le modérer. Puisque nous attendons de nos utilisateurs qu’ils soient transparents à propos de ce type de contenu, il serait probablement hypocrite pour notre site d’utiliser une quelconque génération d’IA pour le contenu et les réponses du forum.
Nous avons également dû calmer une guerre de tranchées qui menaçait d’éclater car nombre de nos utilisateurs sont des graphistes très sensibles à l’idée que leurs œuvres en ligne soient volées comme matériel source pour l’art généré par IA, et un sujet sur l’utilisation de l’art généré par IA dans les jeux a rapidement dégénéré en attaques personnelles contre les personnes qui étaient d’accord avec cela. L’IA est donc l’un des sujets que nous devons surveiller de près pour nous assurer qu’elle n’est pas discutée dans le contexte du plagiat délibéré.
TL;DR : L’IA est un sujet sensible sur lequel nous avons dû établir des règles, nous ne devrions donc probablement pas l’utiliser dans le contexte d’un forum peuplé de nombreux artistes et écrivains.
Nous en avons marre du battage médiatique autour de l’IA, qui produit principalement une montagne de déchets et cause des dommages environnementaux en retour. J’ai hâte que la bulle éclate et que tout le monde soit obsédé par la prochaine chose stupide qui se présentera, ou, mieux encore, se concentre sur quelque chose d’utile ou améliore simplement les fonctionnalités de base que tout le monde ignore ces derniers temps pour y intégrer des déchets d’IA parce que tout le monde le fait et que c’est ce dans quoi les investisseurs perpétuellement ignorants jettent de l’argent en ce moment…
Ce n’est probablement pas la réponse que vous vouliez, mais c’est la vérité honnête.
Les principaux obstacles ici sont la navigation dans les restrictions internes sur les outils tiers et l’accès aux données (pour obtenir l’autorisation de commencer), et l’absence d’une méthode claire pour estimer les coûts (utilisation des jetons, etc.) qui nous empêche d’obtenir l’approbation du budget pour commencer à utiliser les nouveaux outils.
J’aimerais commencer à en utiliser certains, en particulier le reporting d’analyse des sentiments. Il semble y avoir un écart important entre la connaissance des outils et leur mise en œuvre.
Il y a aussi des préoccupations périphériques concernant l’introduction de davantage de contenu GenAI dans notre communauté : c’est le sujet le plus critique affectant les membres de notre communauté et leurs moyens de subsistance. Nous voyons également un grand nombre de nouveaux comptes de forum publier des résumés évidents générés par l’IA de fils de discussion (et des tentatives assez inexactes pour « répondre » à des questions à partir de messages existants), de sorte que nos utilisateurs ont déjà l’impression que l’élément humain de la communauté est noyé par les outils d’IA, plutôt que d’être soutenu ou augmenté par eux.
Je vois beaucoup de commentaires axés sur le contenu généré par l’IA. Parlant au nom de notre communauté d’entreprise, j’aimerais voir des investissements continus dans le côté administratif de Discourse AI. C’est-à-dire des outils axés sur l’aide à la démonstration de la valeur de notre communauté à nos équipes de direction. En raison de notre catégorisation et de notre étiquetage (relativement) clairs, nous avons utilisé Discourse AI avec beaucoup de succès lors de nos revues d’affaires trimestrielles pour montrer des choses comme : « voici le sentiment de cet sous-ensemble d’utilisateurs, dans ces catégories, discutant de ce produit, au fil du temps ».
Graphiquer cela et montrer à notre organisation une visualisation plus quantifiable de la valeur de la communauté en voyant un indicateur de tendance comme celui-ci a suscité une réponse incroyable et des investissements continus. Plus de cela serait formidable, et nous permettrait d’approfondir.
Concernant le bot IA, nous aimerions vraiment voir plus de personnalisation dans la capacité à intercepter l’expérience du bot IA. Nous avons des exigences strictes sur la manière dont nous pouvons aborder l’envoi de données utilisateur aux services d’IA, et à ce titre, nous avons construit notre propre service AWS lambda entre Discourse et AWS Bedrock. La possibilité de spécifier le point de terminaison avec lequel le bot fonctionne, ainsi que la documentation sur le modèle d’objet, nous permettraient de réaliser pleinement le bot IA existant dans notre communauté. Pour l’instant, nous avons construit notre propre expérience de bot en utilisant des MP et des webhooks pour simuler une expérience de boîte pour le moment.
Tout ce que vous pourrez faire pour rapprocher l’IA de l’administration et de la modération de Discourse serait le meilleur investissement, de notre point de vue. Nous devons construire et soutenir cette communauté de manière évolutive pour l’entreprise, et je crois qu’il existe de nombreuses opportunités autour de Discourse utilisant l’IA pour y parvenir.
C’est vraiment dommage de ne pas avoir activé les « sujets connexes » sur votre site et celui-ci est 100 % hébergé par nous (et déjà inclus dans tous les plans), il n’y a donc aucun problème de données, de jetons ou de prix.
De même, nous hébergeons nous-mêmes les modèles de sentiment et serions heureux de les explorer avec vous. Je reste un peu sceptique quant au sentiment car j’essaie de comprendre quels problèmes spécifiques cela résout.
Nous explorons également l’exécution de modèles ouverts sur notre matériel, Llama 3 est étonnamment performant. Il est possible que nous puissions à terme alimenter des fonctionnalités telles que des résumés avec nos propres modèles, surtout si nous parvenons à ce que les modèles 7B les réalisent avec confiance.
Je comprends pour les budgets, Discourse AI suit déjà l’utilisation des jetons par personne, nous avons l’intention d’ajouter des quotas au plugin.
C’est tout à fait dans notre feuille de route, nous y travaillons actuellement, la possibilité de pointer vers une URL et de spécifier le « dialecte » qu’elle parle.