Alors, à qui incombe vraiment le problème ?
En l’état actuel, Discourse core et Discourse AI n’expédient aucun grand modèle de langage. Discourse AI intègre les grands modèles de langage existants via des API que les administrateurs peuvent saisir (Open AI et Anthropic), à l’avenir, nous supporterons probablement encore plus de modèles.
Vous voulez dire via des plugins, comme c’est le cas actuellement ?
Je trouve une grande partie de cette discussion quelque peu déroutante. Y a-t-il une inquiétude que nous allons « cancériser » la source de Discourse ? Y a-t-il une inquiétude que nous aurons une dépendance stricte et inconditionnelle à Open AI ?
Mon point de vue est que si vous êtes réellement perplexe, je parierais que vous n’êtes pas aussi activement conscient, informé ou empathique des « conséquences », car il n’y a peut-être aucune valeur apparente à analyser cela, puisque le cheval est déjà parti et que la porte de la grange est grande ouverte, alors tout le monde lâche prise !
Vous dites cancer, plus comme une arme quantique de destruction massive [à compléter], cependant certains penseront que tout cela est de l’hyperbole. C’est cool. Chacun a son opinion, mais je pense globalement et pas spécifiquement à Discourse, ce que vous faites avec le développement dépend de la façon dont cela fonctionne, donc pour clarifier le point par rapport à l’OP :
La raison principale pour laquelle je pose la question est qu’en tant qu’administrateur de Discourse, vous avez un devoir envers une base d’utilisateurs, et bien que cela puisse être un petit segment en termes de marché réel, votre base d’utilisateurs ou une partie de votre base d’utilisateurs est importante, et pourrait en fait ne pas vouloir utiliser une plateforme qui s’engage dans une quelconque forme de cette génération d’IA en ce qui concerne le contenu qu’ils génèrent, et ce pour de nombreuses raisons différentes. De la même manière qu’ils pourraient utiliser des bloqueurs de publicité, ils ne veulent pas faire partie de ce « truc » - lorsque cette question vient du premier utilisateur qui la pose, c’est parce qu’il n’y avait pas de politique d’IA clairement indiquée, vous devez également avoir une forme de réponse qui soit véridique.
Par conséquent, séparer les outils d’IA en tant que plugins qui ne sont pas essentiels est une bonne approche, mais si l’IA devenait essentielle, disons dans une future mise à jour, cela pourrait laisser place à l’hésitation ou au rejet total de la plateforme.
Tant que cette ligne reste claire et délimitée, cela pourrait être une voie satisfaisante pour tous et des orientations et assurances claires en matière de développement pourraient également être importantes ici.
Je comprends aussi qu’il est difficile de formuler cela pour que tout le monde soit d’accord, mais voici le nœud du problème maintenant, c’est ce qui se passe lorsqu’une question est posée pour une raison réelle. Si la raison est fondée ou non, elle servira de base aux utilisateurs pour prendre des décisions de valeur qui se traduisent par des actions.
S’il s’agit simplement d’une déclaration simple indiquant qu’il n’y a pas de ChatGPT ou d’IA similaire dans le cœur de Discourse, avec la réserve que certaines IA sont utilisées dans le développement et la création comme outil, cela pourrait être aussi proche d’une réponse satisfaisante pour le commun des mortels sur un forum Discourse.
Dans l’ensemble, la question de la façon dont l’IA va affecter le web et, par extension, le monde a déjà été traitée et vue en termes d’application et de conséquences, cette phase de publication officielle de ces « jouets », c’est-à-dire de donner une boîte de Pandore avec des API et tout le reste au monde du développement et, par extension, au monde, est une montée en puissance, car auparavant, c’était une phase d’apprentissage expérimental très contrôlée et relativement clandestine où cette IA avait été infusée dans une grande partie du web pendant des années sans que beaucoup de gens ordinaires ne s’en rendent compte.
Bien que j’essaie de rester dans le cadre de ma question, si vous voulez vraiment être méta et discuter du métaphysique, alors je dis allez-y, mais ce sujet est déjà abordé ici - How are we all feeling about ChatGPT and other LLMs and how they'll impact forums?
Un autre aspect concerne, disons, les publicités. Je suppose que Google utilise depuis longtemps de l’IA de ce genre dans la diffusion de ses publicités et même dans ses services d’analyse, mais au moins pour l’instant, les utilisateurs peuvent déployer des logiciels de blocage et utiliser des VPN. Ces outils utilisent-ils aussi de l’IA ?! ![]()
Peut-être que cela se résume à la façon dont les gens perçoivent l’IA et peut-être que la façon la plus simple de l’articuler est que certains la voient comme étant isolée (outils), d’autres la voient comme un feu dans le tissu même de la matrice de la réalité qui doit être éteint, quoi qu’il en soit, cela se produit et cela va se produire quoi qu’il arrive, mais il y a toujours des conséquences, et parfois tout ce que vous avez, c’est le choix de participer à la création de ces conséquences ou de les atténuer, ce que nous avons avec « l’industrie », c’est qu’ils sont, à mon humble avis, les deux.