L’intégration de ChatGPT avec une témérité folle et un abandon sauvage dans tout et n’importe quoi est une source d’immense préoccupation.
Une question se pose : en tant qu’administrateur, il est important de savoir existe-t-il une partie ou un composant, aussi petit soit-il, qui soit essentiellement de l’IA au sein de l’installation principale de Discourse ?
Je suppose que la réponse est non, mais je tiens à vérifier.
Depuis l’arrivée des plugins qui semblent isoler l’IA en dehors d’une installation principale de Discourse, je pense qu’il est également important de savoir, du point de vue de la feuille de route, s’il est prévu d’intégrer de l’IA là où il n’y en a actuellement aucune (si cela est vrai).
Si la réponse est oui à une ou plusieurs de ces questions, ce serait formidable d’avoir une confirmation.
Actuellement, toutes les fonctionnalités liées à l’IA se trouvent dans le plugin optionnel Discourse AI.
Quant à savoir si des fonctionnalités de base de l’IA sont prévues, je laisserai des personnes plus informées répondre (mais je suppose que ce n’est pas à l’ordre du jour).
Vous allez devoir définir cela un peu plus soigneusement, en fonction de votre préoccupation spécifique.
Mais je pense que la réponse générale est : ne vous inquiétez pas — c’est du bon vieux code généré par l’homme, faisant de la logique procédurale traditionnelle.
Oui, une bonne remarque concernant les définitions. Je pense que l’OP est clair en termes généraux, étant un cas de avant et après ChatGPT (+similaire) et quels sont les plans pour Discourse, dans la lignée d’au moins :
l’utiliser pour écrire du code de base
l’intégrer au cœur du système
Si quelqu’un d’autre veut aider à définir dans ce sens, mais comme vous l’avez dit, la meilleure définition pourrait être tout ce qui n’est pas « du code généré par l’homme à l’ancienne, faisant de la logique procédurale traditionnelle »
Pouvez-vous me donner quelques exemples (disons 10, importants) de projets open source qui ont une charte / un document public interdisant l’utilisation de GitHub Copilot ?
Oui, donc le bot étant un codeur est la raison pour laquelle j’ai posé cette question de manière si générale. Maintenant que j’en suis conscient, je suppose que des correcteurs orthographiques et grammaticaux (par exemple, Grammarly) aux aides et assistants de programmation comme Copilot. Je suppose qu’il n’y a pas de réponse claire et nette, n’est-ce pas ?
Dans le cas extrême, qu’en est-il des outils de refactoring d’un IDE ? L’extraction de méthode n’est pas autorisée ? Continuez sur cette lancée et vous reviendrez aux cartes perforées.
Pour ajouter, Discourse (et de nombreux plugins) utilisent des suites étendues de tests fonctionnels et de vérifications de linting.
Cela atténue massivement les problèmes de code (essayez de déployer en RoR sans vérifications…) et couvrirait également le code généré par l’IA ou le code pris en charge par Copilot. Et cela sans compter le fait que Copilot pourrait en fait trouver des problèmes que vous manquez…
La discipline de base concernant les tests sur la plateforme est inégalée et donne l’exemple à l’écosystème.
C’est aussi quelque peu discutable ? Je ne pense pas que le déploiement de code IA non supervisé se produira de sitôt… vous n’iriez même pas jusqu’à exécuter des tests (Avez-vous essayé de demander à ChatGPT une solution en EmberJS compatible avec Discourse ? Les hallucinations sont hors normes ). Peut-être que cela s’améliorera à mesure que les modèles évolueront.
Discourse doit suivre son temps ou mourir selon moi, et cela signifie explorer et adopter de nouvelles technologies lorsque cela est approprié.
En tant qu’auteur de deux plugins “IA” (tous deux écrits à la main ! ), je reconnais qu’ils doivent évidemment s’accompagner de mises en garde et de clauses de non-responsabilité, et je ne vois pas cela changer avant un bon moment…
Donc, dans le cadre de « discourse », pour rester sur le sujet car vous surfez sur cette vague et la suivante, bien sûr, c’est une question d’envergure, mais :
Où en sont les choses jusqu’à présent (si je lis bien les retours).
Il n’y a pas de composants IA actifs dans le cœur de Discourse.
Il n’y a pas de composants IA inactifs ou de code au sein du cœur de Discourse.
Tout ou partie du code de Discourse peut avoir vu le jour avec l’application indirecte ou directe d’outils IA au sein de diverses plateformes de développement et IDE, etc., disponibles pour les développeurs.
L’ajout de fonctionnalités IA au cœur n’est actuellement pas à l’ordre du jour.
Les plugins sont la passerelle vers des fonctionnalités alimentées par l’IA qui fonctionnent avec Discourse.
L’IA n’est pas un terme technique… une personne pourrait interpréter une heuristique comme de l’IA. La façon dont nous « notons » les publications en donnant du poids aux likes, aux lectures et aux vues peut être considérée comme de l’IA. Akismet peut être appelé « IA ». La liste est longue.
En l’état actuel, l’industrie est « préoccupée » par la sécurité de l’IA dans le contexte des grands modèles linguistiques.
En l’état actuel, Discourse core et Discourse AI n’expédient aucun grand modèle linguistique. Discourse AI intègre des grands modèles linguistiques existants via des API que les administrateurs peuvent saisir (Open AI et Anthropic), à l’avenir nous supporterons probablement encore plus de modèles.
Un grand modèle linguistique (LLM) est un modèle linguistique composé d’un réseau neuronal comportant de nombreux paramètres, entraîné sur de grandes quantités de texte non étiqueté à l’aide de techniques d’apprentissage profond. Ces modèles peuvent reconnaître, résumer, traduire, prédire et générer du texte ainsi que d’autres formes de données. Les LLM ont connu des avancées significatives ces dernières années, excellant dans une variété de tâches et transformant les domaines de l’intelligence artificielle, de la science et de la société dans son ensemble [1][2].
Quelques exemples de grands modèles linguistiques incluent GPT-3 d’OpenAI, qui est entraîné à prédire le mot suivant dans une phrase, un peu comme une fonction de complétion automatique de SMS [3].
Texte via Google + GPT-4
Je trouve une grande partie de cette discussion quelque peu déconcertante. Y a-t-il une crainte que nous « cancérisions » le code source de Discourse ? Y a-t-il une crainte que nous ayons une dépendance inconditionnelle et étroite à Open AI ?
Je préfère de loin le terme « perroquet stochastique », tel que proposé par Emily Bender et Timnit Gebru – il est certainement plus précis lorsqu’il s’agit de ces LLM.
Il n’y a absolument aucune intelligence là-dedans.
Vous voulez dire via des plugins, comme c’est le cas actuellement ?
Mon point de vue est que si vous êtes réellement perplexe, je parierais que vous n’êtes pas aussi activement conscient, informé ou empathique des « conséquences », car il n’y a peut-être aucune valeur apparente à analyser cela, puisque le cheval est déjà parti et que la porte de la grange est grande ouverte, alors tout le monde lâche prise !
Vous dites cancer, plus comme une arme quantique de destruction massive [à compléter], cependant certains penseront que tout cela est de l’hyperbole. C’est cool. Chacun a son opinion, mais je pense globalement et pas spécifiquement à Discourse, ce que vous faites avec le développement dépend de la façon dont cela fonctionne, donc pour clarifier le point par rapport à l’OP :
La raison principale pour laquelle je pose la question est qu’en tant qu’administrateur de Discourse, vous avez un devoir envers une base d’utilisateurs, et bien que cela puisse être un petit segment en termes de marché réel, votre base d’utilisateurs ou une partie de votre base d’utilisateurs est importante, et pourrait en fait ne pas vouloir utiliser une plateforme qui s’engage dans une quelconque forme de cette génération d’IA en ce qui concerne le contenu qu’ils génèrent, et ce pour de nombreuses raisons différentes. De la même manière qu’ils pourraient utiliser des bloqueurs de publicité, ils ne veulent pas faire partie de ce « truc » - lorsque cette question vient du premier utilisateur qui la pose, c’est parce qu’il n’y avait pas de politique d’IA clairement indiquée, vous devez également avoir une forme de réponse qui soit véridique.
Par conséquent, séparer les outils d’IA en tant que plugins qui ne sont pas essentiels est une bonne approche, mais si l’IA devenait essentielle, disons dans une future mise à jour, cela pourrait laisser place à l’hésitation ou au rejet total de la plateforme.
Tant que cette ligne reste claire et délimitée, cela pourrait être une voie satisfaisante pour tous et des orientations et assurances claires en matière de développement pourraient également être importantes ici.
Je comprends aussi qu’il est difficile de formuler cela pour que tout le monde soit d’accord, mais voici le nœud du problème maintenant, c’est ce qui se passe lorsqu’une question est posée pour une raison réelle. Si la raison est fondée ou non, elle servira de base aux utilisateurs pour prendre des décisions de valeur qui se traduisent par des actions.
S’il s’agit simplement d’une déclaration simple indiquant qu’il n’y a pas de ChatGPT ou d’IA similaire dans le cœur de Discourse, avec la réserve que certaines IA sont utilisées dans le développement et la création comme outil, cela pourrait être aussi proche d’une réponse satisfaisante pour le commun des mortels sur un forum Discourse.
Dans l’ensemble, la question de la façon dont l’IA va affecter le web et, par extension, le monde a déjà été traitée et vue en termes d’application et de conséquences, cette phase de publication officielle de ces « jouets », c’est-à-dire de donner une boîte de Pandore avec des API et tout le reste au monde du développement et, par extension, au monde, est une montée en puissance, car auparavant, c’était une phase d’apprentissage expérimental très contrôlée et relativement clandestine où cette IA avait été infusée dans une grande partie du web pendant des années sans que beaucoup de gens ordinaires ne s’en rendent compte.
Un autre aspect concerne, disons, les publicités. Je suppose que Google utilise depuis longtemps de l’IA de ce genre dans la diffusion de ses publicités et même dans ses services d’analyse, mais au moins pour l’instant, les utilisateurs peuvent déployer des logiciels de blocage et utiliser des VPN. Ces outils utilisent-ils aussi de l’IA ?!
Peut-être que cela se résume à la façon dont les gens perçoivent l’IA et peut-être que la façon la plus simple de l’articuler est que certains la voient comme étant isolée (outils), d’autres la voient comme un feu dans le tissu même de la matrice de la réalité qui doit être éteint, quoi qu’il en soit, cela se produit et cela va se produire quoi qu’il arrive, mais il y a toujours des conséquences, et parfois tout ce que vous avez, c’est le choix de participer à la création de ces conséquences ou de les atténuer, ce que nous avons avec « l’industrie », c’est qu’ils sont, à mon humble avis, les deux.
Si vous me demandez de dire “À partir de maintenant… jusqu’à la fin de l’univers, vous pouvez garantir que les LLM ne trouveront jamais leur chemin dans le produit principal”… la réponse est non.
Si vous me demandez “Pourrai-je me désengager, si quelque chose comme ça devait se produire ?” Ma réponse est… probablement… nous avons tendance à accorder aux administrateurs une énorme liberté avec les paramètres et la configuration du site.
Maintenant, vous demanderais-je de dire autre chose que ce qui est, car ce serait déraisonnable comme votre réponse ci-dessus l’indique, qui peut dire sur une ligne de temps infinie, bien sûr, c’est un effort pour établir la position actuelle du cœur de Discourse utilisant l’IA active du mieux possible.
Je ne cherche pas non plus de promesses.
Ma suggestion principale avant une réponse reste la même.
Envisagez de garder l’IA active séparée du cœur afin que les propriétaires/administrateurs aient un choix clair sans confusion. Je préfère cela à une option marche/arrêt dans l’administration, appelez-moi paranoïaque et démodé si vous voulez, je pense à une sorte de “vide d’air”.
ChatGPT et autres sont interrogés dans tellement de plateformes et d’outils, c’est sauvage et dans les grandes lignes, les implications sont vastes, alors pourquoi Discourse manquerait-il le coche (il ne l’a pas fait, le plugin est cet événement dans la chronologie du développement de Discourse).
Je considère la question comme clarifiée autant qu’elle le sera et j’espère que s’il y avait un changement démontrable dans l’équilibre du jeu, une communication très claire serait faite à l’avance ou dans un délai approprié.
Avoir un forum avec une IA active profondément intégrée au cœur pourrait être un pivot Skynet de trop pour certains administrateurs/propriétaires et/ou bases d’utilisateurs, et je pense que l’IA devrait être considérée comme quelque chose d’encore plus grand qu’un événement paradigmatique qui est méta.