Dans un problème quasi connexe, l’un des chroniqueurs du WSJ a soumis le système de commande par chatbot dans les restaurants Hardee’s à 30 tests, et il a apparemment fait un très bon travail, seulement 3 ont dû être référés à des humains pour réponse.
Pouvez-vous mettre un lien vers l’annonce ?
Cela donnerait à ceux d’entre nous qui sont hors de la boucle (hyper rapide) un peu de contexte :-)
Parfait, merci @RGJ ![]()
Il semble que cela concerne spécifiquement cet engagement :
Je pense donc qu’il appartient vraiment aux entreprises de faciliter cela. Mais le filigrane de texte est assez impossible, comme l’a mentionné @merefield plus haut.
Que vous attendez-vous à ce que Discourse fasse dans ce cas @MikeNolan ? Si un utilisateur copie-colle simplement du texte généré par l’IA, il n’y a aucun moyen pour Discourse de le savoir (à part exécuter des détecteurs de spam et d’IA), donc je ne vois pas vraiment comment cet accord spécifique change quoi que ce soit pour l’instant.
Le contenu généré par l’IA collé par l’utilisateur n’est probablement pas quelque chose que Discourse peut gérer, car il est susceptible d’être indiscernable du contenu généré par l’homme (à part peut-être être mieux écrit), mais si vous utilisez un plugin officiel d’IA Discourse, peut-être que Discourse peut faire quelque chose pour le filigrane ou autrement indiquer ce qu’il génère ?
Ah de cette façon, oui, je vois comment cela a du sens ![]()
Nous avons commencé à travailler sur cela, par exemple, ce résumé de sujet est filigrané :
Le travail sur l’interface utilisateur de résumé est celui qui a reçu le plus d’attention, c’est donc là que nous sommes déjà proches de la forme finale et que nous avons cette configuration. D’autres suivront.
Peut-être un peu sémantique, mais deux propriétés des filigranes numériques sont qu’ils sont cachés au spectateur occasionnel et difficiles à supprimer.
Je pense que la reconnaissance OUVERTE du contenu généré par l’IA est importante, tant pour le texte que pour les images.
Les signatures numériques cachées sont plus utiles pour des choses comme l’application des droits d’auteur sur les images.
Je suis actif sur le forum de photographie Ugly Hedghog, où la question de savoir si les images générées ou modifiées par l’IA se qualifient ou non de photographies est un sujet brûlant. (Certaines images générées par l’IA ont remporté des concours de photographie.)
Le problème dont nous discutons actuellement est que des personnes mal intentionnées utiliseront l’IA pour générer des choses, puis supprimeront la reconnaissance et tenteront de les présenter comme du contenu généré par l’homme. Cela implique la nécessité d’une « étiquette » d’origine difficile à supprimer.
L’intention n’est pas nécessairement malveillante, mais elle est moins qu’honnête.
Bonne chance pour trouver un moyen de « taguer » du texte généré par l’IA qui ne puisse être contourné par quelque chose d’aussi rudimentaire que le copier-coller.
Les caractères de largeur nulle pourraient-ils être utilisés à cette fin ?
Non, ceux-ci peuvent facilement être supprimés en faisant passer le contenu par un filtre qui ne conserve que les caractères alphabétiques normaux. L’ajout de filigranes au texte est très, très difficile. Vous ne pouvez pratiquement pas le faire au niveau de la représentation des caractères.
Cet article de blog de Scott Aaronson explique un peu comment cela pourrait fonctionner. Faites défiler jusqu’à la section « Mes projets chez OpenAI ». La méthode décrite là-bas est à l’épreuve du copier-coller @MikeNolan
Merci, c’est intéressant :
Mon projet principal jusqu’à présent a été un outil pour marquer statistiquement les sorties d’un modèle de texte comme GPT. En gros, chaque fois que GPT génère un long texte, nous voulons qu’il y ait un signal secret, sinon inaperçu, dans ses choix de mots, que vous pouvez utiliser pour prouver plus tard que oui, cela vient de GPT. Nous voulons qu’il soit beaucoup plus difficile de prendre une sortie GPT et de la faire passer pour venant d’un humain. Cela pourrait être utile pour prévenir le plagiat académique, évidemment, mais aussi, par exemple, la génération de masse de propagande… Ou l’usurpation du style d’écriture de quelqu’un afin de l’incriminer. Ce sont toutes des choses que l’on pourrait vouloir rendre plus difficiles, n’est-ce pas ?
…
Donc, pour marquer, au lieu de sélectionner le prochain jeton au hasard, l’idée sera de le sélectionner de manière pseudo-aléatoire, en utilisant une fonction pseudo-aléatoire cryptographique, dont la clé n’est connue que d’OpenAI. Cela ne fera aucune différence détectable pour l’utilisateur final, en supposant que l’utilisateur final ne puisse pas distinguer les nombres pseudo-aléatoires des nombres véritablement aléatoires.
L’une de mes préoccupations concernant l’identification de textes générés par l’IA est qu’elle cible accidentellement des textes humains bien écrits.
Le texte bien écrit et généré par un humain semble être l’exception sur de nombreux forums. :soupir:
Je reviens à la motivation.
Si vous identifiez une mauvaise intention, bannissez ou suspendez.
S’il s’agit d’un texte bien écrit et bien intentionné, dont les faits sont avérés, laissez-le ?
Et si la langue maternelle de l’utilisateur n’est pas l’anglais et qu’il a utilisé ChatGPT pour améliorer sa grammaire ?
Soit dit en passant, voici comment je préface les résumés de sujets d’IA :

(besoin d’un petit ajustement CSS !)
OK, je crains que cela ne vise mes publications ![]()
Je pense que oui. Je ne vois pas de problème à ce que les gens utilisent l’IA pour les aider à composer des publications, en supposant qu’il y ait un être humain réel qui décide si le texte généré par l’IA est digne d’être publié ou non.
Il existe une multitude d’outils qui peuvent aider à améliorer la grammaire, je ne sais pas si ChatGPT est meilleur que les autres.
Améliorer la grammaire est une question quelque peu différente de la génération de contenu « original », cependant. Les moteurs d’IA commencent à être ciblés par les propriétaires de contenu qui veulent être remboursés pour avoir utilisé leur matériel pour entraîner le moteur d’IA.

