pgr
Mars 29, 2023, 5:33
21
Concernant les personnes qui répondent en copiant-collant depuis ChatGPT, voici un exemple curieux de réaction :
Pardon me for raging, I just find it weird that some people find it acceptable, and therefore find it weird that it needs to be spelled out. Itâs literally regurgitating unverified advice as recommendation. And unlike pointing to another person...
Je vois cela aussi sur les forums que je fréquente le plus (qui sont de nature assez technique). Un nouvel utilisateur spécifique publie 8 ou 9 réponses par jour, toutes provenant de ChatGPT.
Il y a beaucoup dâinformations prĂ©cieuses, mais il y a aussi des inexactitudes et des choses carrĂ©ment trompeuses (imaginez une liste compliquĂ©e en 7 Ă©tapes, je regarde lâĂ©tape 6 et je sais que cela ne fonctionnera jamais⊠mais beaucoup de gens ne le savent pas).
Cet utilisateur semble essayer de se bĂątir une rĂ©putation⊠nous envisageons de demander aux gens dâĂ©tiqueter toujours explicitement le contenu de ChatGPT comme ce quâil est. Une demande que nous ne pouvons quâespĂ©rer quâils respecteront, mais que nous ne pourrons pas vraiment faire respecter.
Cela me rend mal Ă lâaise, je ne pense pas que cela nous mĂšnera Ă un bon endroit. Je crains que des conversations dĂ©nuĂ©es de sens ne finissent par envahir Internet. Nous pourrions ĂȘtre obligĂ©s de vivre de vraies vies dans le monde rĂ©el, je ne suis pas sĂ»r que nous puissions gĂ©rer celaâŠ
14 « J'aime »
MikeNolan
(Mike Nolan)
Mars 29, 2023, 5:39
22
Mon fils aĂźnĂ© se dĂ©lecte de mâenvoyer des articles et des publications montrant les inanitĂ©s de chatGPT. Je nâarrĂȘte pas de lui dire que la technologie chatGPT est peut-ĂȘtre actuellement au niveau de la 2e ou 3e annĂ©e dans de nombreux domaines, comme les mathĂ©matiques. Pour citer un de mes professeurs il y a des annĂ©es, il ne sait pas ce quâil ne sait pas.
Je ne lui ai pas encore demandĂ© de recette pour faire un gĂąteau, jâose Ă peine imaginer ce quâil pourrait mal faire. (Jâai vu trop de recettes publiĂ©es par des humains en ligne qui sont totalement irrĂ©alisables.)
Je pense que la conversation dĂ©nuĂ©e de sens a envahi Internet avec lâinvention de Facebook et Twitter. Ceux dâentre nous qui sont assez vieux pour se souvenir de USENET, quand il Ă©tait encore juste dâappeler cela un jeu vidĂ©o pour les personnes qui savent lire, pourraient tracer la ligne encore plus loin dans le passĂ©.
3 « J'aime »
BenLeong
(Ben Leong)
Mars 30, 2023, 5:25
23
Nous ressentons certainement cela en ce moment - nous gérons un forum Discourse gratuit et ouvert, et nous voyons beaucoup de spambots de type ChatGPT passer à travers la protection anti-spam existante.
Akismet ne suit pas leur rythme en ce moment, car je nâai jamais vu autant de comptes spam passer auparavant. Ils ont tendance Ă poster des commentaires apparemment inoffensifs qui rĂ©pondent Ă une question (ou la reformulent, puis y rĂ©pondent) avec une rĂ©ponse assez verbeuse qui semble utile, mais qui manque de contexte ou de nuance par rapport Ă la question dâorigine.
Je suppose que les forums Discourse sont ciblĂ©s comme terrain dâessai, pour des raisons similaires aux sites WordPress il y a une dĂ©cennie : câest une technologie open-source qui est assez largement utilisĂ©e, donc les bots qui peuvent naviguer dans le flux dâinscription sur un forum peuvent probablement accĂ©der Ă beaucoup dâautres.
Nous ne voyons pas actuellement le comportement traditionnel des spambots (crĂ©er un compte, poster quelque chose dâassez inoffensif pour passer les mesures anti-spam, puis le modifier dans les 48 heures pour ajouter des liens) - donc je ne suis pas sĂ»r de ce quâest le but final ici. Il est possible que nous supprimions ces messages trop rapidement, et quâils soient plus tard modifiĂ©s en fermes de backlinks.
13 « J'aime »
sam
(Sam Saffron)
A scindé ce sujet ()
Avril 1, 2023, 12:10
24
8 messages ont Ă©tĂ© dĂ©placĂ©es vers un nouveau sujet : LLM et lâimpact sur le support client
Jim Kleiber:
Alors que je suis lâactualitĂ© concernant ChatGPT, GPT-4 et dâautres LLM, et que jâai jouĂ© avec le Discourse Chatbot (supportant ChatGPT) , je me sens excitĂ©, terrifiĂ© et incertain de ce que cela signifiera pour la communication en ligne.
Que vous conseille ChatGPT au sujet de votre problĂšme Et tous les autres ? Et sont-ils dâaccord entre eux
4 « J'aime »
Je pense quâune 2FA obligatoire devrait filtrer la plupart des bots. Des avis ?
Sinon, je demanderais probablement aux utilisateurs de remplir un typeform aprÚs la création de leur compte et de les ajouter à un groupe « vérifié » via un webhook lors de la soumission du formulaire et de rendre le forum en lecture seule pour tous ceux qui ne sont pas vérifiés.
Cela dit, maintenant que les bots peuvent naviguer sur le web et comprendre les intentions des boutons, jâai lâimpression que câest une solution palliative.
2 « J'aime »
La plupart des forums sont ouverts (il nâest pas nĂ©cessaire de sâinscrire pour visiter) et peuvent ĂȘtre trouvĂ©s avec Google et autres. La 2FA nâempĂȘchera pas cela.
1 « J'aime »
La 2FA obligatoire pour la crĂ©ation de compte fonctionnera sur 99,9 % des botsâŠ
5 « J'aime »
Heliosurge
(Dan DeMontmorency)
Avril 3, 2023, 8:16
29
Voici un robot intéressant.
VIDEO
2 « J'aime »
MikeNolan
(Mike Nolan)
Avril 3, 2023, 9:24
30
Je me demande si quelquâun formĂ© Ă la lecture labiale serait capable de le comprendre sans le son ?
3 « J'aime »
MikeNolan
(Mike Nolan)
Avril 6, 2023, 12:45
31
Une autre raison dâĂȘtre prudent quant Ă lâutilisation de la technologie ChatGPT.
Un professeur de droit californien figurait sur une liste gĂ©nĂ©rĂ©e par ChatGPT de professeurs de droit accusĂ©s de harcĂšlement sexuel. ChatGPT a citĂ© une dĂ©pĂȘche du Washington Post comme source.
Le problĂšme est quâune telle dĂ©pĂȘche du Washington Post nâexiste pas et quâaucune accusation de harcĂšlement sexuel nâa jamais Ă©tĂ© portĂ©e contre ce professeur de droit.
Voici un lien vers lâarticle, sur le site du Washington Post, coĂŻncidence :
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/
Si ce lien ne fonctionne pas, essayez celui-ci : https://wapo.st/3KhD2R2
9 « J'aime »
MikeNolan
(Mike Nolan)
Avril 14, 2023, 12:37
32
Tout le monde peut ĂȘtre tranquille, le ministĂšre du Commerce a annoncĂ© des plans pour sâassurer que lâIA dispose des « garde-fous » appropriĂ©s
Du WSJ :
« Il est incroyable de voir ce que ces outils peuvent faire, mĂȘme dans leur relative enfance », a dĂ©clarĂ© Alan Davidson, qui dirige la National Telecommunications and Information Administration, lâagence du ministĂšre du Commerce qui a publiĂ© la demande de commentaires. « Nous savons que nous devons mettre en place des garde-fous pour nous assurer quâils sont utilisĂ©s de maniĂšre responsable. »
:sarcasme désactivé :
3 « J'aime »
Mevo
Avril 16, 2023, 12:14
33
Oui⊠si le texte était encore écrit par des participants humains .
Ce qui ne sera probablement plus le cas, de plus en plus. DâoĂč le problĂšme.
LâIA peut aggraver tout ce que vous avez dĂ©crit, et rendre la dĂ©tection de plus en plus difficile.
Les auteurs de livres, câest une chose. Ne plus savoir Ă qui lâon a affaire dans les discussions en ligne, câen est une autre. Tous les indices que lâon est censĂ© tirer dâun texte Ă©crit sont dĂ©formĂ©s sâil nâest pas Ă©crit authentiquement par un individu, mais Ă lâaide de lâIA.
3 « J'aime »
Jagster
(Jakke Lehtonen)
Avril 16, 2023, 12:26
34
Câest une question totalement dĂ©pendante de la niche. Mes cercles sont fortement connectĂ©s Ă la nutrition et Ă lâalimentation des chiens. Je vois immĂ©diatement si un texte est gĂ©nĂ©rĂ© par lâIA â parce que les IA pensent quâun million de mouches ne peuvent pas se tromper.
La mĂȘme chose est visible lorsque nous parlons de randonnĂ©e, de kayak, etc.
Donc, cela dĂ©pend du type de secte qui a Ă©crit la plupart des textes sur le web. Câest pourquoi tous ceux qui ne sont pas codeurs dans mes amis/ma communautĂ© comptent lâIA comme une autre hype â pour le moment en tout cas
2 « J'aime »
Je viens de voir ça et jâai pensĂ© que ce serait pertinent pour la facilitĂ© avec laquelle il sera (en fait, câest dĂ©jĂ le cas) dâinsĂ©rer des rĂ©ponses dâIA dans chaque champ de saisie :
3 « J'aime »
TrĂšs lĂ©gĂšrement NSFWâŠ
5 « J'aime »
Jâai le premier cas dâun utilisateur utilisant probablement ChatGPT pour des rĂ©ponses argumentatives. Cette personne est dĂ©jĂ une troll limite, et je ne suis pas satisfait de cette Ă©volution.
Un autre utilisateur a utilisĂ© une nouvelle extension Chrome pour lâidentification :
Je ne suis pas encore sĂ»r de la qualitĂ© de cette extension - elle semble par dĂ©faut sur « humain » pour des Ă©chantillons insuffisants, mais peut manquer certains types/styles de texte gĂ©nĂ©rĂ©s par lâIA (comme les limericks gĂ©nĂ©rĂ©s par ChatGPT).
Mon plan de modĂ©ration actuel, si lâon peut appeler cela ainsi, est de laisser les autres utilisateurs identifier et dĂ©noncer ces abus, et de laisser la pression sociale servir de moyen de dissuasion. Je ne suis pas sĂ»r de ce qui peut ĂȘtre fait dâautre pour le moment.
2 « J'aime »
Ed_S
(Ed S)
Avril 21, 2023, 8:40
38
Dan Eastwood:
Mon plan de modĂ©ration actuel, si lâon peut appeler ça ainsi, est de laisser les autres utilisateurs identifier et dĂ©noncer ces abus, et de laisser la pression sociale ĂȘtre le moyen de dissuasion. Je ne suis pas sĂ»r de ce qui dâautre peut ĂȘtre fait pour le moment.
Si cela se produit sur mon forum, je voudrai prĂ©ciser que la publication de textes gĂ©nĂ©rĂ©s par machine sans les annoter est une infraction signalable. Essentiellement, câest trompeur, donc câest contre les directives.
3 « J'aime »
Ed S:
Si cela se produit sur mon forum, je tiens Ă prĂ©ciser que la publication de textes gĂ©nĂ©rĂ©s par machine sans annotation est une infraction signalable. Essentiellement, câest trompeur, donc câest contre les directives.
Je suis dâaccord en principe, mais les critĂšres dâidentification du texte gĂ©nĂ©rĂ© par machine sont une cible mouvante. La bonne nouvelle est que lâextension Chrome nâa gĂ©nĂ©rĂ© aucun faux positif jusquâĂ prĂ©sent, bien quâen tests trĂšs limitĂ©s. La mauvaise nouvelle est le travail supplĂ©mentaire pour les modĂ©rateurs afin de faire la dĂ©termination, et la nĂ©cessitĂ© de se tenir au courant des outils de dĂ©tection les plus rĂ©cents Ă mesure que le texte gĂ©nĂ©rĂ© par lâIA sâamĂ©liore de plus en plus. Le texte IA atteindra Ă©ventuellement un point oĂč la dĂ©tection sera problĂ©matique.
3 « J'aime »
Ed_S
(Ed S)
Avril 22, 2023, 8:42
40
En effet, mais jây pense comme Ă un problĂšme de modĂ©ration. Nos modĂ©rateurs humains surveillent dĂ©jĂ les publications qui sont conflictuelles, impolies, insultantes, rĂ©pĂ©titives ou trompeuses. Câest une extension de cela : et avec une norme culturelle locale qui dit que les vraies personnes ne publient pas de texte gĂ©nĂ©rĂ© par machine sans avis de àŠžàŠ€àŠ°à§àŠàŠ€àŠŸ, tout ce qui ressemble (ou sent) le texte gĂ©nĂ©rĂ© par machine, surtout de la part dâun utilisateur relativement nouveau, est automatiquement suspect.
Je pense que les cerveaux humains, en particulier les cerveaux des modĂ©rateurs, deviendront raisonnablement bons pour repĂ©rer le texte gĂ©nĂ©rĂ© par machine. Lorsque le texte gĂ©nĂ©rĂ© par machine sera indiscernable dâune publication utile qui fait avancer la conversation, nous nâaurons plus de problĂšme. (Les personnes qui font des publications de faible effort et de faible valeur seront peut-ĂȘtre pĂ©nalisĂ©es.)
3 « J'aime »