Je réfléchis à cela depuis un moment, surtout depuis l’intégration du sentiment de l’IA, et après une discussion avec @maiki. Ce que je me demande, c’est s’il serait possible d’avoir à côté du nom d’utilisateur d’une personne ou dans son profil une courte description de la façon dont cette personne a tendance à se comporter ou à communiquer ? Cela pourrait être léger et fantaisiste, par exemple :
« Pardonnez Dave, parfois il s’exprime un peu plus directement que d’autres (mais il est toujours de bonne volonté :) ) »
Ou « Simon est extrêmement amical, vous devrez peut-être chercher à travers sa cordialité pour trouver son point »
Ce ne sont là que quelques exemples sortis de l’imagination. Le principal cas d’utilisation ici est que nous connaissons tous des personnes qui communiquent simplement d’une manière qui n’est pas toujours la plus amicale, même si elles sont de bonne volonté. Ou peut-être quelqu’un qui est simplement un peu excentrique dans sa façon de dire les choses. Si vous connaissez son style, vous pouvez le lire avec compréhension. Cependant, si vous ne connaissez pas cette personne et que c’est votre première interaction avec elle, certains styles de communication peuvent être mal interprétés. La franchise peut être perçue comme impolie, l’amabilité comme fausse, et certaines excentricités sont tout simplement trop étranges pour que le lecteur puisse les comprendre.
Je me demande si quelque chose comme cela serait possible, et si c’était possible, est-ce que cela fonctionnerait en pratique ?
Nous expérimentons actuellement l’analyse des sentiments sur les profils des utilisateurs (seul le personnel peut la voir). Je pense qu’à un moment donné, nous pourrions l’ouvrir à tous les utilisateurs.
Je pense que, selon les modèles, ce type d’analyse pourrait être possible à l’avenir en examinant l’historique complet des sujets/publications d’un utilisateur. Bien que cela puisse être limité dans une certaine mesure.
Je pense que cela pourrait donner de faux positifs, car comment savoir vraiment si quelqu’un a de bonnes intentions à moins de le connaître intimement en personne ?
Si ce système est mis en œuvre, des normes différentes seraient-elles appliquées à différents utilisateurs, sur la base des résultats variés d’analyses de leurs styles de communication, lorsque les modérateurs décident de confirmer ou non un signalement soulevé contre l’un de leurs messages ?
Ne prenez pas cette question mal, considérez plutôt qu’elle est posée de manière amicale et avec un style de communication direct.
Je me demande si le fait de permettre aux utilisateurs de voir leur propre analyse de sentiments pourrait donner matière à réflexion aux utilisateurs difficiles. Vous savez, comme cette astuce qui consiste à placer un miroir derrière un guichet de service à la clientèle?
Peut-être que cela pourrait être accompagné de liens expliquant comment et pourquoi modifier leurs schémas de communication pour les utilisateurs particulièrement difficiles ? Par exemple, un utilisateur montre une augmentation du sentiment agressif, mais il peut le voir dans sa propre analyse, et se voir proposer des liens vers des sujets qui décrivent des moyens alternatifs de communiquer qui donnent généralement de meilleurs résultats.
Analyse de sentiments JIT dans le Compositeur
Pour développer un peu cela, j’ai également mentionné à Saif l’idée d’avoir une analyse JIT dans le compositeur. Si un ton hostile se fait sentir, peut-être que le compositeur leur donne un avertissement pour qu’ils se calment d’abord et reviennent plus tard ?
Encourager les utilisateurs à faire preuve d’introspection quant à leur propre comportement semble en effet une pratique judicieuse. La FAQ et les Conditions d’utilisation de Discourse sont très bien conçues pour établir un ton égalitaire et accueillant au sein des nombreuses communautés qui utilisent cette excellente plateforme de discussion. Il est réconfortant de rejoindre une communauté lorsqu’elle donne dès le départ l’impression que tous les membres devront se conformer aux mêmes normes, qui impliquent le respect mutuel. Il serait regrettable qu’un système d’analyse de sentiments donne plutôt l’impression erronée qu’il pourrait offrir à certains utilisateurs, comme Dave, dans le message original, une licence pour s’écarter de ces normes, tandis que les utilisateurs sympathiques, comme Simon, devraient continuer à bien se comporter.
L’analyse des sentiments exposée publiquement par utilisateur n’est pas quelque chose dans lequel je suis personnellement à l’aise. Je ne suis même pas sûr d’être à l’aise avec le fait que le personnel puisse voir cela / ou si cela devrait être une fonctionnalité.
Mon principal problème avec le « sentiment » est qu’il s’agit intrinsèquement d’une opinion et d’un jugement basé sur une interprétation des mots. Je ne suis pas convaincu que nous devrions donner cela à l’IA.
Je ne pense pas que nous ayons de données montrant ce qu’est le sentiment et comment il est dérivé ? À ma connaissance, c’est plutôt une boîte noire, mais je pourrais me tromper.
Quelques problèmes que j’ai avec l’analyse des sentiments :
Si quelqu’un est une personne qui remet en question les idées et offre des réfutations, est-ce un sentiment négatif ?
Qu’en est-il de la positivité toxique ?
De plus, ce forum est-il spécifique ? Évalue-t-il en fonction du contexte général du forum dans son ensemble ? Que se passe-t-il s’il existe un forum fermé pour discuter d’idées que certains considèrent comme « fausses », l’IA sentimentale décide-t-elle du sujet juste/faux ? Ou cela est-il dérivé au sein de la communauté ?
Si l’IA hallucine couramment, nous donnant de petites inexactitudes tout le temps, comment pouvons-nous être sûrs qu’elle n’hallucinerait pas également dans son analyse des sentiments ?
Je pense que je suis personnellement plus enclin à « pas public » pour l’analyse individuelle, car étiqueter quelqu’un comme « négatif » (ou autre) peut conduire à des stéréotypes injustes. Bien sûr, peut-être que quelqu’un est négatif, ou peut-être que l’anglais n’est pas sa langue maternelle… ou peut-être que l’IA est biaisée envers certaines normes culturelles dominantes.
Cependant, je pense qu’il est juste que si un administrateur utilise un outil comme celui-ci… l’individu puisse voir ce qu’il dit à son sujet.
Pour rendre les choses complètement cycliques, j’ai interrogé Chat-GPT sur cette discussion… et il pose une opinion raisonnable :
Il est crucial de tenir compte de la nature subjective de l’analyse des sentiments par l’IA et de son potentiel à mal interpréter le contexte ou les nuances culturelles. De plus, nous devons être conscients des problèmes de confidentialité et du risque d’étiqueter ou de stéréotyper les utilisateurs en fonction de profils générés par l’IA.
Peut-être qu’un terrain d’entente pourrait être exploré. Au lieu d’étiquettes publiques, nous pourrions envisager des outils optionnels pour la réflexion personnelle, permettant aux utilisateurs de visualiser et de contempler en privé leurs propres modèles de communication. Cela pourrait favoriser la conscience de soi sans catégoriser ou juger publiquement.
Au lieu d’étiqueter « positif », « négatif », etc., cela peut être formulé comme « la formulation que vous utilisez peut parfois être perçue par d’autres comme négative ou inutile » et peut-être même laisser l’utilisateur donner son avis sur la précision de cela de son point de vue.
Il est utile de souligner le problème réel qui doit être résolu.
Il y a beaucoup de choses que je pourrais dire à ce sujet, mais je ne pense pas que cela mènerait à une conversation utile ici. Peut-être que la chose la plus utile que je puisse dire est qu’en tant que personne qui (j’espère) est généralement un utilisateur non difficile, je n’engagerais pas avec un forum qui afficherait quelque chose comme un « style de communication » ou un score de sentiment généré par l’IA sur mon profil. Cela pourrait donc se résumer à l’essentiel : pour le bénéfice potentiel d’améliorer le style de communication de certains utilisateurs difficiles, vous risqueriez de perdre les contributions de certains utilisateurs non difficiles.
Peut-être que je devrais clarifier. Cette zone est encore expérimentale et nous essayons d’apprendre/d’améliorer ce qui peut et devrait être fait. L’ouverture spécifique de cette zone est encore loin d’être une réalité dans le futur, si jamais elle l’est.
Cela me semble être la meilleure solution. Non seulement cela encourage l’utilisateur à améliorer ses publications, mais les commentaires peuvent également se répercuter sur la façon dont il communique avec les autres dans sa vie quotidienne. Ce serait un effet secondaire agréable
Peut-être que de tels commentaires ne devraient apparaître que lorsqu’un sujet d’un utilisateur est significativement plus toxique que le reste de la communauté, ou si son style de communication correspond à un style souvent mal compris ?
Et votre désaccord a été présenté avec un ton très raisonnable également. Actuellement, je vois cela comme un problème de raffinement — Une meilleure IA verrait cette réponse comme : « S’oppose généralement à quelque chose, mais avec un ton neutre »
En fait, GPT4 fait cela :
Le sentiment du texte est sceptique et préoccupé par la fiabilité et les implications éthiques de l’analyse des sentiments par l’IA.
Le ton du texte est prudent et interrogateur, reflétant une inquiétude et un scepticisme quant à l’analyse des sentiments par l’IA.
Donc, c’est négatif, dans le sens de « pas favorable », plutôt que négatif dans le sens de « impoli/nuisible ».
En examinant les réponses ici, je pense que la solution la plus précieuse et acceptable serait une intervention JIT (Juste à temps) dans les écrits qui sont trop toxiques, ou qui contiennent des précurseurs de malentendus avant qu’ils ne soient publiés. L’utilisateur a toujours le droit de publier le contenu original, nous faisons simplement notre part pour nous assurer qu’il est adéquatement informé des aspects négatifs que son écriture peut créer sous sa forme actuelle, et nous présentons une alternative qui pourrait être plus productive.
Cela semble être une bonne alternative très productive - très favorable aux utilisateurs de ce forum et potentiellement à beaucoup d’autres, si cette fonctionnalité est offerte largement, et évite le risque qu’ils pensent qu’une évaluation globale cachée de leur style de communication est utilisée pour les gérer.
C’est un sujet intéressant, je pense qu’il pourrait être utile de commencer d’abord si les gens voulaient décrire leur propre façon de communiquer avec leurs propres mots.
Pour moi, j’ai du mal à communiquer par SMS, sauf pour des communications assez simples/courtes comme « la réunion sera à 10h30 du matin » ou quelque chose comme ça.
Avec la communication en personne, j’ai entendu dire que seulement environ 7 % de la communication peut être définie par les mots réels prononcés ou écrits. Bien qu’il y ait aussi des limites aux réunions en personne / aux conversations téléphoniques, la plateforme Discourse peut être utile principalement pour publier des textes plus longs qui peuvent prendre du temps à examiner et pour que de nombreuses personnes puissent communiquer simultanément sans s’interrompre.
Pour éviter les malentendus, il peut être utile d’avoir des réunions de suivi au moins une fois par semaine ou par mois pour examiner où en sont les gens et essayer de donner un sens à ce qui est écrit.
Alors peut-être un plugin comme User Notes ? Où chaque membre peut appliquer sa propre note privée ? Ou quelque chose de visible par tous ?
Un problème avec les choses dites publiquement est que si l’utilisateur “étiqueté” est profilé par une source extérieure. Ils pourraient s’offenser. Sauf si c’est quelque chose qu’ils ont choisi.
Il existe un plugin Discourse non maintenu appelé User Feedback où les utilisateurs peuvent évaluer et, si configuré, laisser un avis. Cependant, le même problème pourrait causer des catastrophes si les utilisateurs sont offensés par ce qui est publié.
J’ai eu, disons, un utilisateur immature qui a pété les plombs à cause d’une réaction .
Un gars il y a longtemps, avant que Discourse n’ajoute l’option de masquer les utilisateurs, a créé un script Tampermonkey qui permettait à l’utilisateur d’ajouter des personnes à masquer les publications et, pour s’amuser, avait un système d’étiquetage. Il décorait les administrateurs, les modérateurs, l’auteur du sujet et vous pouviez étiqueter les utilisateurs. Chaque utilisateur pouvait essentiellement avoir un composant de thème de navigateur. Je pourrais essayer de voir si je peux trouver le script car j’imagine qu’il ne serait pas trop difficile de le convertir en composant de thème.
Peut-être en utilisant un champ utilisateur personnalisé pour ajouter un utilisateur et une étiquette.
C’est une excellente solution pour une équipe ou un groupe qui a de telles opportunités de contact. Comment appliquer cela à grande échelle et avec plusieurs fuseaux horaires ?
Pour nous, il y aura des milliers de collègues communiquant à travers tous les fuseaux horaires, au sein de nombreuses équipes. Malheureusement, de tels appels ne sont pas possibles. Même s’ils l’étaient, ces appels retireraient des parties importantes de la conversation de la plateforme, empêchant ainsi les autres d’en tirer des leçons
Très vrai. Je vois cela comme une raison pour laquelle cela ne peut être fait que par une partie qui ne peut pas bénéficier d’une mauvaise caractérisation de l’utilisateur – comme une IA.
Plus j’y pense, plus j’ai l’impression que la proposition originale d’un style de communication est surpassée par un coach de communication JIT dans le compositeur. Plus que tout, j’adore l’idée qu’un tel coaching de communication se répercute dans le monde extérieur. Le « style de communication » n’y parviendrait tout simplement pas, et comme vous le dites, cela rendrait les gens compréhensiblement furieux s’ils se sentaient mal caractérisés de quelque manière que ce soit (et il y a de fortes chances qu’ils le soient).
Les réunions sont limitées en termes d’échelle et ne sont pas recommandées pour différents fuseaux horaires.
Une option consiste à organiser des appels questions-réponses où les gens peuvent soumettre leurs questions à l’avance, puis l’appel est enregistré afin qu’ils puissent l’écouter plus tard.
C’est en fait une excellente occasion d’aborder un principe du RGPD applicable ici, l’article 22, concernant la prise de décision automatisée.
Le fait qu’une étiquette négative publique soit appliquée à vos publications ou à votre profil est quelque chose à quoi un utilisateur pourrait raisonnablement s’opposer et demander une évaluation humaine.
Le logiciel doit donc absolument permettre à l’administrateur de remplacer ce qu’il décide d’afficher publiquement.
Les étiquettes comme celles théorisées dans le fil de discussion initial, je me sentirais à l’aise de les appliquer manuellement en tant qu’administrateur, mais les étiquettes que j’ai vues de la technologie actuelle d’analyse des sentiments (cette personne a tendance à être négative !) ne le sont absolument pas. Il y a aussi des problèmes majeurs de communication concernant ce que la technologie considère comme négatif par rapport à ce que les gens pensent lorsqu’ils voient le négatif comme un jugement. Cela n’est pas aidé par le fait que « expliquer ce que le modèle fait » est un domaine de recherche ouvert.
La fonctionnalité était quelque peu inachevée - elle ne prenait pas en charge l’exploration détaillée, donc les étiquettes semblaient très aléatoires.
La fonctionnalité a fuité dans le public par erreur en raison d’un bug interne.
Nous ne sommes même pas sûrs que la fonctionnalité apporte de la valeur.
Nous avons annulé ce changement pour le moment et nous nous regroupons.
Dans l’ensemble, j’aime l’analyse des sentiments, mais c’est une fonctionnalité très délicate à bien réaliser. Voici quelques endroits où elle peut potentiellement aider à la modération :
Le sentiment sur le forum cette semaine est très négatif - car beaucoup de gens se plaignent des sujets X et Y.
L’utilisateur X, qui est habituellement très positif, est très très négatif ce mois-ci - peut-être le contacter ?
Etc…
Moins intéressé par l’étiquetage, beaucoup plus intéressé par la détection d’“anomalies” ou les mauvaises tendances générales.