Tenho pensado nisso há um tempo, especialmente desde a integração de sentimento de IA e após uma discussão com @maiki. O que eu me pergunto é, seria possível ter, ao lado do nome de usuário de uma pessoa ou em seu perfil, uma breve descrição de como a pessoa tende a se comportar ou se comunicar? Poderia ser leve e lúdico, por exemplo:
“Perdoem o Dave, às vezes ele fala um pouco mais diretamente do que os outros (mas ele sempre tem boas intenções :))”
Ou “Simon é extremamente amigável, você pode precisar procurar através da simpatia para encontrar o ponto dele”
Esses são apenas alguns exemplos que me vieram à cabeça. O principal caso de uso aqui é que todos nós conhecemos pessoas que simplesmente se comunicam de uma maneira que nem sempre é a mais amigável – mesmo que tenham boas intenções. Ou talvez alguém que seja simplesmente um pouco peculiar na forma como diz essas coisas. Se você está familiarizado com o estilo deles, pode interpretá-lo com compreensão. No entanto, se você não está familiarizado com essa pessoa e é sua primeira interação com ela, certos estilos de comunicação podem ser mal interpretados. A franqueza pode ser vista como rude, a simpatia pode ser vista como falsa, e algumas peculiaridades são simplesmente muito estranhas para o leitor entender.
Eu me pergunto se algo assim seria possível e, se possível, funcionaria na prática?
Atualmente estamos experimentando a análise de sentimento em perfis de usuários (apenas a equipe pode vê-la). Acho que em algum momento poderemos disponibilizar isso para que todos os usuários possam visualizá-la.
Acho que, dependendo dos modelos, esse tipo de análise pode ser possível no futuro, analisando todo o histórico de tópicos/postagens de um usuário. Embora isso possa ser limitado até certo ponto.
Acho que isso pode gerar falsos positivos, pois como você realmente sabe se alguém tem boas intenções, a menos que o conheça intimamente pessoalmente?
Se este sistema for implementado, seriam aplicados padrões diferentes a usuários diferentes, com base em resultados variados de análises de seus estilos de comunicação, quando os moderadores decidirem se confirmam ou não uma sinalização feita contra uma de suas postagens?
Por favor, não interprete mal esta pergunta. Em vez disso, considere que ela é feita de forma amigável e com um estilo de comunicação direto.
Talvez isso pudesse vir com links sobre como e por que mudar seus padrões de comunicação para usuários particularmente desafiadores? Por exemplo, um usuário está mostrando um aumento no sentimento agressivo, mas pode ver isso em sua própria análise e receber links para alguns tópicos que descrevem maneiras alternativas de se comunicar que normalmente obtêm melhores resultados também.
Análise de sentimento JIT no Composer
Expandindo um pouco sobre isso, também mencionei a Saif a ideia de ter uma análise JIT no composer. Se um tom hostil estiver vindo, talvez o composer lhes dê um aviso para esfriar a cabeça primeiro e voltar mais tarde?
Encorajar os usuários a serem introspectivos em relação ao seu próprio comportamento parece ser uma prática sensata. O FAQ e os Termos de Serviço do Discourse são muito bem projetados para estabelecer um tom igualitário acolhedor dentro das inúmeras comunidades que usam esta excelente plataforma para discussão. É edificante ingressar em uma comunidade quando ela apresenta desde o início a impressão de que todos os membros serão esperados a se conformar aos mesmos padrões que implicam em ser respeitoso uns com os outros. Seria lamentável se um sistema de análise de sentimento, em vez disso, desse a impressão equivocada de que poderia oferecer a alguns usuários, como Dave, na postagem original, licença para se afastar de tais padrões, enquanto os amigáveis, como Simon, seriam esperados a continuar se comportando bem.
A análise de sentimento sendo exposta publicamente por usuário não é algo com que me sinto pessoalmente confortável. Também não tenho certeza se me sinto confortável com o fato de a equipe poder ver isso / ou se isso deveria ser um recurso.
Minha principal questão com o “sentimento” é que ele é inerentemente uma opinião e um julgamento baseado em uma interpretação de palavras. Não estou convencido de que deveríamos estar dando isso à IA.
Não acho que tenhamos dados que mostrem o que e como o sentimento é derivado? Pelo que sei, é mais uma caixa preta, mas posso estar enganado.
Alguns problemas que tenho com a análise de sentimento:
Se alguém é uma pessoa que desafia ideias e oferece refutações, isso é um sentimento negativo?
E quanto à positividade tóxica?
Além disso, isso é específico do fórum? Ele avalia com base no contexto geral do fórum como um todo? E se houver um fórum fechado para discutir ideias que alguns veem como “erradas”, a IA de sentimento decide o tópico certo/errado? Ou isso é derivado dentro da comunidade?
Se a IA está comumente alucinando, nos dando pequenas imprecisões o tempo todo, como podemos ter certeza de que ela não alucinaria em sua análise de sentimento também?
Eu acho que pessoalmente prefiro “não público” para análise individual, porque rotular alguém como “negativo” (ou qualquer outra coisa) pode levar a estereótipos injustos. Claro, talvez alguém seja negativo, ou talvez o inglês não seja sua primeira língua… ou talvez a IA seja tendenciosa em relação a certas normas culturais mainstream.
Embora eu ache justo que, se um administrador usar uma ferramenta como essa… o indivíduo possa ver o que ela diz sobre ele.
Para tornar as coisas totalmente cíclicas, perguntei ao Chat-GPT sobre essa discussão… e ele apresenta uma opinião razoável:
É crucial considerar a natureza subjetiva da análise de sentimento da IA e seu potencial para interpretar mal o contexto ou as nuances culturais. Além disso, devemos estar cientes das preocupações com a privacidade e do risco de rotular ou estereotipar usuários com base em perfis gerados por IA.
Talvez um meio-termo possa ser explorado. Em vez de rótulos públicos, poderíamos considerar ferramentas opcionais para reflexão pessoal, permitindo que os usuários visualizem e contemplem privadamente seus próprios padrões de comunicação. Isso poderia promover a autoconsciência sem categorizar ou julgar publicamente.
Em vez de rotular “positivo”, “negativo”, etc., isso pode ser apresentado como “a formulação que você usa às vezes pode ser vista por outros como negativa ou inútil” e talvez até permitir que o usuário forneça feedback sobre o quão precisa isso parece da perspectiva dele.
É útil destacar o problema real que precisa ser resolvido.
Há muito que eu poderia dizer sobre isso, mas não acho que levaria a uma conversa útil aqui. Talvez a coisa mais útil que eu possa dizer é que, como alguém que (espero) é geralmente um usuário não desafiador, eu não me envolveria com nenhum fórum que postasse algo como “estilo de comunicação” ou uma pontuação de sentimento gerada por IA em meu perfil. Portanto, pode se resumir ao resultado final - para o possível benefício de melhorar o estilo de comunicação de alguns usuários desafiadores, você correria o risco de perder contribuições de alguns usuários não desafiadores.
Talvez eu deva esclarecer. Esta área ainda é experimental e estamos tentando aprender/melhorar o que pode e deve ser feito. Especificamente, abrir isso é um caminho longo, se é que algum dia será uma realidade no futuro.
Isso me parece a melhor solução. Não só incentiva o usuário a melhorar suas postagens, como o feedback também pode transbordar para melhorar a forma como ele se comunica com os outros em seu dia a dia. Seria um efeito colateral agradável
Talvez esse feedback só devesse aparecer quando o tópico de um usuário for significativamente mais tóxico do que o resto da comunidade, ou se o estilo de comunicação dele corresponder a um que é comumente mal interpretado?
E sua discordância foi apresentada com um tom muito razoável também. Atualmente, vejo isso como um problema de refinamento – Uma IA melhor veria essa resposta como: “Geralmente se opondo a algo, mas com um tom neutro”
De fato, o GPT4 faz isso:
O sentimento do texto é cético e preocupado com a confiabilidade e as implicações éticas da análise de sentimento impulsionada por IA.
O tom do texto é cauteloso e questionador, refletindo desconforto e ceticismo em relação à análise de sentimento por IA.
Então é negativo, no sentido de não ser a favor, em vez de negativo no sentido de rude/prejudicial.
Analisando as respostas aqui, sinto que a solução mais valiosa e aceitável seria uma intervenção JIT (Just-In-Time) em textos que são excessivamente tóxicos, ou contêm precursores de mal-entendidos antes de serem postados. O usuário ainda tem o direito de postar o conteúdo original, nós apenas fazemos a nossa parte para garantir que eles sejam adequadamente informados sobre os aspectos negativos que sua escrita pode criar em sua forma atual, e apresentamos uma alternativa que pode ser mais produtiva.
Essa parece ser uma boa alternativa altamente produtiva - muito solidária com os usuários deste fórum e potencialmente com muitos outros, se este recurso for oferecido amplamente, e evita o risco de eles pensarem que alguma avaliação oculta de seu estilo de comunicação está sendo usada para gerenciá-los.
Este é um tópico interessante, acho que poderia ser útil começar primeiro se as pessoas quisessem descrever sua própria maneira de se comunicar com suas próprias palavras.
Para mim, tenho dificuldade em me comunicar por texto, exceto por comunicações bastante simples/curtas, como “a reunião será às 10h30 da manhã” ou algo assim.
Com a comunicação presencial, ouvi dizer que apenas cerca de 7% da comunicação pode ser definida pelas palavras reais faladas ou escritas. Embora também existam limitações para reuniões presenciais / conversas por telefone, a plataforma Discourse pode ser útil principalmente para publicar textos mais extensos que podem levar tempo para serem revisados e para que muitas pessoas possam se comunicar simultaneamente sem interromper umas às outras.
Para evitar mal-entendidos, pode ser útil ter reuniões de acompanhamento pelo menos uma vez por semana ou mês para revisar onde as pessoas estão e tentar dar sentido ao que está sendo escrito.
Talvez um plugin como User Notes? Onde cada membro pode aplicar sua própria nota privada? Ou algo visível por todos?
Um problema em ter coisas ditas publicamente é se o usuário “rotulado” for perfilado por uma fonte externa. Eles podem se ofender. A menos que seja algo que eles escolheram.
Existe um plugin do Discourse sem manutenção chamado User Feedback onde os usuários podem avaliar e, se configurado, deixar uma avaliação. No entanto, o mesmo problema pode causar calamidades se os usuários ficarem ofendidos com o que é postado.
Tive, digamos, um usuário imaturo que surtou por uma reação .
Um colega, muito antes do Discourse adicionar a opção de silenciar usuário, criou um script do Tampermonkey que permitia ao usuário adicionar pessoas para ocultar postagens e, por diversão, tinha rotulagem. Ele decorava administradores, moderadores, o criador do tópico e você podia rotular usuários. Cada usuário poderia ter essencialmente um componente de tema do navegador. Posso tentar ver se consigo encontrar o script, pois imagino que não seria muito difícil convertê-lo para um componente de tema.
Talvez usando um campo de usuário personalizado para adicionar usuário e rótulo.
Esta é uma ótima solução para uma equipe ou grupo que tem tais oportunidades de contato. Como você aplicaria isso em escala e com múltiplos fusos horários?
Para nós, haverá milhares de colegas de trabalho se comunicando em todos os fusos horários, entre muitas equipes. Infelizmente, tais chamadas não são possíveis. Mesmo que fossem, essas chamadas tirariam partes importantes da conversa da plataforma para que outros não pudessem aprender com elas
Muito verdade. Vejo isso como um motivo pelo qual só pode ser feito por uma parte que não pode se beneficiar de caracterizar mal o usuário — como uma IA.
Quanto mais penso nisso, mais sinto que a proposta original de um estilo de comunicação é superada por um coach de comunicação JIT (Just-In-Time) no compositor. Mais do que tudo, adoro a ideia de tal coaching de comunicação se espalhando para o mundo exterior. O “estilo de comunicação” simplesmente não alcançaria isso, e como você diz, deixaria as pessoas compreensivelmente iradas caso se sentissem mal caracterizadas de alguma forma (e as chances são de que elas se sentirão).
Reuniões são limitadas em escala e não são recomendadas para diferentes fusos horários.
Uma opção é ter chamadas de perguntas e respostas onde as pessoas podem escrever perguntas com antecedência, então a chamada é gravada para que elas possam ouvi-la mais tarde.
Esta é, na verdade, uma ótima oportunidade para levantar um princípio do GDPR aplicável aqui, Artigo 22, sobre tomada de decisão automatizada.
Ter um rótulo negativo público aplicado às suas postagens ou perfil é algo que um usuário poderia razoavelmente objetar e exigir uma avaliação humana.
Portanto, o software definitivamente precisa permitir a substituição pelo administrador do que ele decide exibir publicamente.
Rótulos como os teorizados no OP eu me sentiria confortável em aplicar manualmente como administrador, mas os rótulos que vi da tecnologia atual de análise de sentimento (esta pessoa tende a ser negativa!) absolutamente não são. Além disso, alguns problemas importantes de comunicação em torno do que a tecnologia pensa que é negativo versus o que as pessoas pensam quando veem negativo como um julgamento. Isso não é ajudado pelo fato de “explicar o que o modelo está fazendo” ser uma área de pesquisa aberta.
O recurso estava um tanto inacabado - não suportava detalhamento, então os rótulos pareciam muito aleatórios
O recurso vazou para o público por engano devido a um bug interno
Nem temos certeza se o recurso agrega valor
Revertemos essa alteração por enquanto e estamos nos reagrupando.
No geral, gosto da análise de sentimento, mas é um recurso muito complicado de acertar. Alguns lugares onde ela pode potencialmente ajudar na moderação:
O sentimento no fórum esta semana é altamente negativo - a causa é que muitas pessoas estão reclamando dos tópicos X e Y.
O usuário X, que geralmente é muito positivo, está muito, muito negativo este mês - talvez entrar em contato?
Etc…
Menos interessado em rotular, muito mais interessado em detecção de “anomalias” ou tendências ruins gerais.