Indicando a los usuarios que eviten el lenguaje dañino

Probamos con Discourse Google Perspective API, pero nos encontramos con problemas similares a los descritos en el artículo que enlazaste… tenía dificultades con matices del lenguaje y, a veces, detectaba como ofensivo un lenguaje que no lo era… ¡y estos falsos positivos pueden ser ofensivos por sí mismos!

Sin embargo, las primeras pruebas de Twitter encontraron algunos problemas. Descubrieron que sus sistemas y algoritmos a veces tenían dificultades para comprender los matices que surgen en muchas conversaciones. Por ejemplo, no siempre podían diferenciar entre respuestas ofensivas y sarcasmo o, a veces, incluso bromas amistosas. También les costaba tener en cuenta aquellas situaciones en las que el lenguaje es recuperado por comunidades subrepresentadas y luego utilizado de formas no dañinas.

9 Me gusta