Entonces… ¿cómo me siento acerca de todo esto?
Obviamente, estoy emocionado. Tenemos una caja de juguetes completamente nueva para jugar, y estos juguetes no se parecen a ningún otro juguete que hayamos tenido en el pasado. Como con la mayoría de la tecnología, esto se puede usar para el bien o para el mal.
Personalmente, siento que estoy en medio de una niebla de IA. Solía tener una buena idea de hacia dónde se dirigían las cosas en los próximos tres o cuatro años; sin embargo, los LLM y las futuras evoluciones de esta tecnología han sido un obstáculo. Simplemente no sé dónde estarán las cosas en un año.
Cuando miras de cerca cuán rápido se ha movido la difusión estable en los últimos meses, es asombroso. Cuando miras el alcance del progreso de GPT 3.5 a 4, también es bastante asombroso.
Incluso con la nueva niebla de IA, tengo algunas preocupaciones muy reales:
-
Me queda 100% claro que los foros de soporte serán absorbidos por los LLM y se utilizarán como datos de entrenamiento para chatbots útiles. La ventaja aquí es que gran parte del trabajo pesado del soporte puede desaparecer y obtienes respuestas de inmediato. Sin embargo, la desventaja es que se creará menos contenido nuevo, lo que puede causar rápidamente una espiral de muerte a menos que se mitigue.
-
Estoy seguro de que el spam y otros malos actores recurrirán a esta tecnología, lanzando ataques mucho más sofisticados que cualquier cosa que hayamos visto hasta la fecha, lo que podría acabar con los foros si no tenemos cuidado.
-
Esta tecnología de asistencia puede erosionar la confianza. Cuando lees palabras que yo escribo, esperas que las palabras provengan de mí. Las personas pueden usar la IA para hacer más que corregir; pueden reinterpretar completamente nuestras palabras. ¿Quieres sonar como Malcolm Gladwell? No hay problema, puedes hacerlo. ¿Cuál es el nivel de etiquetado que los usuarios responsables del foro deberían esperar? La gente abandonará los foros si ya no confían en que están hablando con personas o simplemente con simulacros.
léelo con las palabras de Malcolm
En el mundo actual, la tecnología de asistencia tiene el poder de erosionar la confianza de maneras que quizás no habíamos anticipado. Como consumidores de la palabra escrita, tenemos ciertas expectativas, a saber, que las palabras que leemos son auténticas y emanan de su fuente declarada. Sin embargo, con el advenimiento de la tecnología de IA, las personas pueden manipular el texto escrito de maneras que van más allá de la simple corrección. En esencia, pueden reinterpretar completamente un mensaje para que suene como quien elijan. Entonces, si alguna vez has soñado con sonar como Malcolm Gladwell o cualquier otra figura notable, esta tecnología puede hacerlo con facilidad. Sin embargo, esto plantea preguntas sobre el etiquetado responsable para los usuarios del foro. Si las personas ya no pueden confiar en que están conversando con otras personas y no solo con simulacros generados por computadora, es muy posible que abandonen los foros por completo. El nivel de etiquetado requerido para mantener la confianza en el discurso en línea es una preocupación apremiante que merece una seria consideración.
- Hemos visto foros de fábricas de SEO en el pasado; veremos versiones mucho más elaboradas y aterradoras de esto.
otras preocupaciones similares que tiene GPT 4
- Existe el riesgo de que el uso de LLM en foros cree una cultura de pereza entre los usuarios que dependen demasiado de la tecnología de IA para obtener respuestas y perspectivas. Esto podría conducir a una disminución del pensamiento crítico y las habilidades de resolución de problemas entre los usuarios del foro.
- El uso de LLM en foros plantea preocupaciones éticas sobre la privacidad y seguridad de los datos. Los usuarios pueden sentirse incómodos con la idea de que su información personal e interacciones sean analizadas y procesadas por un sistema de IA, especialmente si no son plenamente conscientes de cómo se utilizan sus datos.
- La integración de LLM en foros puede exacerbar los sesgos y desigualdades existentes, particularmente si la tecnología de IA se entrena con un conjunto de datos limitado que no captura la diversidad de experiencias y perspectivas de los usuarios del foro.
- El uso de LLM en foros también puede resultar en la homogeneización del discurso, ya que es más probable que los usuarios reciban respuestas estandarizadas generadas por el sistema de IA en lugar de comentarios matizados y diversos de otros usuarios humanos. Esto podría sofocar la creatividad y la originalidad en las conversaciones del foro.
- Existe el riesgo de que la integración de LLM en foros conduzca al desplazamiento de moderadores humanos y personal de soporte, lo que podría tener implicaciones negativas para la seguridad laboral y la calidad del soporte brindado a los usuarios.
A pesar de estos temores y más, sigo emocionado y esperanzado. Habrá aplicaciones encantadoras y extremadamente útiles de esta tecnología y esperamos explorarlas en Discourse.
El fuego está apagado; lo mejor que podemos hacer aquí es ser muy cuidadosos con nuestros enfoques y experimentos e intentar contener el fuego. Espero que podamos contener el fuego. Pero ya sabes… niebla de IA…
