¿Cómo manejas las respuestas de IA en tu Comunidad?

Realmente depende, ¿verdad? En el ejemplo anterior, me molestaría con el autor si la respuesta tuviera una clara incorrección, especialmente una incorrección que llevara al usuario a problemas mayores. No me importa que la gente publique respuestas de IA si también se han tomado el tiempo de validar y verificar la idoneidad y corrección de la información. Aún mejor si están de acuerdo en que el contenido generado es similar o mejor que cómo compartirían esa información de todos modos.

Si, por otro lado, simplemente has introducido algo en un LLM, has copiado y pegado la respuesta, y esperas que yo, como lector de tu tema, descubra si ese contenido es correcto, entonces no estaré contento. No solo estás perdiendo mi tiempo al presentar información falsa como correcta, sino que estás reduciendo la confiabilidad de la comunidad en general, o al menos la de tus propias respuestas futuras.

Mirando hacia el futuro, sospecho que muchas personas con buenas intenciones se alejarán del uso de LLMs en foros durante los próximos años, y los que queden serán malos actores, o personas que simplemente no entienden los foros en primer lugar. Es puramente anecdótico, pero he usado LLMs a diario durante aproximadamente 2 años y me estoy inclinando cada vez más hacia el contenido autogenerado. Ayer quería escribir una publicación de blog en la que no estaba muy invertido. Decidí probar GPT, pero sin importar lo que hiciera, siempre sonaba como GPT y odiaba eso. Así que probé Claude, y a pesar de trabajar con él durante una hora, el contenido nunca sonó como algo escrito por una persona real y viva. Así que después de unas 3 horas en total, lo tiré todo y lo escribí yo mismo en aproximadamente una hora.

El punto de esa historia es decir, al menos para mí, que el contenido autogenerado se está mostrando cada vez más gratificante, sin importar lo buenos que se vuelvan los modelos. Realmente espero que otras personas que usan LLMs también lleguen a esa etapa en los próximos 2-3 años. Si eso sucede, las respuestas de IA en los foros solo provendrán de malos actores, o de personas con buenas intenciones que no saben nada mejor. De cualquier manera, esa situación hace que el contenido sea mucho más fácil de manejar: puedes prohibir a los malos actores, educar a los que tienen buenas intenciones y tener una política de moderación de “el contenido de IA está prohibido, excepto si has digerido claramente el contenido que estás publicando Y estás completamente de acuerdo en que su contenido representa tu opinión y comprensión sobre el asunto Y el contenido expresa tu opinión de manera igual o más digerible de lo que generarías tú mismo”. o algo en esa línea.

6 Me gusta