¿Te gustaría ayuda con algún lenguaje de programación específico o con un formato de mensaje más avanzado?
¡Saludos, {user}!
Si bien esto puede resolver el problema, yo mismo podría haberle preguntado a la IA para obtener esta respuesta. Si bien el problema aún no está muy extendido, me preocupa que estemos perdiendo la personalidad de cada individuo en la comunidad. Lo genial de una comunidad son las personas que la componen y sus ideas, pensamientos, experiencias y palabras únicas.
¡Tengo mucha curiosidad por saber cómo manejan esto otras comunidades! ¡Por favor, compartan sus opiniones!
Mi política es no usar IA para escribir o editar publicaciones en foros. Algo como: queremos escuchar lo que tienes que decir, no lo que dice la IA. Está bien pegar texto generado por IA y luego comentar sobre lo que escribió la IA, siempre y cuando lo divulgue antes del contenido de la IA, por ejemplo:
“Le pregunté a ChatGPT sobre ___ y dijo ___. Esto es lo que pienso sobre lo que escribió ChatGPT.”
Cuido mucho la calidad del contenido. Creo que el contenido generado por IA de 2025 se verá anticuado en 10 años, de forma similar a como los viejos efectos especiales de las películas ya no son convincentes.
Si la gente hace preguntas y la IA responde, ¿por qué irían a un foro en lugar de simplemente preguntarle a ChatGPT? Creo que el principal valor de los foros en el futuro será poder obtener respuestas de humanos en lugar de bots.
Esto es más o menos hacia donde nos inclinábamos, siempre que haya contexto y las palabras de los usuarios alrededor del contenido de la IA.
No quiero mirar en unos meses y ver solo respuestas de IA perfectamente escritas en todos nuestros foros, así que estoy tratando de adelantarnos ahora. Que vuelvan las faltas de ortografía
Aquí hay un punto a tener en cuenta: desalentar tales prácticas podría alejar a los nuevos usuarios potenciales. Una posible solución es crear una categoría para ello y luego simplemente dejar que pongan el contenido allí. De esta manera, el usuario siente que ha contribuido con algo de valor, otros pueden enlazarlo si es necesario en otras partes del foro y los usuarios que no están interesados en las publicaciones de IA pueden omitir la categoría y todos los enlaces.
La publicación de IA en foros de usuarios estará aquí en el futuro. No veo ninguna norma para esto en los próximos años; similar a la cuestión del uso de la IA en la educación formal.
Sin embargo, con la nueva ola de IA, LLM y difusión, la única constante es el cambio, por lo que mi respuesta sobre esto no debe verse como algo grabado en piedra o algo con lo que incluso pueda estar de acuerdo en el futuro.
Realmente depende, ¿verdad? En el ejemplo anterior, me molestaría con el autor si la respuesta tuviera una clara incorrección, especialmente una incorrección que llevara al usuario a problemas mayores. No me importa que la gente publique respuestas de IA si también se han tomado el tiempo de validar y verificar la idoneidad y corrección de la información. Aún mejor si están de acuerdo en que el contenido generado es similar o mejor que cómo compartirían esa información de todos modos.
Si, por otro lado, simplemente has introducido algo en un LLM, has copiado y pegado la respuesta, y esperas que yo, como lector de tu tema, descubra si ese contenido es correcto, entonces no estaré contento. No solo estás perdiendo mi tiempo al presentar información falsa como correcta, sino que estás reduciendo la confiabilidad de la comunidad en general, o al menos la de tus propias respuestas futuras.
Mirando hacia el futuro, sospecho que muchas personas con buenas intenciones se alejarán del uso de LLMs en foros durante los próximos años, y los que queden serán malos actores, o personas que simplemente no entienden los foros en primer lugar. Es puramente anecdótico, pero he usado LLMs a diario durante aproximadamente 2 años y me estoy inclinando cada vez más hacia el contenido autogenerado. Ayer quería escribir una publicación de blog en la que no estaba muy invertido. Decidí probar GPT, pero sin importar lo que hiciera, siempre sonaba como GPT y odiaba eso. Así que probé Claude, y a pesar de trabajar con él durante una hora, el contenido nunca sonó como algo escrito por una persona real y viva. Así que después de unas 3 horas en total, lo tiré todo y lo escribí yo mismo en aproximadamente una hora.
El punto de esa historia es decir, al menos para mí, que el contenido autogenerado se está mostrando cada vez más gratificante, sin importar lo buenos que se vuelvan los modelos. Realmente espero que otras personas que usan LLMs también lleguen a esa etapa en los próximos 2-3 años. Si eso sucede, las respuestas de IA en los foros solo provendrán de malos actores, o de personas con buenas intenciones que no saben nada mejor. De cualquier manera, esa situación hace que el contenido sea mucho más fácil de manejar: puedes prohibir a los malos actores, educar a los que tienen buenas intenciones y tener una política de moderación de “el contenido de IA está prohibido, excepto si has digerido claramente el contenido que estás publicando Y estás completamente de acuerdo en que su contenido representa tu opinión y comprensión sobre el asunto Y el contenido expresa tu opinión de manera igual o más digerible de lo que generarías tú mismo”. o algo en esa línea.
Generalmente soy un poco aprensivo cuando veo respuestas de IA, y mucho más cuando el usuario que las publica:\n- No da crédito a la IA\n- Hace un copiar y pegar directo\n\nPero creo que lo que realmente no está bien es que las publicaciones generadas completamente por IA se marquen como Soluciones. Realmente, la solución debería ir a la IA… o, de hecho, simplemente no darse, solo un me gusta y un agradecimiento.\n\n\u003chr /\u003e\n\nAñadiendo a esto, si el OP quería una respuesta de IA, podría haber preguntado simplemente a ChatGPT. No necesitan que alguien responda a la pregunta que hicieron a otros humanos con algo de IA.
Veo muchas respuestas geniales aquí. En este ejemplo específico, veo la IA como útil porque es puramente táctica. Por lo tanto, al hacer preguntas a nuestras comunidades o solicitar respuestas de los miembros, tenga en cuenta lo que es táctico frente a lo que se “siente”. Dependiendo de la estructura de su comunidad, puede haber un espacio específico dedicado a las preguntas de “cómo hacerlo” y otro espacio dedicado a las conexiones entre pares. Saber el “cómo hacerlo” será un lugar donde la IA sea bienvenida y posiblemente recomendada para evitar errores del operador. Es genial tener un equilibrio dentro del espacio de su comunidad, y eso es lo que hace que los miembros regresen.
Creo que Discourse ya tiene la sección “cómo hacerlo” (ask.discourse.com). Esa es en realidad la mejor herramienta de IA en Discourse que los usuarios pueden usar por sí mismos, para que no necesiten que alguien lo haga por ellos. Todo lo demás debería ser el espacio de “pares”, donde los humanos interactúan, hacen más preguntas que dan respuestas y están felices de discrepar para extraer algo de verdad aquí y allá.
Como bellamente se dijo aquí:
Lo más probable es que la gente acuda a un espacio comunitario cuando le suceden cosas inusuales. Probablemente haya muchas preguntas antes de que se encuentre una solución a un problema, como qué versión usan, si han probado esto o aquello. A veces es genial si sientes algo de empatía por parte de otros usuarios. La IA no hace preguntas; no tiene intuición sobre lo estúpidos que somos a veces (por ejemplo, en Meta: ¿Has intentado reconstruir Discourse? ¿Has probado el modo seguro?), y cualquier empatía es definitivamente falsa, por muy agradable que sea.
Entonces, mi forma de manejar las respuestas con una mayoría de contenido de IA: probablemente las prohibiría e implementaría un bot de IA para que los usuarios puedan ayudarse fácilmente a sí mismos.