¿Cómo facilitar la especificación de si el contenido es escrito por humanos, asistido por IA o generado por IA?

Soy uno de los administradores de un foro con más de 10.000 miembros. Hemos notado que algunas personas han comenzado a usar mucho la IA para responder a las publicaciones. Es bueno que se estén volviendo más activos e intenten ser útiles, pero algunas de las respuestas pueden ser confusas, ya que las respuestas de los chatbots de IA tienden a ser muy seguras pero inexactas. No nos gustaría prohibir el uso de la IA, sino animar a la gente a revelar si se utiliza, ya que esto puede ayudar a otros usuarios (y a los LLM que se entrenan con el contenido del foro) a decidir cuánto confían en el contenido de la publicación.

Nos gustaría añadir un selector de “Origen del contenido” a cada nueva respuesta de publicación con las siguientes opciones:

  • Escrito por humanos
  • Asistido por IA (revisado y editado)
  • Generado por IA (ligeramente revisado)

Supongo que muchos otros foros necesitarán una funcionalidad similar, por lo que podría añadirse como una característica estándar o un complemento. Pero si eso no sucede, sería genial si alguien pudiera dar consejos sobre cómo configurar esto en nuestra instancia de Discourse alojada.

3 Me gusta

Si confías en tus usuarios, ¿podrías simplemente crear etiquetas para ello? Ah, edito: Perdón, acabo de leer que dijiste “cada publicación”.

¿O te refieres a que quieres que sea “detectado” (irónicamente por IA) y que se le añada automáticamente algún tipo de indicación?

Esto suena como un caso de uso para la solicitud de función etiquetar respuestas, no solo temas, donde se ha señalado que:

…así que podrías participar para votar esa solicitud.

No soy desarrollador, pero creo que un enfoque que no use etiquetas probablemente utilizaría la tabla post_custom_fields que es utilizada por complementos como el Custom Wizard Plugin. Incorporar un campo de publicación personalizado en la interfaz de usuario (para selección, visualización, búsqueda/filtrado) suena como un proyecto de complemento bastante sustancial.

1 me gusta

Un complemento no funcionará en un foro alojado por Discourse

Creo que también podrías hacer algo con un componente de tema. Quizás uno que simplemente agregue la información como un [wrap] a la publicación final e incluya algo de estilo sobre cómo se resalta la información.

1 me gusta

Confiaría en los usuarios, pero si el uso de IA es obvio y no se revela, los moderadores también pueden marcar la publicación en consecuencia.

Sería una buena función de conveniencia para sugerir marcar la publicación como asistida por IA o generada por IA, pero no estoy seguro de que sea factible, y no es esencial. Podríamos obligar al usuario a pensar en ello si el selector no se inicializara por defecto, de modo que los usuarios necesitarían establecer explícitamente el origen del contenido.

Podría ser fácil olvidar añadir una etiqueta (los usuarios necesitarían que se les recordara más a menudo que la usaran), pero podría funcionar.

Esto suena como un buen enfoque. ¿Cuánto trabajo llevaría configurarlo? ¿Crees que hay alguna posibilidad de que esto se añada como una función integrada o un complemento oficial?

Siempre hay una posibilidad, pero creo que es bastante baja que esto suceda en un futuro previsible, a menos que esa solicitud de función explote con votos.

Con la funcionalidad de etiquetas actual, se puede exigir que los temas en una categoría tengan una etiqueta de un grupo de etiquetas especificado. Si bien las etiquetas de respuesta no existen (y parece poco probable que existan pronto), uno podría esperar una capacidad similar allí.

(publicación eliminada por el autor)

Si el propósito es informar a un lector humano de que un texto involucra IA, entonces en mi opinión una etiqueta no es la solución. La gente no lee las etiquetas como parte del contenido real. Por lo tanto, la indicación debe ser parte del contexto en sí mismo.

Personalmente, utilizo el método proporcionado por Discourse:

<details class='ai-quote' open>
<summary>
<span>Título</span>
<span title='Discusión con IA'>IA</span>
</summary>
Más o menos contenido…
</details>

Alternativamente, utilizo el componente Quote Callouts.

Enseñar a los usuarios a aplicarlos correctamente es, si no imposible, al menos extremadamente difícil para los usuarios que vienen de un entorno de Facebook. Así que he optado por exigir que el contenido generado por IA deba estar marcado de alguna manera. Siempre y cuando haya un indicador visible dentro del contenido mismo y el material de IA esté claramente separado, estoy satisfecho.

Intenté usar una etiqueta, pero noté muy rápidamente que no provocaba ninguna reacción. Además, quiero usar etiquetas para la clasificación de contenido, y me cuesta imaginar que alguien intente encontrar todo el contenido de mi foro que involucraba IA. Especialmente porque es probable que el uso de la IA se intensifique con el tiempo. Incluso podría llegar al punto en que se necesite una etiqueta para indicar que el contenido está hecho por humanos (y no solo con un emoji, ya que tales sitios web e incluso foros ya existen).

5 Me gusta

¿hacen cumplir este requisito de alguna manera?

1 me gusta

Foro con poco tráfico, así que básicamente leo casi todo. Y los moderadores pueden/van a marcar posibles casos. No siempre es tan obvio si se usa mucho la IA o si se copia y pega. No sé cómo sería eso automático, así que usamos la vigilancia vecinal :smirking_face:

Pero mis usuarios conocen bien la regla.

2 Me gusta

Un poco fuera de tema, pero en un foro (que no es Discourse) tenemos un hilo para discutir todo sobre la IA generativa, desde los pros hasta los contras.
Un usuario habitual entusiasta comenzó a publicar mensajes muy argumentativos para debatir y rebatir los puntos de otros miembros en un debate un poco acalorado.
La forma en que estaban escritos sus mensajes posteriores lo delató: en particular, una publicación que contenía 4 puntos con viñetas, todos usando la estructura “No es… Es”.

Fue señalado y admitió haber usado IA para escribir sus “dos últimos mensajes” y explicó que no era un problema porque le había indicado a la IA que reflejara sus opiniones. Y que si la gente no podía refutar sus puntos, entonces significaba que estaban equivocados independientemente de si sus publicaciones eran de IA o no.
No hace falta decir que los otros usuarios estaban bastante molestos cuando se dieron cuenta de que estaban usando su tiempo y energía para debatir con una IA.

6 Me gusta