¿Cómo nos sentimos todos acerca de ChatGPT y otros LLMs y cómo impactarán en los foros?

En un tema casi relacionado, uno de los columnistas del WSJ sometió el sistema de pedido por voz del autoservicio de Hardee’s a 30 pruebas, y aparentemente hizo un buen trabajo, solo 3 tuvieron que ser remitidas a humanos para su respuesta.

2 Me gusta

¿Puedes enlazar al anuncio?
Nos daría a los que estamos fuera del (hiper rápido) bucle un poco de contexto :slight_smile:

1 me gusta

https://www.whitehouse.gov/briefing-room/statements-releases/2023/07/21/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-leading-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai/

2 Me gusta

Perfecto, gracias @RGJ :slight_smile:

Parece que se trata específicamente de este compromiso:

Así que creo que esto depende realmente de las empresas facilitar. Pero marcar texto es bastante imposible, como mencionó @merefield anteriormente.

¿Qué esperarías que hiciera Discourse en este caso @MikeNolan? Si un usuario simplemente copia y pega texto generado por IA, no hay forma de que Discourse lo sepa (aparte de ejecutar detectores de spam e IA), así que realmente no veo cómo este acuerdo específico cambia algo por ahora.

1 me gusta

El contenido generado por IA pegado por el usuario probablemente no sea algo con lo que Discourse pueda hacer mucho, ya que es probable que sea indistinguible del contenido generado por humanos (aparte de estar posiblemente mejor escrito), pero si utilizas un plugin oficial de IA de Discourse, ¿quizás Discourse pueda hacer algo para marcar o indicar de alguna otra manera lo que genera?

4 Me gusta

Ah, de esa manera, sí, puedo ver cómo tiene sentido :slight_smile:

1 me gusta

Comenzamos a trabajar en esto, por ejemplo, este mismo resumen de tema tiene una marca de agua:

El trabajo en la interfaz de usuario de resumen es el que recibió más atención, por lo que es donde ya estamos cerca de la forma final y tenemos esta configuración. Otros seguirán.

3 Me gusta

Quizás un poco semántico, pero dos propiedades de las marcas de agua digitales son que están ocultas para el espectador casual y son difíciles de eliminar.

2 Me gusta

Creo que el reconocimiento ABIERTO del contenido generado por IA es importante, tanto para texto como para imágenes.

Las firmas digitales ocultas son más útiles para cosas como la aplicación de derechos de autor de imágenes.

Estoy activo en el foro de fotografía Ugly Hedghog, donde el tema de si las imágenes generadas o modificadas por IA califican como fotografías es un tema muy debatido. (Algunas imágenes generadas por IA han ganado concursos de fotografía).

1 me gusta

El problema que estamos discutiendo ahora es que personas con intenciones maliciosas usarán la IA para generar cosas y luego eliminarán el reconocimiento e intentarán presentarlo como contenido generado por humanos. Eso implica el requisito de una “etiqueta” de origen que sea difícil de eliminar.

2 Me gusta

La intención no es necesariamente maliciosa, pero es menos que honesta.

Buena suerte encontrando una manera de “etiquetar” texto generado por IA que no pueda ser superado con algo posiblemente tan rudimentario como copiar y pegar.

1 me gusta

¿Se podrían usar caracteres de ancho cero para eso?

1 me gusta

No, esos se pueden eliminar fácilmente pasando el contenido a través de un filtro que solo conserva caracteres alfabéticos normales. Marcar texto es muy, muy difícil. Básicamente, no se puede hacer a nivel de representación de caracteres.

Esta publicación de blog de Scott Aaronson explica un poco cómo podría funcionar. Desplácese hacia abajo hasta la sección “Mis proyectos en OpenAI”. El método descrito allí es a prueba de copiar y pegar @MikeNolan

2 Me gusta

Gracias, eso es interesante:

Mi proyecto principal hasta ahora ha sido una herramienta para marcar estadísticamente las salidas de un modelo de texto como GPT. Básicamente, cada vez que GPT genera un texto largo, queremos que haya una señal secreta, que de otro modo pasaría desapercibida, en sus elecciones de palabras, que pueda usar para demostrar más tarde que, sí, esto provino de GPT. Queremos que sea mucho más difícil tomar una salida de GPT y hacerla pasar como si proviniera de un humano. Esto podría ser útil para prevenir el plagio académico, obviamente, pero también, por ejemplo, la generación masiva de propaganda… O suplantar el estilo de escritura de alguien para incriminarlo. Todas estas son cosas que uno podría querer dificultar, ¿verdad?

Entonces, para marcar, en lugar de seleccionar el siguiente token al azar, la idea será seleccionarlo de forma pseudorandom, utilizando una función pseudorandom criptográfica, cuya clave solo conoce OpenAI. Esto no hará ninguna diferencia detectable para el usuario final, asumiendo que el usuario final no puede distinguir los números pseudorandom de los verdaderamente aleatorios.

2 Me gusta

Una de mis preocupaciones al intentar identificar la escritura generada por IA es que se dirija accidentalmente a texto humano bien escrito.

2 Me gusta

el texto humano bien escrito parece ser la excepción en muchos foros. :sigh:

3 Me gusta

Yo vuelvo a la motivación.

Si se identifica mala intención, se prohíbe o suspende.

Si es texto bien escrito y bien intencionado con hechos que lo respaldan, ¿se deja?

¿Qué pasa si el primer idioma del usuario no es el inglés y ha utilizado ChatGPT para refinar su gramática?

2 Me gusta

Por cierto, así es como prefacio los resúmenes de temas de IA:

(¡necesita un ajuste CSS!)

1 me gusta

OK, me preocupa que pueda dirigirse a mis publicaciones :slight_smile:

Creo que sí. No veo ningún problema en que las personas usen IA para ayudar a componer publicaciones, asumiendo que hay un ser humano real tomando la decisión sobre si el texto generado por IA es digno de ser publicado o no.

1 me gusta

Hay una gran cantidad de herramientas que pueden ayudar a mejorar la gramática, no sé si ChatGPT es mejor que el resto.

Mejorar la gramática es un problema algo diferente a generar contenido ‘original’, sin embargo. Los motores de IA están empezando a ser el objetivo de los propietarios de contenido que quieren ser reembolsados por usar su material para entrenar el motor de IA.

1 me gusta