Con respecto a las personas que responden copiando y pegando de ChatGPT, aquí hay un ejemplo curioso de reacción:
También estoy viendo esto en los foros que frecuento más (que son de naturaleza bastante técnica). Un nuevo usuario específico ha estado publicando 8 o 9 respuestas al día, todas de ChatGPT.
Hay mucha información valiosa allí, pero también hay imprecisiones y cosas francamente engañosas (imagina una lista complicada de 7 pasos, que miro el paso 6 y sé que nunca funcionará… pero mucha gente no lo hace).
Este usuario parece estar tratando de construir una reputación… estamos considerando pedir a las personas que siempre etiqueten explícitamente el contenido de ChatGPT como lo que es. Una solicitud que solo podemos esperar que respeten, pero que no podemos realmente hacer cumplir.
Esto me inquieta, no creo que esto nos lleve a un buen lugar. Temo que la conversación sin sentido simplemente se apodere de Internet. Podríamos vernos obligados a vivir vidas reales en el mundo real, no estoy seguro de que podamos manejar eso…
A mi hijo mayor le encanta enviarme artículos y publicaciones que muestran las banalidades de ChatGPT. Le sigo diciendo que la tecnología de ChatGPT está quizás en un nivel de segundo o tercer grado en muchas áreas, como las matemáticas. Para citar a uno de mis profesores hace años, no sabe lo que no sabe.
Todavía no le he pedido una receta para hornear un pastel, me estremezco al pensar en lo que podría salir mal. (He visto demasiadas recetas publicadas por humanos en línea que son totalmente inviables).
Creo que la conversación sin sentido se apoderó de Internet cuando se inventaron Facebook y Twitter. Aquellos de nosotros lo suficientemente mayores como para recordar USENET, cuando todavía era exacto llamarlo un videojuego para personas que saben leer, podríamos trazar la línea aún más atrás.
Definitivamente estamos sintiendo esto en este momento: estamos ejecutando un foro de Discourse gratuito y abierto, y estamos viendo una gran cantidad de spambots al estilo ChatGPT que se escapan de la protección contra spam existente.
Akismet no está al día con ellos en este momento, ya que nunca antes había visto tantas cuentas de spam que lograran pasar. Tienden a publicar comentarios aparentemente inofensivos que responden a una pregunta (o la reformulan y luego responden) con una respuesta bastante verbosa que parece útil, pero que carece de algo de contexto o matiz de la pregunta original.
Supongo que los foros de Discourse son un objetivo como campo de pruebas, por razones similares a los sitios de WordPress hace una década: es tecnología de código abierto que se usa de manera bastante generalizada, por lo que los bots que pueden navegar por el flujo de registro en un foro probablemente puedan acceder a muchos otros.
Actualmente no vemos el comportamiento tradicional de los spambots (crear una cuenta, publicar algo lo suficientemente inofensivo como para pasar las medidas anti-spam y luego editarlo dentro de las 48 horas para agregar enlaces), así que no estoy seguro de cuál es el objetivo final aquí. Es posible que estemos eliminando esas publicaciones demasiado rápido y que más tarde se editen en granjas de enlaces.
Siento que una 2FA obligatoria debería filtrar a la mayoría de los bots. ¿Alguna opinión?
De lo contrario, probablemente haría que los usuarios completaran un typeform después de la creación de su cuenta y los agregaría a un grupo de “verificados” a través de un webhook al enviar el formulario y haría que el foro solo se pudiera leer para todos los que no estuvieran verificados.
Dicho esto, ahora que los bots pueden navegar por la web y comprender las intenciones de los botones, siento que es un enfoque paliativo.
La mayoría de los foros están abiertos (uno no tiene que registrarse para visitarlos) y se pueden encontrar con Google y similares. La 2FA no evitará eso.
Otra razón para ser cauteloso con el uso de la tecnología ChatGPT.
Un profesor de derecho de California fue incluido en una lista generada por ChatGPT de académicos legales acusados de acoso sexual. ChatGPT citó una historia del Washington Post como su fuente.
El problema es que no existe tal historia en el Washington Post y nunca se han presentado cargos de acoso sexual contra ese profesor de derecho.
Todos pueden estar tranquilos, el Departamento de Comercio ha anunciado planes para garantizar que la IA tenga las “barreras de protección” apropiadas
Del WSJ:
“Es asombroso ver lo que estas herramientas pueden hacer incluso en su relativa infancia”, dijo Alan Davidson, quien dirige la Administración Nacional de Telecomunicaciones e Información, la agencia del Departamento de Comercio que emitió la solicitud de comentarios. “Sabemos que necesitamos establecer algunas barreras de protección para asegurarnos de que se utilicen de manera responsable”.
Sí… si el texto todavía fuera escrito por participantes humanos.
Lo que probablemente no será, cada vez más. De ahí el problema.
La IA puede hacer que todo lo que describiste empeore cada vez más y sea cada vez más difícil de detectar.
Los autores de libros es una cosa. No saber ya con quién estás tratando en las discusiones en línea es otra. Todas las pistas que se supone que obtienes de un texto escrito se distorsionan si no está escrito genuinamente por un individuo, sino usando IA.
Esta es una pregunta totalmente dependiente del nicho. Mis círculos están fuertemente conectados con la nutrición y la alimentación de perros. Veo de inmediato si un texto es generado por IA, porque las IA piensan que un millón de moscas no pueden estar equivocadas.
Lo mismo es visible cuando hablamos de senderismo, piragüismo, etc.
Por lo tanto, depende de qué tipo de secta ha escrito la mayor parte del texto en la web. Por eso, todos los que no son programadores en mi círculo de amigos/comunidad cuentan la IA como otra moda pasajera, ¡al menos por el momento!
Tengo el primer caso de un usuario que probablemente está usando ChatGPT para dar respuestas argumentativas. Esta persona ya es un troll en el límite y no estoy contento con este desarrollo.
Otro usuario utilizó una nueva extensión de Chrome para la identificación:
Aún no estoy seguro de lo buena que es esta extensión; parece que por defecto marca como “humano” cuando hay muestras insuficientes, pero puede pasar por alto ciertos tipos/estilos de texto generados por IA (como los limericks generados por ChatGPT).
Mi plan de moderación actual, si se le puede llamar así, es dejar que otros usuarios identifiquen y denuncien estos abusos, y que la presión social sea el elemento disuasorio. No estoy seguro de qué más se puede hacer en este momento.
Si esto sucede en mi foro, querré dejar claro que publicar texto generado por máquinas sin anotarlo es una infracción que se puede marcar. Esencialmente, es engañoso, por lo que va en contra de las directrices.
Estoy de acuerdo en principio, pero los criterios para identificar texto generado por máquina son un objetivo en movimiento. La buena noticia es que la extensión de Chrome aún no ha generado ningún falso positivo, aunque en pruebas muy limitadas. La mala noticia es que los moderadores tendrán que trabajar más para determinarlo, y la necesidad de mantenerse al día con las herramientas de detección más actuales a medida que el texto generado por IA mejora cada vez más. El texto de IA eventualmente llegará a un punto en el que la detección será problemática.
De hecho, pero lo estoy pensando como un problema de moderación. Nuestros moderadores humanos ya vigilan las publicaciones que son conflictivas, groseras, insultantes, repetitivas o engañosas. Esto es una extensión de eso: y con una norma cultural local que dice que las personas reales no publican texto de máquina sin un aviso, cualquier cosa que parezca (o huela a) texto de máquina, especialmente de un usuario relativamente nuevo, es automáticamente sospechosa.
Creo que los cerebros humanos, especialmente los cerebros de los moderadores, se volverán razonablemente buenos para detectar texto de máquina. Cuando el texto de máquina sea indistinguible de una publicación útil que impulse la conversación, ya no tendremos un problema. (Quizás se penalice a las personas que realicen publicaciones de bajo esfuerzo y bajo valor).