¿Cómo nos sentimos todos acerca de ChatGPT y otros LLMs y cómo impactarán en los foros?

A medida que sigo las noticias sobre ChatGPT, GPT-4 y otros LLM, y he estado jugando con el Discourse Chatbot 🤖, me siento emocionado, aterrorizado e inseguro de lo que significará para la comunicación en línea.

Me pregunto cómo impactará en los foros y en la comunicación basada en texto en general. También me preocupa cómo impactará eventualmente en la comunicación basada en voz.

¿Llegará al punto en que la mayoría de los usuarios creen publicaciones con ChatGPT y las copien y peguen en los foros? Si es así, ¿intentarán las personas copiar y pegar publicaciones de foros en ChatGPT para resumir la publicación escrita por IA? ¿Nos importará si alguien la escribió “orgánicamente” o usó la ayuda de la IA? ¿Habrá un beneficio tan grande en los foros y sitios web en general si las personas pueden obtener respuestas similares de ChatGPT? ¿Cómo se diferenciarán los foros y se mantendrán relativamente relevantes?

Me siento bastante inseguro de lo que vendrá y me encantaría escuchar lo que otros sienten y piensan al respecto en este momento :slight_smile:

31 Me gusta

Habiendo recibido ChatGPT respuestas muy erróneas sobre mis senderos locales de ciclismo de montaña, me aventuraré a decir que no espero que los LLM tengan un gran impacto en las discusiones en línea. Sus respuestas mejorarán con el tiempo, pero nunca tendrá la motivación humana para evitar estar equivocado en Internet. Además, como modelo de lenguaje, “no es capaz de realizar acciones físicas como salir a andar en bicicleta de montaña”. Por lo tanto, incluso si pudiera darme información precisa sobre los senderos, le falta la dimensión humana que provendría de tener un foro local de ciclismo de montaña.

25 Me gusta

Entonces… ¿cómo me siento acerca de todo esto?

Obviamente, estoy emocionado. Tenemos una caja de juguetes completamente nueva para jugar, y estos juguetes no se parecen a ningún otro juguete que hayamos tenido en el pasado. Como con la mayoría de la tecnología, esto se puede usar para el bien o para el mal.

Personalmente, siento que estoy en medio de una niebla de IA. Solía tener una buena idea de hacia dónde se dirigían las cosas en los próximos tres o cuatro años; sin embargo, los LLM y las futuras evoluciones de esta tecnología han sido un obstáculo. Simplemente no sé dónde estarán las cosas en un año.

Cuando miras de cerca cuán rápido se ha movido la difusión estable en los últimos meses, es asombroso. Cuando miras el alcance del progreso de GPT 3.5 a 4, también es bastante asombroso.

Incluso con la nueva niebla de IA, tengo algunas preocupaciones muy reales:

  • Me queda 100% claro que los foros de soporte serán absorbidos por los LLM y se utilizarán como datos de entrenamiento para chatbots útiles. La ventaja aquí es que gran parte del trabajo pesado del soporte puede desaparecer y obtienes respuestas de inmediato. Sin embargo, la desventaja es que se creará menos contenido nuevo, lo que puede causar rápidamente una espiral de muerte a menos que se mitigue.

  • Estoy seguro de que el spam y otros malos actores recurrirán a esta tecnología, lanzando ataques mucho más sofisticados que cualquier cosa que hayamos visto hasta la fecha, lo que podría acabar con los foros si no tenemos cuidado.

  • Esta tecnología de asistencia puede erosionar la confianza. Cuando lees palabras que yo escribo, esperas que las palabras provengan de mí. Las personas pueden usar la IA para hacer más que corregir; pueden reinterpretar completamente nuestras palabras. ¿Quieres sonar como Malcolm Gladwell? No hay problema, puedes hacerlo. ¿Cuál es el nivel de etiquetado que los usuarios responsables del foro deberían esperar? La gente abandonará los foros si ya no confían en que están hablando con personas o simplemente con simulacros.

léelo con las palabras de Malcolm

En el mundo actual, la tecnología de asistencia tiene el poder de erosionar la confianza de maneras que quizás no habíamos anticipado. Como consumidores de la palabra escrita, tenemos ciertas expectativas, a saber, que las palabras que leemos son auténticas y emanan de su fuente declarada. Sin embargo, con el advenimiento de la tecnología de IA, las personas pueden manipular el texto escrito de maneras que van más allá de la simple corrección. En esencia, pueden reinterpretar completamente un mensaje para que suene como quien elijan. Entonces, si alguna vez has soñado con sonar como Malcolm Gladwell o cualquier otra figura notable, esta tecnología puede hacerlo con facilidad. Sin embargo, esto plantea preguntas sobre el etiquetado responsable para los usuarios del foro. Si las personas ya no pueden confiar en que están conversando con otras personas y no solo con simulacros generados por computadora, es muy posible que abandonen los foros por completo. El nivel de etiquetado requerido para mantener la confianza en el discurso en línea es una preocupación apremiante que merece una seria consideración.

  • Hemos visto foros de fábricas de SEO en el pasado; veremos versiones mucho más elaboradas y aterradoras de esto.
otras preocupaciones similares que tiene GPT 4
  • Existe el riesgo de que el uso de LLM en foros cree una cultura de pereza entre los usuarios que dependen demasiado de la tecnología de IA para obtener respuestas y perspectivas. Esto podría conducir a una disminución del pensamiento crítico y las habilidades de resolución de problemas entre los usuarios del foro.
  • El uso de LLM en foros plantea preocupaciones éticas sobre la privacidad y seguridad de los datos. Los usuarios pueden sentirse incómodos con la idea de que su información personal e interacciones sean analizadas y procesadas por un sistema de IA, especialmente si no son plenamente conscientes de cómo se utilizan sus datos.
  • La integración de LLM en foros puede exacerbar los sesgos y desigualdades existentes, particularmente si la tecnología de IA se entrena con un conjunto de datos limitado que no captura la diversidad de experiencias y perspectivas de los usuarios del foro.
  • El uso de LLM en foros también puede resultar en la homogeneización del discurso, ya que es más probable que los usuarios reciban respuestas estandarizadas generadas por el sistema de IA en lugar de comentarios matizados y diversos de otros usuarios humanos. Esto podría sofocar la creatividad y la originalidad en las conversaciones del foro.
  • Existe el riesgo de que la integración de LLM en foros conduzca al desplazamiento de moderadores humanos y personal de soporte, lo que podría tener implicaciones negativas para la seguridad laboral y la calidad del soporte brindado a los usuarios.

A pesar de estos temores y más, sigo emocionado y esperanzado. Habrá aplicaciones encantadoras y extremadamente útiles de esta tecnología y esperamos explorarlas en Discourse.

El fuego está apagado; lo mejor que podemos hacer aquí es ser muy cuidadosos con nuestros enfoques y experimentos e intentar contener el fuego. Espero que podamos contener el fuego. Pero ya sabes… niebla de IA…

34 Me gusta

Esto toca una de las cuestiones más profundas sobre la IA, a saber, si importa, y de qué manera importa, si me comunico con una persona normal, una persona “aumentada” o una inteligencia artificial. Llamemos a eso el “problema de la identidad del interlocutor”.

En cierto modo, los humanos siempre han lidiado con el problema de la identidad del interlocutor. En filosofía, a veces se conoce como el “problema de las otras mentes”. Una de las afirmaciones más conocidas es el Demonio Maligno de Descartes, el contexto de su “Pienso, luego existo”. Las preguntas de cómo nos sentiremos, o cómo deberíamos sentirnos, acerca de relacionarnos con una IA son esencialmente una extensión de la misma pregunta.

Surge de una manera interesante en el contexto de los foros, porque en muchos sentidos creo que ya aceptamos un alto nivel de opacidad en la identidad del interlocutor. Todo lo que tenemos para juzgar a nuestros interlocutores son sus palabras y posiblemente su autopresentación (es decir, avatar, nombre de usuario, etc.). Para bien o para mal, en muchos casos no pensamos mucho en la identidad del interlocutor, o al menos estamos dispuestos a aceptar la opacidad.

Este contexto me lleva a conclusiones (o preguntas, quizás) más circunspectas sobre cómo esto afecta a los foros. Por ejemplo, consideremos el spam. No nos gusta el spam por varias razones, pero centrémonos en dos relacionadas:

  1. Es un ruido feo que hace que un foro sea menos atractivo.
  2. Tiene un propósito comercial, malicioso u otro que no queremos fomentar.

Supongamos que la aplicación de un LLM al “spam” conduce a una reducción de lo primero y a un enfoque más matizado de lo segundo. Si no hace estas cosas, los métodos existentes de eliminación de spam serán suficientes para detectarlo. En cierto modo, es un error llamar a esto spam, más bien es como “marketing automatizado sofisticado”, o… “Sam” (lo siento, no pude resistirme).

Sin embargo, una vez que entramos en el territorio de Sam, inevitablemente nos acercamos al mismo problema subyacente de la identidad del interlocutor. Ya ocurre que algunas personas utilizan su presencia en un foro para comercializar de forma matizada e indirecta. La pregunta es si nos importa la identidad del actor que lo hace.

Definitivamente comparto tus preocupaciones sobre su efecto en el mercado laboral. Sin embargo, por razones relacionadas, no estoy tan seguro de que conduzca a un ecosistema de foros más tonto, perezoso, feo o comercial. Si un LLM hace esto a un foro, ese foro, de hecho, probablemente no le irá muy bien, pero entonces sus antiguos usuarios encontrarán otro foro no afectado por un LLM, o afectado por uno más sofisticado.

Los foros facilitan mercados de conocimiento, interés y conexión humana. Si un LLM tiene éxito en esos mercados, sin duda afectará al trabajo, pero no estoy tan seguro de que reduzca la demanda. De hecho, el éxito implica lo contrario.

24 Me gusta

La IA apesta.
No veo ningún beneficio.
Reducirá mi apetito por participar en cualquier cosa.

7 Me gusta

¿Es este quizás el factor más importante? Cada publicación está ligada a una identidad única. Cuando veo una publicación tuya o de (presumiblemente) el verdadero Sam, hago una estimación de cuán veraz es probable que sea esa información. He escuchado a Sam en un podcast y he hablado contigo en la videollamada de expertos el año pasado, así que puedo suponer que hay al menos una persona real detrás de estas publicaciones.

Pero, ¿es importante la persona real? Si hay una cuenta llamada “Hal Mcdave” que proporciona información correcta de manera consistente y coherente, entonces también comenzaré a confiar y utilizar esa información. ¿Entonces no está bien?

Seguramente el verdadero problema nunca ha sido la inteligencia artificial; más bien la estupidez artificial.

5 Me gusta

No. Haz un breve recorrido por los foros y mira cuál es realmente el contenido.

Las IA cambiarán el mundo de los CMS. Y afectará mucho al mundo al estilo de WordPress. Y allí, a este contenido ya copiado y pegado, que parece spam, como lista del año XXXX, cómo hacer…, etc.

Este círculo aquí es parte de esa audiencia que usará y verá un fuerte uso de ChatGPT, etc. Pero la gran mayoría del resto del mundo… no tanto. Ya no escriben, no saben copiar y pegar y no usan ninguna de esas herramientas sofisticadas que, por ejemplo, ofrece Discourse.

Ustedes son unicornios rosas :wink: Raros. Para ustedes, todo lo basado en IA es un nuevo patio de recreo o un juguete porque es parte de su vida profesional y sus pasatiempos.

Para CDCK, esto es un asunto del futuro cercano debido a sus importantes clientes corporativos. Muy a menudo utilizan Discourse para documentación, ayuda y soporte. Para ellos, tales funciones de soporte no generan ingresos y requieren personal humano remunerado. Estarán en el séptimo cielo cuando haya una IA que responda a los clientes y ya no necesiten personal de soporte. Y los desarrolladores estarán contentos porque, como todos sabemos, la tecnología simplemente no funciona sin depuración y corrección interminables.

Por lo tanto, las soluciones basadas en IA no erosionan la confianza ni nada más, porque tampoco existe tal confianza en este momento. Los usuarios comunes no pueden ver ni siquiera les importa si las respuestas y los comentarios provienen de un montón de código. Están totalmente contentos con los nuevos creadores de memes y los filtros de TikTok :wink: Por el amor de Dios, ya están pagando a aplicaciones de citas donde la mayoría de las contrapartes no son humanas…

Lo siento, chicos, pero ahora están discutiendo en una caja cerrada :grin:

8 Me gusta

Pero en lugar de la creación automática de contenido, que solo apoya a los propietarios de la plataforma, me gustaría ver un traductor basado en IA sobre la marcha que realmente funcione, porque los que tenemos ahora simplemente no funcionan.

Eso ayudaría a los usuarios a crear cualquier tipo de texto, y también por voz, por supuesto, tanto que los foros, chats, lo que sea, alcanzarían una audiencia verdaderamente global. Esa es una herramienta que estoy esperando.

O algo similar. Sam jugó con una idea en algún tema para usar IA para poner los temas en la categoría correcta. Obtener un etiquetado realmente útil por usuario basado en el historial de lectura/búsqueda sería algo. Esas cosas.

Así que no veo la IA como una amenaza real contra la creación y la conversación. Veo la IA “simplemente” como una herramienta para minimizar la necesidad de hacer cosas aburridas :wink:

De nuevo. Ya existe contenido de bajo nivel y baja calidad que vale millones de cargas de página. Si la IA cambia eso, no lo veo como una amenaza. Y si las soluciones de IA crean la misma mierda mala… bueno, morirá como los chats de soporte automático aspirantes (que son solo máscaras elegantes para formularios basados en correo electrónico).

7 Me gusta

Preguntas muy buenas. @merefield ha lanzado recientemente un plugin increíble que utiliza Chatgpt para crear resúmenes de temas.

Google ha lanzado su versión llamada Bard.

5 Me gusta

Me pasó lo mismo, pero espero que los humanos quieran seguir haciendo cosas humanas como discutir (no solo codificar, copiar y pegar datos).

Las herramientas de IA podrían ser súper útiles para tareas operativas y repetitivas y no creo que los bots puedan realmente entablar conversaciones humanas.

Eso es fundamentalmente imposible y el 99,99% de los datos del mundo no cambiarán eso porque la libertad, la elección y la vida.

La vida es cambio y la IA no puede cambiar por sí sola, no fundamentalmente (más allá de Skynet, por supuesto).

La mayoría de la gente ahí fuera seguirá buscando en Google y haciendo clic solo en el primer enlace.

Pero siempre habrá un 3% del mundo que elija saltar a las primeras 5/10 páginas o use Duckduckgo en su lugar para navegar por internet como en los viejos tiempos.

> La IA es súper mala en las redes sociales porque el control, la censura y la manipulación masiva, pero no tanto en las instancias de foros.

Algún día, muy pocas personas en el mundo sabrán todo sobre todas las personas, pero ¿eso incluirá nuestra posibilidad de cambiar?

No lo creo (y lo mismo se aplica a la tecnología cuántica que romperá todo a la vez).

5 Me gusta

Hace años, una de las revistas de tecnología conectó dos programas similares a Eliza, uno diseñado para hablar como un médico y el otro como una persona con paranoia. Los resultados fueron divertidos, pero no eran motores sofisticados como GPT.

Si dos instancias de GPT comienzan a chatear entre sí sobre equipos deportivos, ajedrez o repostería (las áreas sobre las que actualmente gestiono foros de discusión), ¿será una lectura interesante? Dudo que así sea.

6 Me gusta

Esa parece una respuesta honesta a la pregunta del OP. Vivimos tiempos interesantes :slight_smile: Mi esperanza es que los foros se puedan utilizar para ayudarnos a mantener el sentido de lo que significa ser humano.

6 Me gusta

El término “Inteligencia Artificial” puede generar legítimamente miedo y las IA a menudo han sido la causa de estragos en libros, películas, etc.

Me pregunto si nos sentiríamos diferentes si toda esta tecnología que se vuelve viral hoy en día (midjourney, chatGPT…) no usara el término “IA” en absoluto, sino algo más hacia lo que no tenemos un sesgo cultural.

7 Me gusta

Me gustaría obtener un chatbot veterinario de IA para consultas iniciales automáticas, así como para la recopilación de información para construir un tema detallado de solicitud de soporte para veterinarios humanos.

2 Me gusta

No me sorprendería si algo así para veterinarios ya está en el mercado, algunas de las prácticas médicas están empezando a usarlos para reducir el tiempo del personal.

2 Me gusta

Cómo me siento, con un poco de ayuda de Midjourney y ChatGPT… :upside_down_face:


4 Me gusta

Supongo que no puedo hablar realmente en nombre de otros. Pero por mi experiencia, he utilizado principalmente foros de Discourse (& chat de Discord) para interactuar con personas sobre ciertos intereses compartidos en productos que están en crecimiento, donde no estoy seguro de que sería muy útil chatear con una IA, por ejemplo:

  • Foro de la aplicación Auxy (aplicación de música, ahora cerrada pero están en Discord) donde la gente compartía comentarios sobre las pistas WIP de otros y daba consejos específicos de la aplicación. No existe material escrito previo sobre la aplicación además de lo que escribe la comunidad.
  • Foro de Hopscotch (aplicación de codificación de arrastrar y soltar, donde trabajo y ayudé a sembrar cuando comenzó). De nuevo, no había material escrito ni guías detalladas sobre la aplicación en ningún lugar de Internet, antes de que la comunidad escribiera todas esas publicaciones, por lo que cualquier IA estaría repitiendo lo que escribimos.
  • Sky: Children of the Light (juego, comunidad en Discord pero la premisa sigue siendo la misma) De nuevo, lo jugué durante la beta antes de que hubiera material escrito. Y ayudé a ESCRIBIR el contenido musical en la wiki y he estado con la comunidad desde antes de que se generara todo ese contenido.

en todos los casos, la IA tampoco ha ‘usado las aplicaciones’ por sí misma.

Así que no sé si la IA habría sido útil, excepto quizás para redactar amablemente todo lo que la comunidad ha generado, porque no había contenido escrito en absoluto sobre esos temas antes de que todas esas personas lo escribieran a través de discusiones.

(Creo que Marx en El Capital, después de observar a los trabajadores de las fábricas en Inglaterra, dijo algo así como que la gente no usa las máquinas; las máquinas usan a la gente)

No es que esta IA no sea genial o útil, es solo que probablemente no habría sido muy útil si hubiera estado presente mientras he estado en esas comunidades.

10 Me gusta

Dirijo un foro que ofrece apoyo a emprendedores.

Desde noviembre, he creado a @Robolivier, un robot de IA amigable que ayuda a los usuarios cuando lo mencionan. También responde a cada nuevo tema una vez con la esperanza de proporcionar al usuario una respuesta satisfactoria. He añadido un descargo de responsabilidad a cada uno de sus mensajes.

Hasta ahora, los usuarios lo han encontrado divertido y útil la mayor parte del tiempo.

Planeo entrenarlo con mis propias interacciones en el foro, ya veremos cómo va.

Dado que es un foro de pago, los bots no son un problema para mí. Pero puedo ver cómo un foro abierto y gratuito podría ser inundado de spam hasta volverse irrelevante.

8 Me gusta

Una diferencia crucial es que cuando la IA puede generar en masa información de calidad bajo un número arbitrariamente grande de “identidades” (etiquetas) distintas, se vuelve barato violar la confianza que se ha acumulado erróneamente en torno a esas identidades en momentos críticos/rentables. Como ser humano, no quiero violar la confianza que he construido con otros, no solo por mi conciencia, sino por el efecto perjudicial en mi reputación. Pero una identidad artificialmente ligada a una IA es mucho más desechable y abusable tanto para la codicia capitalista como para las maquinaciones políticas.

Entonces, ¿cómo me siento? Tengo miedo del futuro. Es muy probable que esta tecnología nos arruine socialmente en un futuro cercano (años) y, finalmente (décadas), nos destruya físicamente si no encontramos la manera de detenerla.

4 Me gusta

En uno de los foros que administro, hemos sospechado durante años que alguien publicaba bajo al menos dos nombres diferentes con diferentes personalidades, una más conflictiva que la otra. Recientemente, cometió un error y firmó una publicación desde una dirección de correo electrónico con su nombre de la otra, y luego firmó otra publicación con un tercer nombre. ¡Así que ahora lo sabemos con seguridad!

Hay un libro muy interesante donde analizan a escritores famosos mediante análisis estadístico de patrones de uso de palabras. Se vuelve interesante cuando los libros son escritos por varios autores; muchos de los últimos libros de Tom Clancy fueron escritos en gran parte por otros escritores.

Este tipo de análisis estadístico fue cómo se determinó que J.K. Rowling también escribía bajo un nombre diferente, antes de que ella confirmara el hecho. También se utilizó para analizar los Documentos Federalistas, concluyendo en 1962 que, como muchos habían afirmado, Alexander Hamilton escribió bastantes de ellos, incluidos varios que otros habían reclamado como autoría. (Se publicaron anónimamente en ese momento porque se pensaba que saber quién los escribió podría disminuir su efectividad política).

Así que tal vez haya algún valor en tener interfaces similares a ChatGPT en nuestros foros si podemos usarla para analizar los estilos de escritura de nuestros participantes.

7 Me gusta