Entonces, ¿de quién es realmente el problema?
Tal como están las cosas, Discourse core y Discourse AI no incluyen ningún modelo de lenguaje grande. Discourse AI integra grandes modelos de lenguaje existentes a través de API que los administradores pueden ingresar (Open AI y Anthropic), en el futuro es probable que admitamos aún más modelos.
¿Te refieres a través de plugins, como es el caso actualmente?
Encuentro que gran parte de esta discusión es algo desconcertante, ¿existe la preocupación de que vayamos a “cancerizar” el código fuente de Discourse? ¿Existe la preocupación de que tengamos una dependencia estrecha e incondicional de Open AI?
Mi opinión es que si está genuinamente perplejo, apostaría a que no es lo suficientemente consciente, está al tanto o es empático con las “consecuencias”, ya que puede que no haya ningún valor aparente en desentrañar esto, dado que el caballo ya se ha escapado y la puerta del granero está abierta de par en par, ¡así que todos se sueltan!
Dices cáncer, más bien un arma cuántica de destrucción masiva [rellena el espacio en blanco], sin embargo, algunos pensarán que todo eso es hipérbole. Eso está bien. Todos tienen derecho a opinar, pero estoy pensando en general y no específicamente en Discourse, lo que haces con el desarrollo depende de la forma en que funciona, así que para aclarar el punto en relación con el OP:
La razón principal por la que pregunto es como administrador de Discourse, donde tienes un deber para con tu base de usuarios, y aunque esto podría ser un segmento pequeño en términos de mercado real, pero aun así tu base de usuarios o una parte de tu base de usuarios son importantes, y de hecho podrían no querer usar una plataforma que emplee alguna forma de esta generación de IA cuando se trata del contenido que generan, por muchas razones diferentes. De la misma manera que podrían usar bloqueadores de anuncios, no quieren ser parte de esta “cosa”, cuando esa pregunta proviene del primer usuario que la hace, es porque no había una política de IA claramente indicada, también tienes que tener alguna forma de respuesta que sea veraz.
Por lo tanto, segregar las herramientas de IA como plugins que no son centrales es un buen enfoque, pero si llegara el caso de que la IA fuera central, digamos en una futura actualización, podría dejar espacio para la duda o el rechazo total de la plataforma.
Mientras esta línea permanezca clara y delimitada, entonces podría ser una forma satisfactoria para todos de avanzar y una guía de desarrollo clara y la seguridad también podrían ser importantes aquí.
También entiendo que es difícil enmarcarlo para que todos estén de acuerdo, pero aquí está el quid de la cuestión ahora, esto es lo que sucede cuando se hace una pregunta por una razón real. Si la razón está fundada o no se inmuta, será la base para que los usuarios tomen decisiones de valor que se conviertan en acciones.
Si simplemente se trata de una simple declaración de que no hay ChatGPT ni IA similar en el núcleo de Discourse, con la advertencia de que se utiliza algo de IA en el desarrollo y la creación como herramienta, esa puede ser la respuesta más cercana a una respuesta satisfactoria para el público en general en un foro de Discourse.
En general, la cuestión de cómo la IA afectará a la web y, por extensión, al mundo, ya se ha abordado y visto en términos de aplicación y consecuencias, esta fase de lanzamiento oficial de estos “juguetes”, es decir, dar una caja de Pandora con API y todo al mundo del desarrollo y, a su vez, al mundo, es una aceleración, ya que antes era una fase de aprendizaje experimental muy controlada y relativamente clandestina donde esta IA se había infundido en una gran parte de la web durante años sin que muchas personas comunes se dieran cuenta.
Si bien intento mantenerlo dentro del marco de mi pregunta, si realmente quieres ser meta y discutir lo metafísico, entonces digo adelante, pero ese tema ya está aquí: How are we all feeling about ChatGPT and other LLMs and how they'll impact forums?
Otro aspecto son, por ejemplo, los anuncios. Supongo que Google ha estado utilizando IA de este tipo durante años en sus servicios de publicidad e incluso de análisis, pero al menos por ahora los usuarios pueden implementar algún software de bloqueo y usar VPN, ¿esas herramientas también usan IA? ![]()
Tal vez todo se reduce a cómo la gente percibe la IA y tal vez la forma más fácil de articularlo es que algunos la ven como aislada (herramientas), otros la ven como un fuego en el tejido mismo de la matriz de la realidad que necesita ser extinguido, de cualquier manera está sucediendo y va a suceder sea lo que sea, pero siempre hay consecuencias, y a veces todo lo que tienes es la opción de ser parte de la creación de esas consecuencias o de mitigarlas, lo que tenemos con la “industria” es que, en mi humilde opinión, están haciendo ambas cosas.