El arrojar la prudencia al viento, la integración de ChatGPT con abandono salvaje en todo y en cualquier cosa es más que una causa de inmensa preocupación.
Hay una pregunta que, como administrador, es importante saber: ¿hay alguna parte o componente, por pequeño que sea, que sea esencialmente IA dentro de la instalación principal de Discourse?
Supongo que la respuesta es no, pero quiero comprobarlo.
Desde la llegada de los plugins que parecen aislar la IA fuera de una instalación principal de Discourse, también creo que es importante saber, desde el punto de vista de la hoja de ruta, si alguna vez se planea integrar IA donde actualmente no la hay (si eso es cierto).
Si la respuesta es sí a una o más de estas preguntas, sería genial tenerlo confirmado.
Sí, un buen punto con respecto a las definiciones. Creo que el OP es claro en términos generales, siendo un caso de antes y después de ChatGPT (+similar) y cuáles son los planes para Discourse, en la línea de al menos:
usarlo para escribir código central
usarlo para integrarlo en el núcleo
Si alguien más quiere ayudar a definir en estas líneas, pero como usted lo expresó, podría ser la mejor definición, básicamente cualquier cosa que no sea “código generado por humanos a la vieja usanza, haciendo lógica procedural tradicional”
¿Puede proporcionarme algunos (digamos 10, grandes) ejemplos de proyectos de código abierto que tengan una carta / documento público que prohíba el uso de GitHub Copilot?
Sí, así que el bot que codifica es la razón por la que hice esta pregunta tan amplia. Ahora que soy consciente de esto, supongo que desde los correctores de ortografía y gramática (por ejemplo, Grammarly) hasta las ayudas y asistentes de programación como Copilot. Supongo que no hay una respuesta clara y concisa, ¿verdad?
En el extremo, ¿qué pasa con las herramientas de refactorización de un IDE? ¿No se permite extraer método? Sigue surfeando esta ola y volverás a las tarjetas perforadas.
Para añadir, Discourse (y muchos plugins) utilizan amplios conjuntos de pruebas funcionales y comprobaciones de linting.
Esto mitiga enormemente los problemas de código (intenta desplegar en RoR sin comprobaciones…) y también cubriría el código generado por IA o el código compatible con Copilot. Y eso sin contar el hecho de que Copilot podría encontrar problemas que tú pasas por alto…
La disciplina central con respecto a las pruebas en la plataforma es insuperable y sienta un ejemplo para el ecosistema.
¿También es algo discutible? No creo que el despliegue de código de IA no supervisado vaya a ocurrir pronto… ni siquiera llegarías a ejecutar las pruebas (¿Has intentado pedirle a ChatGPT una solución en EmberJS compatible con Discourse? Las alucinaciones están fuera de control ). Quizás eso mejore a medida que los modelos evolucionen.
Discourse tiene que mantenerse al día o morir en mi opinión, y eso significa explorar y adoptar nuevas tecnologías cuando sea apropiado.
Como autor de dos plugins de “IA” (¡ambos escritos a mano! ), reconozco que obviamente deben venir con advertencias y descargos de responsabilidad y no veo que eso cambie en mucho tiempo…
Así que, dentro del marco de “discourse”, para ceñirse al OP porque estás montando esa ola y la siguiente, por supuesto que es un tema expansivo, pero:
Dónde están las cosas hasta ahora (si estoy interpretando correctamente los comentarios).
No hay componentes de IA activos en el núcleo de Discourse.
No hay componentes o código de IA inactivos dentro del núcleo de Discourse.
Parte o la totalidad del código de Discourse puede haber surgido con la aplicación indirecta o directa de herramientas de IA dentro de varias plataformas de desarrollo y IDEs, etc., disponibles para los desarrolladores.
La adición de cualquier función de IA al núcleo no está actualmente en la hoja de ruta.
Los plugins son la puerta de entrada a funciones impulsadas por IA que funcionan con Discourse.
La IA no es un término técnico… una persona podría interpretar una heurística como IA. La forma en que “puntuamos” las publicaciones dando peso a los “me gusta”, las lecturas y las visualizaciones puede considerarse IA. Akismet puede llamarse “IA”. La lista es interminable.
Tal como están las cosas, la industria está “preocupada” por la seguridad de la IA en el contexto de los grandes modelos de lenguaje.
Tal como están las cosas, Discourse core y Discourse AI no incluyen ningún modelo de lenguaje grande. Discourse AI integra modelos de lenguaje grandes existentes a través de API que los administradores pueden introducir (Open AI y Anthropic), en el futuro es probable que admitamos aún más modelos.
Un modelo de lenguaje grande (LLM) es un modelo de lenguaje que consiste en una red neuronal con muchos parámetros entrenados en grandes cantidades de texto sin etiquetar utilizando técnicas de aprendizaje profundo. Estos modelos pueden reconocer, resumir, traducir, predecir y generar texto y otras formas de datos. Los LLM han experimentado avances significativos en los últimos años, destacando en una variedad de tareas y transformando los campos de la inteligencia artificial, la ciencia y la sociedad en su conjunto [1][2].
Algunos ejemplos de modelos de lenguaje grandes incluyen GPT-3 de OpenAI, que está entrenado para predecir la siguiente palabra en una oración, de manera muy similar a una función de autocompletar de mensajes de texto [3].
Texto vía Google + GPT-4
Encuentro gran parte de esta discusión algo desconcertante, ¿existe la preocupación de que vayamos a “cancerizar” el código fuente de Discourse? ¿Existe la preocupación de que tengamos una dependencia incondicional y estricta de Open AI?
Prefiero definitivamente el término “loro estocástico” acuñado por Emily Bender y Timnit Gebru; es definitivamente más preciso cuando se hace referencia a estos LLM.
¿Te refieres a través de plugins, como es el caso actualmente?
Mi opinión es que si está genuinamente perplejo, apostaría a que no es lo suficientemente consciente, está al tanto o es empático con las “consecuencias”, ya que puede que no haya ningún valor aparente en desentrañar esto, dado que el caballo ya se ha escapado y la puerta del granero está abierta de par en par, ¡así que todos se sueltan!
Dices cáncer, más bien un arma cuántica de destrucción masiva [rellena el espacio en blanco], sin embargo, algunos pensarán que todo eso es hipérbole. Eso está bien. Todos tienen derecho a opinar, pero estoy pensando en general y no específicamente en Discourse, lo que haces con el desarrollo depende de la forma en que funciona, así que para aclarar el punto en relación con el OP: La razón principal por la que pregunto es como administrador de Discourse, donde tienes un deber para con tu base de usuarios, y aunque esto podría ser un segmento pequeño en términos de mercado real, pero aun así tu base de usuarios o una parte de tu base de usuarios son importantes, y de hecho podrían no querer usar una plataforma que emplee alguna forma de esta generación de IA cuando se trata del contenido que generan, por muchas razones diferentes. De la misma manera que podrían usar bloqueadores de anuncios, no quieren ser parte de esta “cosa”, cuando esa pregunta proviene del primer usuario que la hace, es porque no había una política de IA claramente indicada, también tienes que tener alguna forma de respuesta que sea veraz.
Por lo tanto, segregar las herramientas de IA como plugins que no son centrales es un buen enfoque, pero si llegara el caso de que la IA fuera central, digamos en una futura actualización, podría dejar espacio para la duda o el rechazo total de la plataforma.
Mientras esta línea permanezca clara y delimitada, entonces podría ser una forma satisfactoria para todos de avanzar y una guía de desarrollo clara y la seguridad también podrían ser importantes aquí.
También entiendo que es difícil enmarcarlo para que todos estén de acuerdo, pero aquí está el quid de la cuestión ahora, esto es lo que sucede cuando se hace una pregunta por una razón real. Si la razón está fundada o no se inmuta, será la base para que los usuarios tomen decisiones de valor que se conviertan en acciones.
Si simplemente se trata de una simple declaración de que no hay ChatGPT ni IA similar en el núcleo de Discourse, con la advertencia de que se utiliza algo de IA en el desarrollo y la creación como herramienta, esa puede ser la respuesta más cercana a una respuesta satisfactoria para el público en general en un foro de Discourse.
En general, la cuestión de cómo la IA afectará a la web y, por extensión, al mundo, ya se ha abordado y visto en términos de aplicación y consecuencias, esta fase de lanzamiento oficial de estos “juguetes”, es decir, dar una caja de Pandora con API y todo al mundo del desarrollo y, a su vez, al mundo, es una aceleración, ya que antes era una fase de aprendizaje experimental muy controlada y relativamente clandestina donde esta IA se había infundido en una gran parte de la web durante años sin que muchas personas comunes se dieran cuenta.
Si bien intento mantenerlo dentro del marco de mi pregunta, si realmente quieres ser meta y discutir lo metafísico, entonces digo adelante, pero ese tema ya está aquí: How are we all feeling about ChatGPT and other LLMs and how they'll impact forums?
Otro aspecto son, por ejemplo, los anuncios. Supongo que Google ha estado utilizando IA de este tipo durante años en sus servicios de publicidad e incluso de análisis, pero al menos por ahora los usuarios pueden implementar algún software de bloqueo y usar VPN, ¿esas herramientas también usan IA?
Tal vez todo se reduce a cómo la gente percibe la IA y tal vez la forma más fácil de articularlo es que algunos la ven como aislada (herramientas), otros la ven como un fuego en el tejido mismo de la matriz de la realidad que necesita ser extinguido, de cualquier manera está sucediendo y va a suceder sea lo que sea, pero siempre hay consecuencias, y a veces todo lo que tienes es la opción de ser parte de la creación de esas consecuencias o de mitigarlas, lo que tenemos con la “industria” es que, en mi humilde opinión, están haciendo ambas cosas.
Si me pides que diga “Desde ahora… hasta el fin del universo, ¿puedes comprometerte a que los LLM nunca llegarán al producto principal?” … la respuesta es no.
Si me preguntas “¿Podré optar por no participar, si algo así sucediera?” Mi respuesta es … probablemente … tendemos a permitir a los administradores una enorme libertad con la configuración y las opciones del sitio.
Ahora, ¿te estaría pidiendo que digas algo que no sea la verdad, ya que eso sería irrazonable, como indica tu respuesta anterior? ¿Quién puede decirlo en una línea de tiempo infinita? Claro, en realidad es un esfuerzo por establecer la posición actual del núcleo de Discourse utilizando IA activa lo mejor posible.
Tampoco busco promesas.
Mi sugerencia principal antes de una respuesta sigue siendo la misma.
Considera mantener la IA activa separada del núcleo para que los propietarios/administradores tengan una opción clara sin confusión. Mi preferencia es por esto sobre una opción de encendido/apagado en la administración, llámame paranoico y anticuado si quieres, estoy pensando en una especie de “air gap”.
ChatGPT y similares están siendo interrogados en tantas plataformas y herramientas, es salvaje y, en términos generales, las implicaciones son enormes, así que ¿por qué Discourse se perdería el barco (no lo hizo, el plugin es ese evento en la línea de tiempo del desarrollo de Discourse)?
Considero que la pregunta está aclarada tanto como va a estar y espero que si hubiera un cambio demostrable en el equilibrio de juego, se haría una comunicación muy clara con anticipación o en un marco de tiempo adecuado.
Tener un foro con IA activa profundamente integrada en el núcleo podría ser un punto de inflexión de Skynet demasiado grande para algunos administradores/propietarios y/o bases de usuarios, y creo que la IA debería considerarse algo incluso mayor que un evento paradigmático que es meta.