Parece muy bueno en eso:
¡ahí van varios negocios! ![]()
Absolutamente absurdo en mi humilde opinión
¿Deberíamos reembolsar a toda la humanidad por evolucionar los hermosos idiomas que tenemos?
Pero me desvío.
No estoy en desacuerdo contigo, pero sospecho que muchas demandas son consideradas absolutamente ridículas por los demandados, pero aun así costosas.
Si una pregunta y respuesta revisada por humanos (por ejemplo, un tema resuelto en Discourse) tiene valor económico como datos de entrenamiento, no parece irrazonable querer que se le pague por ello. Hay una necesidad de los datos, por lo que sería una especie de escenario en el que todos ganan.
Hay al menos dos concursos de escritura en los que el objetivo es escribir al estilo de algún autor designado. (Bulwer-Lytton y Hemingway)
Pero podría ver dónde pedirle a una IA que escriba una novela al estilo de algún autor conocido podría levantar algunas ampollas con ese autor o sus herederos, un estilo reconocible podría considerarse una ‘propiedad intelectual’, o al menos algún abogado estaría dispuesto a reclamarlo en los tribunales.
¿Alguien ha tenido mucho interés por parte de los usuarios en usar Discourse Chatbot en sus foros? He visto todo este tema de los chatbots y uso ChatGPT, Perplexity, Claude, Bard, etc. todos los días. Pero pensé que los foros eran un espacio seguro de todo eso. Escribí un artículo sobre eso ayer Creo que la saturación de IA revivirá esta vieja plataforma web (foros web)
Tengo mucha curiosidad por saber si los usuarios de foros desean chatbots e IA cuando visitan foros de discusión impulsados por Discourse y otros. Si este es el caso, realmente tendré que renovar mi idea de los foros e incluso considerar un plugin como este. Esto parece un gran proyecto, que incluso podría llevar mucho tiempo. Como siempre, aprecio todo lo que hacen. Intento aprender sobre la demanda que produjo esto para estar al tanto, por así decirlo.
Estoy pensando en usarlo en un foro de soporte técnico para ayudar a responder preguntas fáciles/repetitivas rápidamente cuando el personal esté ocupado y fuera del horario laboral. Creo que será genial en esa capacidad.
Sí, recientemente abrí una ventana de chat con el soporte de Hostinger. Era un chatbot de IA. Y el chatbot fue tan efectivo que me informó sobre una opción de reembolso que nunca habría conocido e incluso me envió un enlace a la política de reembolso. jajaja
Entendió lo que preguntaba y no me preguntó si ya había probado 10 cosas básicas. Así que sí, puedo ver que es útil para casos de soporte.
Espero que luego se guarde en los foros, para que otros puedan verlo o incluso agregar a la discusión en lugar de reemplazarla.
¿Sería ese también el caso de una persona de soporte con conocimientos que tuviera experiencia en el uso del software para el que brindan soporte?
Por supuesto que no. No existe una opción perfecta para todos.
Los GPT pueden evolucionar. Pero ahora son opciones de bajo nivel, incluso para hacer matemáticas simples. 3.5 ni siquiera puede hacer lo básico de manera confiable, ¿verdad? La alucinación es un problema muy grande cuando debería haber hechos correctos, o al menos cercanos a lo correcto.
Otros idiomas que no sean el inglés son difíciles. Para unos pocos idiomas masivos funcionará bien, pero para mí, y para todos los que hablan uno menor y especialmente si la estructura no usa preposiciones, las traducciones nunca serán de primera categoría.
GPT traducirá primero al inglés y cambiará la indicación. Luego, la respuesta se traducirá de vuelta del inglés, y GPT hará otros cambios y una ronda de alucinaciones. El producto final estará muy lejos de lo que se pidió e incluso de lo que GPT ofrecía al principio.
Y debido a que el entrenamiento se basa en la idea de que millones de moscas no pueden estar equivocadas y la cantidad está por encima de la calidad, la cantidad de desinformación y malinformación es más que enorme. E incluso en esa situación habrá aún más ficción, debido a la alucinación.
Por supuesto, no es tan blanco o negro. Estoy usando una solución de nivel de entrada. Pero si hay dinero para gastar, uno puede hacer su propio entrenamiento y el campo de juego cambiará mucho.
Aún así, hago una afirmación: GPT funciona mejor cuando analiza o hace algo que no tiene demasiadas variaciones. O si puede crear algo “nuevo”, material totalmente ficticio. Pero el amplio terreno intermedio donde un GPT debería ofrecer hechos e información confiable… no tanto.
Estoy usando GPT3.5 de OpenAI mucho todos los días como… un buscador con esteroides. Y no estoy muy contento. Tengo que revisar, volver a revisar y reescribir mucho, pero no niego que GPT todavía me ahorra tiempo al crear texto masivo.
Hubo un estudio interesante sobre una versión de esta pregunta publicado recientemente:
https://www.nature.com/articles/s41598-024-61221-0
Las consecuencias de la IA generativa para las comunidades de conocimiento en línea
Las tecnologías de inteligencia artificial generativa, especialmente los modelos de lenguaje grandes (LLM) como ChatGPT, están revolucionando la adquisición de información y la producción de contenido en una variedad de dominios. Estas tecnologías tienen un potencial significativo para impactar la participación y la producción de contenido en las comunidades de conocimiento en línea. Proporcionamos evidencia inicial de esto, analizando datos de las comunidades de desarrolladores de Stack Overflow y Reddit entre octubre de 2021 y marzo de 2023, documentando la influencia de ChatGPT en la actividad del usuario en la primera. Observamos disminuciones significativas tanto en las visitas al sitio web como en el volumen de preguntas en Stack Overflow, particularmente en temas en los que ChatGPT se destaca. Por el contrario, la actividad en las comunidades de Reddit no muestra evidencia de disminución, lo que sugiere la importancia del tejido social como un amortiguador contra los efectos degradantes de los LLM en la comunidad. Finalmente, se observa que la disminución de la participación en Stack Overflow se concentra entre los usuarios más nuevos, lo que indica que los usuarios más jóvenes y menos integrados socialmente son particularmente propensos a irse.
Eso describe bastante bien mi propio comportamiento. Todavía hago y respondo preguntas en Meta; tengo una conexión social aquí. Pero para aprender sobre nuevos lenguajes de programación y frameworks, confío en una combinación de ChatGPT y documentación en línea.
Posiblemente, lo principal que tienen a su favor los LLM es su disponibilidad. Preferiría obtener orientación de expertos humanos, pero nadie tiene suficiente tiempo o paciencia para responder a todas mis preguntas al instante.
Una gran desventaja de aprender a través de LLM en comparación con aprender en un foro público es que la información que se genera es privada. Es bastante raro que aprender algo a través de un LLM sea simplemente cuestión de hacerle una pregunta y que devuelva la respuesta correcta. Es más como hacerle una pregunta, intentar aplicar la respuesta, leer algo de documentación para averiguar por qué la respuesta no funcionó, volver al LLM con una pregunta de seguimiento… eventualmente se genera un poco de conocimiento.
No creo que nadie quiera leer los registros de chat de otras personas, pero posiblemente los foros técnicos podrían promover la idea de que las personas publiquen el conocimiento que han obtenido de los LLM.
Otra desventaja obvia de aprender a través de LLM es la pérdida de conexión social, la atención humana como motivación para aprender, las oportunidades de empleo, etc. Eso es algo muy importante desde mi punto de vista.
La disponibilidad es la razón principal por la que estamos creando un bot de soporte.
Me entusiasma esta tecnología a partes iguales y me preocupa ligeramente el futuro de la web.
Empresas como Google (y Bing) están utilizando ahora los datos recopilados al rastrear tu sitio para ofrecer respuestas a preguntas impulsadas por IA en la parte superior de su página de búsqueda.
Esto no solo empuja los resultados de búsqueda hacia abajo en la página y resta importancia a las fuentes, sino que también crea otra dinámica preocupante: alentará a los proveedores de búsqueda a buscar una mayor integración con algunas fuentes de datos importantes seleccionadas.
Por ejemplo, se informa que Google ha llegado a un acuerdo con Reddit para acceder a su API.
En mi humilde opinión, el resultado es que tenderá a promover aún más el contenido en plataformas más grandes y perjudicará a los sitios más pequeños.
Ahora mismo hay bastante controversia sobre la calidad de los resultados que Google está obteniendo con su función de “resumen de IA” y algunos ejemplos hilarantes y no tan hilarantes que son, sin duda, bastante embarazosos para la empresa. Sin embargo, estoy seguro de que la tecnología mejorará.
Quizás los foros más pequeños están en una mejor posición para optimizar su uso local de la IA, ya que pueden especializarse. Google está luchando por ofrecer un servicio muy genérico.
El tiempo dirá, pero la batalla por captar la atención sigue muy viva.
Esta fue una de mis ideas. Estaba pensando en ajustar un modelo similar a BERT para clasificar automáticamente las publicaciones en categorías, o añadir etiquetas automáticamente. Detectar publicaciones ‘tóxicas’ sería otro caso de uso.
Para algo como Discourse, probablemente puedas hacer más con IA de lo que yo podría en toda mi vida. Aunque, una vez que la IA ayude a implementarlo, tal vez se pueda hacer en una vida…
Sinceramente, creo que este problema es la base de todos los temas relacionados con la IA, y el ingenuo que soy, piensa que esto se puede resolver (solo) con un modelo propiedad de la comunidad.
Uno que se entrena con datos, que proporcionamos y regulamos voluntariamente, simplemente adhiriéndonos a las licencias proporcionadas. Un modelo entrenado éticamente, que se calcula en todas nuestras máquinas.
La computación de datos entre pares tiene una larga tradición, ya que ciertos campos científicos lo han hecho durante un par de décadas.
En mi humilde opinión, no hay forma de evitar esto, o al menos una solución comparable, si queremos usar la IA y no sacrificar nuestros principios a largo plazo.
La moderación basada en LLM será genial, podrías pedirle que evalúe cada publicación según diferentes medidas arbitrarias (relevantes para la comunidad) y realice acciones, filtros o ayude.
Veo el comienzo de algo de esto aquí, pero no está claro el conjunto de características: Discourse AI Features | Discourse - Civilized Discussion
Creo que el conjunto de características que está buscando es Discourse AI - AI triage
Tenemos algunos planes para renovar la página de destino para que el contexto sea aún más claro para todas las funciones de IA.
Como se ve en general en Facebook, Instagram, TikTok, etc. ![]()
Realmente depende de cuál sea el objetivo: eliminar contenido ofensivo, guiar al usuario, etc.
Un objetivo que me interesa en particular es usar un LLM para analizar preguntas/problemas cuando se envían. El objetivo no es responder la pregunta, sino ayudar al usuario a expresar su problema de una manera más constructiva. Con demasiada frecuencia vemos que la primera respuesta es “¿puedes publicar tus registros de errores?” o “¿qué estás intentando hacer exactamente?”. Un LLM podría detectar temas que caen en esta categoría y animar al usuario a proporcionar esos detalles, acelerando todo el proceso de soporte y creando un tema de mayor calidad para futuros lectores.
El trabajo inicial ha sido prometedor, mostrando una precisión de alrededor del 93-95% a partir de un conjunto de datos de aproximadamente 60 temas. Las imprecisiones ni siquiera son tan malas: la mitad de las respuestas en las que nuestra evaluación no está de acuerdo con la del LLM son muy dudosas para empezar.
Mi principal hallazgo, por obvio que sea, es: cuanto más reduzcas el alcance de tu consulta al LLM, más precisa será la respuesta.