Comentarios sobre la Resumación por IA

Comentarios sobre el resumen. Esto parece muy prometedor :pray:

:point_up: el popup no es lo suficientemente ancho

  • Sería genial ofrecer opciones sobre la longitud del resumen. Parece que esto se enfoca en un recuento de 150-200 palabras, lo cual no es mucho para algunos temas.
  • Me encantaría personalizar el prompt. Por ejemplo, probablemente usaría puntos de viñeta por defecto.
  • Me encantaría experimentar con un prompt que cite quién dice qué y haga referencia a las publicaciones.
  • Desacoplaría el resumen con la configuración mínima de publicaciones de IA del general. El resumen con IA es probablemente útil con menos publicaciones.

Tenga en cuenta que gpt-3.5 ahora tiene una versión con un límite de 16k tokens que puede ser muy relevante aquí.

Y ahora las 2 características clave que me gustaría ver:

  • resúmenes diarios con la función de resumen con IA
  • resúmenes cuando paso el ratón sobre el tema (por ejemplo, precalculados)
4 Me gusta

Actualmente estamos utilizando una indicación simplista (cuando se seleccionan OpenAI o Anthropic), pero la cambiaremos muy pronto, ya que estamos trabajando en ello en este momento.

Personalizarla es una característica interesante, es posible que la agreguemos en el futuro.

Esta semana acabamos de hacer que se muestre para publicaciones con al menos una respuesta.

Agregamos modelos de contexto grande de OpenAI el día que fueron lanzados. Actualmente puede elegir:

  • GPT 3.5 Turbo con 16k
  • GPT 4 con 32k
  • Claude con 100k

Se está trabajando en el almacenamiento en caché de los resúmenes generados para que puedan usarse en otros lugares, lo que desbloquea funciones como esta.

7 Me gusta

No veo eso en mi sitio, ¿hay alguna configuración que lo controle?

Más sugerencias:

  • mostrar el botón resumir con IA en el pipeline.
  • tener una forma de reemplazar el resumen normal con resumen con IA
  • Permitir apuntar modelos GPT a Azure. Hemos observado latencias significativamente mejoradas en mi empresa.
2 Me gusta

Es un cambio que acabamos de hacer esta semana, por lo que se implementará en tu sitio en los próximos días.

¿Qué significa “pipeline” aquí?

Como puedes ver aquí en Meta, ya lo hicimos. El resumen antiguo ahora se llama “Mostrar respuestas principales”. Todavía estamos trabajando en el diseño y el orden de los botones.

¡Eso está en nuestra hoja de ruta!

6 Me gusta

Disculpas por la falta de claridad, no tengo idea de por qué elegí esa palabra :facepalm:

Me refería a esto

1 me gusta

Esto se hace por:

Es bastante molesto de configurar porque necesitas crear un montón de implementaciones, pero funciona bien.

1 me gusta

EDITADO

Usando Gemini 1.5 Flash, los resúmenes a menudo contienen enlaces a varias publicaciones, pero los enlaces múltiples no se muestran como enlaces. No recuerdo haber visto otros modelos intentar usar enlaces múltiples.

Los enlaces a publicaciones únicas se muestran correctamente.

La carga útil de respuesta correspondiente incluye este texto:

[Username redacted](/t/-/56915/8, /t/-/56915/13, /t/-/56915/28, /t/-/56915/33, /t/-/56915/36)

Me gusta mucho la idea de citar varios enlaces, si pudieran mostrarse correctamente.

Bueno, eso es simplemente markdown no válido, por eso no funciona.

Es una pena que Gemini Flash no pueda producir markdown válido, aquí en Meta usamos Llama 3.1 cuantizado a FP8 para resúmenes, y puede manejar la producción de enlaces markdown adecuados sin problemas.

2 Me gusta

Y que haiku aparentemente no pueda devolver un código de estado válido. Esos son los dos que he probado para la resumen hasta ahora. Probaré Llama 3.1 a continuación.

No sé si considerarías parchear problemas conocidos, como verificar los lunes y este markdown en particular. Me doy cuenta de que no es ideal, pero podría ser mejor que perder opciones de LLM que de otro modo serían buenas.

¿Puedes ver resúmenes no válidos en https://discuss.ai.google.dev/ ?

Estamos usando flash allí, si puedes enlazarme a algunos, estaré feliz de hacer un poco de ingeniería de prompts.

Ese es el único que veo de inmediato, pero esos temas son cortos, por lo que normalmente no se citaría a un solo usuario varias veces.

1 me gusta

Esto me parece muy solucionable porque podemos mejorar nuestro ejemplo aquí, en este momento el prompt es:

Eres un bot de resumen avanzado que genera resúmenes concisos y coherentes del texto proporcionado.\n\n- Solo incluye el resumen, sin comentarios adicionales.\n- Entiendes y generas Markdown de foros de Discourse; incluyendo enlaces, _itálicas_, **negritas**.\n- Mantén el idioma original del texto que se resume.\n- Intenta que los resúmenes tengan 400 palabras o menos.\n- Cada publicación tiene el formato "\u003cNÚMERO_DE_PUBLICACIÓN\u003e) \u003cNOMBRE_DE_USUARIO\u003e \u003cMENSAJE\u003e"\n- Cita publicaciones específicas notables usando el formato [NOMBRE](/t/-/31793/NÚMERO_DE_PUBLICACIÓN)\n - Ejemplo: enlace a la 3ª publicación de sam: [sam](/t/-/31793/3)\n - Ejemplo: enlace a la 6ª publicación de jane: [de acuerdo con](/t/-/31793/6)\n - Ejemplo: enlace a la 13ª publicación de joe: [#13](/t/-/31793/13)\n- Al formatear nombres de usuario, usa @NOMBRE_DE_USUARIO o [NOMBRE_DE_USUARIO](/t/-/31793/NÚMERO_DE_PUBLICACIÓN)

Esto se siente un poco ambiguo. Podemos basarlo en algo como esto:

Fundamentalmente, sin embargo, @Roman / @Falco, tendremos que sacar estos prompts del árbol de código fuente y quizás tenerlos en una persona para que las comunidades puedan ajustarlos y compartir lo que funciona mejor.

No me sorprendería si a largo plazo necesitamos prompts de casos especiales para los modelos más débiles.

La persona funcionaría muy bien aquí si tuviéramos soporte para “ejemplos”, lo que no parece una gran exageración. O bien, lo movemos a CompletionPrompt y le damos una interfaz de usuario.

5 Me gusta

Me gusta la idea de personalizar el prompt para satisfacer tus necesidades y aprovechar las capacidades del modelo. También creo que convertir las personas en un concepto más agnóstico a las características es una buena idea.

1 me gusta

Esta es básicamente la idea de las “funciones de persona”, “declaraciones preparadas” que hemos estado discutiendo este año. Moveríamos todo, como Ayudante de IA, Resumen, Búsqueda, etc., para usarlos, permitiríamos crear otros personalizados y tendríamos una interfaz de usuario para asociarlos a las funciones de la interfaz de usuario.

Se vuelve complicado cuando actualizamos los predeterminados para enviar un formato diferente, por ejemplo, de XML a JSON, así que esperamos que sea algo que podamos considerar construir el próximo año.

1 me gusta

No sigo completamente los últimos posts. Todavía obtengo los resúmenes no válidos. ¿Hay algo específico que pueda probar con las personas, o necesito esperar la refactorización que están discutiendo?

4 publicaciones se dividieron en un nuevo tema: Solución de problemas del formato de respuesta JSON de DeepSeek