Justificando la función de límite estricto en el uso de IA del grupo de usuarios para bots de IA y Asistente IA

He realizado algunos cálculos y he llegado a la conclusión de que, sin la capacidad de limitar la entrada y salida de tokens de un usuario al mes o al día, uno puede meterse rápidamente en problemas. Actualmente, la única forma de limitar la interacción de un usuario con un bot de IA es permitir que los bots de IA solo funcionen en mensajes privados (desactivando el chat para cada persona) y establecer un límite de mensajes privados diarios permitidos, pero, por supuesto, esto no es realista. Aquí hay un ejemplo de un desglose de costos del “peor escenario” que justifica la necesidad de esta función, utilizando el enfoque que OpenAI utiliza para sus miembros de ChatGPT:

GPT-4o mini con contexto de 32k (P.D. la longitud del contexto se establece utilizando la configuración “Número de tokens para el prompt” en la página de configuración de LLM)
Costo actual: $0.15 1M de entrada / $0.60 1M de salida

Supongamos que el usuario introduce 32k y produce 16k cada día durante 30 días (un ciclo de facturación para una suscripción típica):
Costo de entrada mensual = 960,000 tokens = ~$0.14
Costo de salida mensual = 480,000 tokens = ~$0.28

De acuerdo, eso en realidad no está mal, ¿verdad? Menos de medio dólar. Sin embargo, ese es en realidad un uso bastante bajo, especialmente dado que GPT-4o mini puede generar hasta 16.4k tokens en un solo disparo (aunque sí, por supuesto, puedes diseñar el prompt y la configuración de LLM para evitarlo). Puedes empezar a multiplicar esos costos por la cantidad que creas que tus usuarios usarían el bot de IA. Lo peor es que este es un modelo increíblemente barato; los costos son exponencialmente más altos para Claude 3.5 Sonnet ($3 1M de entrada / $15 1M de salida) y GPT-4o ($5 1M de entrada / $15 1M de salida), y ni siquiera hablemos de GPT-4 Turbo, ¡jaja! Aquí tienes el mismo desglose para Claude 3.5 Sonnet:

Claude 3.5 Sonnet con contexto de 32k
Costo de entrada mensual = ~$2.88
Costo de salida mensual = ~$7.20
Total = ~$10.08

Pero de nuevo; este es un uso bajo. Por lo tanto, queda claro lo costoso que puede ser tener un uso ilimitado de LLM en bots de IA. Si multiplicas esto por 2, necesitarías cobrar una suscripción de $25 para obtener una ganancia de poco menos de $5 :grimacing:

:bullseye: Aquí está lo que propongo formalmente:

  1. Una configuración que permita una cantidad específica de entrada y salida de tokens para un grupo de usuarios específico cada mes o día para los bots de IA.
  • Este uso de tokens NO incluiría el prompt del sistema para las personas.
  • Los límites de tokens pueden ser por LLM, por persona o universales/en general.
  1. Alternativamente al punto 1, se podría usar un límite entero simple para usar bots de IA en DMs y PMs. Ejemplo: límite de 100 DMs a cualquier persona por día.
  2. Una configuración que permita una cantidad específica de salida de tokens para un grupo de usuarios específico cada mes o día para el asistente de IA.
  • La entrada de tokens puede no contarse, ya que sería poco práctico esperar que el usuario adivine cuántos tokens tiene un tema largo cuando, por ejemplo, genera un resumen.
  • También podría ser prudente establecer un límite entero estricto en la longitud (en palabras para que no se tenga que usar TikToken aquí) para los prompts personalizados, para que los usuarios no intenten eludir sus límites mensuales/diarios utilizando el Compositor como un chatbot sin medidor :smiling_face_with_sunglasses:
  1. Un contador de tokens en el perfil del usuario y quizás incluso en sus PMs y DMs. Sería genial si hubiera un pequeño texto junto a cada mensaje de usuario e IA que muestre el número de tokens que es (no queremos necesariamente permitir que todos tengan la función de depuración, y eso solo funciona en PMs de todos modos)
  • Un contador de tokens separado para el asistente de IA (para ayudar a mantener estas dos funciones separadas) que comparte un recuento entre explicar, corregir, prompt personalizado, etc.

Nota al margen: No estoy criticando esta función ni a los desarrolladores de ninguna manera y me disculpo si alguna parte de esto suena así. Honestamente, el plugin Discourse AI es una de mis tecnologías favoritas de todos los tiempos. De hecho, me está permitiendo construir el negocio de mis sueños como investigador y educador de IA sin tener que contratar ingenieros adicionales y pagar infraestructura adicional: puedo configurarlo todo yo mismo :heart:. Simplemente creo que esta función es la última pieza del rompecabezas, no solo para mí, sino para numerosos usuarios de Discourse que quieren que sus usuarios disfruten de esta maravillosa tecnología dentro de lo razonable.

1 me gusta

Esto se implementó en Discourse Chatbot como un sistema de cuotas semanales en marzo de 2023 y desde entonces se ha ampliado para que puedas definir cuotas para tres colecciones diferentes de Grupos de usuarios. Por ejemplo, los miembros de pago obtienen una cuota más alta.

A los usuarios que superan su cuota semanal se les muestra un mensaje educado (que no te cuesta nada).

Además, los administradores pueden ser alertados cuando se supera una cuota.

Te envié un mensaje privado al respecto en respuesta a una de tus publicaciones anteriores sobre este tema, pero no respondiste :thinking: ¿Quizás estás alojado y no tienes acceso a mi plugin?

Sinceramente, con la llegada de GPT 4o-mini, los costos de las conversaciones decentes con bots se han desplomado.

Por cierto, Discourse Chatbot ahora es utilizado por al menos una empresa para soporte al cliente de primera línea, por lo que puedes estar seguro de que es estable y eficaz.

2 Me gusta

¡Disculpas por la falta de respuesta! Ahora recuerdo haberlo leído, pero no tengo idea de por qué no te respondí :face_with_spiral_eyes:. Y estoy en una instancia droplet, así que ese no es el problema.

No tengo dudas sobre su estabilidad y calidad; de hecho, me gusta bastante el plugin y te respeto a ti y al esfuerzo que pones en él. Sin embargo, un chatbot solo satisface una necesidad parcial para mi proyecto empresarial. El AI Helper es una necesidad central, así como la capacidad de cambiar inmediatamente entre modelos. En un futuro cercano, implementaré mi propio modelo afinado y configuraré manualmente mis LLM, y esto es de misión crítica.

Solo explico todo esto para que no pienses que tengo algo en contra de tu trabajo! :grin: Más bien, el problema es mío; estoy intentando hacer algo bastante específico.

1 me gusta

Sí, respeto totalmente el alcance de la solicitud es más amplio :+1:

Solo ofrezco una solución parcial (si bien significativa).

1 me gusta

Se espera que esto aterrice esta semana:

6 Me gusta

¡Esto es IMPRESIONANTE!

En los detalles a continuación, ¿implica esto que los tokens y las solicitudes totales se comparten entre todos los usuarios del grupo, o más bien que cada usuario del grupo puede utilizar las cantidades establecidas individualmente?

Este sistema proporciona un control granular sobre el uso de la API de LLM al permitir a los administradores definir límites tanto en el total de tokens como en el número de solicitudes por grupo.

Oh, necesito aclarar esto en la interfaz de usuario… todos los límites son por usuario y nunca se comparten entre los miembros del grupo. El límite de cuota de grupo compartido es un concepto interesante, pero ¿no estoy seguro de que tenga sentido en la práctica? ¿Se te ocurre alguna vez que esto sería útil?

Por ahora, mi implementación es:

  • Elegir la cuota más “relajada” que tiene el usuario dependiendo de los grupos de los que el usuario sea miembro.
  • Hacer cumplir por usuario.

(esto permite inmunidad a los administradores incluso si TL2 tiene una cuota estricta)

Preguntaba porque realmente no tendría sentido en la práctica :grinning_face_with_smiling_eyes: . Mi opinión es que tu implementación aquí es la más ideal. Mi comunidad y yo apreciamos enormemente el trabajo que se está haciendo aquí :heart:

1 me gusta

El único argumento a favor de la “cuota absoluta” es:

Quiero que Tl1 pueda jugar con IA pero… como salvaguardia, limita mi gasto a N$ al día. Tl1 tiene un número desconocido de miembros.

Pero supongo que si eso es lo que la gente busca, podrían poner las cuotas absolutas directamente en los paneles de control de Anthropic / Open AI, etc.

No estoy en contra de añadir cuotas absolutas más adelante, pero probablemente me saltaré esta iteración.

2 Me gusta

@sam Esta es una actualización fantástica :partying_face: ¿Estarán los límites de tokens vinculados a las suscripciones? Sería increíble si pudiéramos controlar el uso y permitir que se utilicen modelos más caros por una tarifa.

Sí, esto puede funcionar con el sistema, puedes configurar diferentes cuotas para diferentes grupos de usuarios.

2 Me gusta

Esto ahora está implementado y documentado:

2 Me gusta

Este tema se cerró automáticamente después de 5 días. Ya no se permiten nuevas respuestas.