¿Qué funciones de Discourse AI son GRATIS para usar?

La próxima semana explicaré la integración de Discourse AI al equipo. Ya tenemos algunas claves de API, PERO, todas son para cuentas DE PAGO.

Estoy seguro de que me preguntarán: ¿Hay alguna característica que se pueda integrar y que se pueda usar de forma gratuita? Esto es para una escuela y estamos seguros de que los estudiantes querrán usar todo, pero los costos serán astronómicos.
Gracias

2 Me gusta

No. No es gratis.

En realidad, llama3 es gratis, pero por lo que puedo entender, se necesita una computadora de $300,000 para ejecutarlo.

Si tienes algo de presupuesto, podrías configurarlo de tal manera que pagues esa cantidad mensualmente al servicio que quieras pagar y, cuando se agote para el mes, se agote para el mes. Intentarías establecer límites para que no sucediera la primera semana (o día). Sería complicado configurarlo de tal manera que los maestros que quisieran usarlo como parte de la clase pudieran contar con él.

4 Me gusta

Como escuela, tal vez puedan registrarse para obtener créditos educativos gratuitos en servicios como AWS, Azure o GCP y usarlos para potenciar las funciones de IA de Discourse.

7 Me gusta

Gracias, eso es lo que planeaba decirles. No es gratis. El plan por ahora es seguir utilizando instancias locales de Gpt4All y LmStudio.

3 Me gusta

Por si sirve de algo, puedes ejecutar la versión 70b de Llama3 con 48 GB de VRAM, que puedes conseguir relativamente fácil con un par de Nvidia RTX 3090 usadas de eBay por unos 750 dólares cada una. Montar el resto de un sistema para soportarlo costaría alrededor de 3000 dólares, espero. :smiling_face:

5 Me gusta

¡Eso es una mejora de 100 veces! Puedo imaginar que una escuela tenga tanto dinero, pero tengo bastante imaginación.

Muchas gracias por eso. Mayormente no entiendo los requisitos de hardware.

3 Me gusta

Puedes verlo de otra manera.

¿Por qué no pruebas el uso de IA y observas los paneles de costos durante un mes? Luego decides si quieres continuar.

Solo en los últimos 12 meses, el costo de los modelos capaces ha bajado MUCHO.

El gpt4o-mini de OpenAI es muy capaz y muy barato ahora (pero todo es relativo).

5 Me gusta

Bueno, mini me ha fallado siempre. Pero eso merece otro tema en otro lugar.

2 Me gusta

Sí, también puede depender del idioma.

2 Me gusta

Gemini Flash es muy barato y la API de DeepSeek es tan barata que es casi gratis.

Si necesitas ejecutar localmente, puedes construir una máquina por menos de $1000 que pueda ejecutar modelos Llama. Construí una máquina 4xP100 por $1000 que tiene 64 GB de VRAM. Pero una máquina 2xP40 con 48 GB de VRAM sería suficiente para ejecutar Llama 70B y se puede construir por $600 si compras piezas de segunda mano.

Para lo último en economía, podrías ejecutar en una sola GPU P40 con cuantización AQLM, pero esto sería bastante lento (~1 tok/s).

3 Me gusta

No tienen dinero

Interesante que nadie esté teniendo en cuenta los costos de electricidad para todas estas soluciones de autoalojamiento. Supongo que esa es una factura consolidada que de todos modos no se puede rastrear hasta una máquina específica…

5 Me gusta

Acabas de tocar un tema que un amigo que trabaja para una empresa de servicios públicos mencionó el otro día como consecuencia del trabajo remoto. Las unidades de aire acondicionado/calefacción ahora funcionan sin parar porque la gente tiene que usarlas sin parar. El resultado han sido facturas de servicios públicos astronómicas para muchos.

1 me gusta

Tenga en cuenta que los planes alojados de Discourse incluyen temas relacionados incluidos en el plan. Esto funciona con incrustaciones de IA.

Algunos proveedores como Cloudflare ofrecen un nivel gratuito con una generosa cantidad de uso para quienes se autoalojan.

4 Me gusta

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.