Quais recursos do Discourse AI são GRATUITOS para usar?

Explicarei a integração do Discourse AI para a equipe na próxima semana. Já temos algumas chaves de API, MAS, todas são para contas PAGAS.

Tenho certeza de que me perguntarão: existem recursos que podem ser integrados e usados gratuitamente? Isso é para uma escola e temos certeza de que os alunos podem querer usar tudo, mas os custos serão exorbitantes.
Obrigado

2 curtidas

Não. Não é grátis.

Na verdade, o Llama 3 é gratuito, mas pelo que entendi, é preciso um computador de US$ 300.000 para executá-lo.

Se você tiver algum orçamento, poderia configurá-lo de forma que pague esse valor mensalmente para qualquer serviço que desejar e, quando o valor for consumido no mês, ele será consumido. Você tentaria configurar limites para que isso não acontecesse na primeira semana (ou dia). Seria complicado configurá-lo de forma que os professores que quisessem usá-lo como parte da aula pudessem contar com ele.

4 curtidas

Como uma escola, talvez vocês possam se inscrever para créditos educacionais gratuitos em serviços como AWS, Azure ou GCP e usá-los para potencializar os recursos de IA do Discourse.

7 curtidas

Obrigado, era o que eu planejava dizer a eles. Não é gratuito. O plano por enquanto é continuar usando instâncias locais do Gpt4All e LmStudio

3 curtidas

Para que valha a pena, você pode executar a versão 70b do Llama3 com 48GB de VRAM, que você pode obter relativamente fácil de um par de Nvidia RTX 3090 usadas do eBay por cerca de US$ 750 cada. Montar o resto de um sistema para suportar isso custaria na faixa de US$ 3000, eu espero. :smiling_face:

5 curtidas

Isso é um fator de 100 de melhoria! Posso imaginar uma escola tendo tanto dinheiro, mas tenho uma imaginação muito boa.

Muito obrigado por isso. Na maioria das vezes, não entendo os requisitos de hardware.

3 curtidas

Você pode ver isso de outra forma.

Por que não experimentar o uso de IA e observar os painéis de custos por um mês? Então, decida se deseja continuar.

Apenas nos últimos 12 meses, o custo de modelos capazes diminuiu MUITO.

O gpt4o-mini da OpenAI é muito capaz e muito barato agora (mas tudo é relativo).

5 curtidas

Bem, o mini falhou comigo todas as vezes. Mas isso é digno de outro tópico em outro lugar.

2 curtidas

Sim, isso também pode depender do idioma.

2 curtidas

Gemini Flash é muito barato e a API DeepSeek é tão barata que é quase de graça.

Se precisar rodar localmente, você pode montar uma máquina por menos de US$ 1000 que pode rodar modelos Llama. Montei uma máquina 4xP100 por US$ 1000 que tem 64 GB de VRAM. Mas uma máquina 2xP40 com 48 GB de VRAM seria suficiente para rodar Llama 70B e pode ser montada por US$ 600 se você comprar peças usadas.

Para o máximo em economia, você poderia rodar em uma única GPU P40 com quantização AQLM, mas isso seria bem lento (~1 tok/s).

3 curtidas

Eles não têm dinheiro

Interessante que ninguém está considerando os custos de eletricidade para todas essas soluções de auto-hospedagem. Acho que essa é uma fatura consolidada que não pode ser rastreada até uma máquina específica de qualquer maneira…

5 curtidas

Você acabou de tocar em um assunto que um amigo que trabalha para uma empresa de serviços públicos mencionou outro dia como consequência do trabalho remoto. As unidades de ar condicionado/aquecimento agora estão funcionando 24 horas por dia, 7 dias por semana, porque as pessoas têm que usá-las sem parar. O resultado tem sido contas de serviços públicos astronômicas para muitos.

1 curtida

Observe que os planos hospedados do Discourse incluem tópicos relacionados incluídos no plano. Isso é alimentado por embeddings de IA.

Alguns provedores, como o Cloudflare, oferecem um nível gratuito com uma quantidade generosa de uso para auto-hospedeiros.

4 curtidas

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.