Sobre o uso de recursos externos, você pode executar seu LLM localmente, se quiser?:
Mas você já fez isso para algum projeto?
É necessário possuir ou alugar hardware particularmente impressionante!
Experimente os modelos de linguagem menores (que você pode considerar hospedar) por conta própria e veja o quão impressionado você fica:
Sua experiência pode variar, mas, na minha opinião, você precisaria considerar hospedar um modelo com pelo menos 70 bilhões de parâmetros, o que será bastante caro para auto-hospedar.
Para referência, o GPT 3.5 é supostamente um modelo de 175 bilhões de parâmetros e o GPT 4 tem quase 2 trilhões (eles dizem) ![]()
Eu escrevi este plugin:
E ele tem um recurso de marcação de IA. Na minha experiência, você precisa do GPT 4 Turbo para fazê-lo funcionar bem (e ele funciona realmente bem então!)
Se você pretendesse auto-hospedar algo tão poderoso quanto esses, precisaria de bolsos muito fundos.
É por isso que o uso de uma API externa de LLM ainda é uma opção atraente, paga conforme o uso, especialmente porque você paga apenas pelas chamadas que faz, não por uma infraestrutura cara que passa qualquer tempo ociosa.
Claro, se a privacidade for uma preocupação importante e suficiente, isso pode mudar os cálculos.