Por que IA externa foi escolhida em vez de um sistema interno?

Sobre o uso de recursos externos, você pode executar seu LLM localmente, se quiser?:

Mas você já fez isso para algum projeto?

É necessário possuir ou alugar hardware particularmente impressionante!

Experimente os modelos de linguagem menores (que você pode considerar hospedar) por conta própria e veja o quão impressionado você fica:

Sua experiência pode variar, mas, na minha opinião, você precisaria considerar hospedar um modelo com pelo menos 70 bilhões de parâmetros, o que será bastante caro para auto-hospedar.

Para referência, o GPT 3.5 é supostamente um modelo de 175 bilhões de parâmetros e o GPT 4 tem quase 2 trilhões (eles dizem) :sweat_smile:

Eu escrevi este plugin:

E ele tem um recurso de marcação de IA. Na minha experiência, você precisa do GPT 4 Turbo para fazê-lo funcionar bem (e ele funciona realmente bem então!)

Se você pretendesse auto-hospedar algo tão poderoso quanto esses, precisaria de bolsos muito fundos.

É por isso que o uso de uma API externa de LLM ainda é uma opção atraente, paga conforme o uso, especialmente porque você paga apenas pelas chamadas que faz, não por uma infraestrutura cara que passa qualquer tempo ociosa.

Claro, se a privacidade for uma preocupação importante e suficiente, isso pode mudar os cálculos.

5 curtidas