Pourquoi une IA externe a-t-elle été choisie plutôt qu'un système interne ?

Concernant l’utilisation de ressources externes, vous pouvez exécuter votre LLM localement si vous le souhaitez ? :

Mais l’avez-vous déjà fait pour un projet ?

Cela nécessite de posséder ou de louer du matériel particulièrement performant !

Essayez vous-même les modèles de langage plus petits (que vous pourriez envisager d’héberger) et voyez à quel point vous êtes impressionné :

Vos résultats peuvent varier, mais à mon avis, vous devriez envisager d’héberger un modèle d’au moins 70 milliards de paramètres, ce qui coûtera assez cher à auto-héberger.

À titre de référence, GPT 3.5 est censé être un modèle de 175 milliards de paramètres et GPT 4 en a près de 2 billions (dit-on) :sweat_smile:

J’ai écrit ce plugin :

Et il dispose d’une fonctionnalité de balisage IA. D’après mon expérience, vous avez besoin de GPT 4 Turbo pour qu’il fonctionne bien (et il fonctionne vraiment bien alors !)

Si vous aviez l’intention d’auto-héberger quelque chose d’aussi puissant que ceux-là, il vous faudrait des poches très profondes.

C’est pourquoi l’utilisation d’une API LLM externe reste une option attrayante, pay-as-you-go, surtout parce que vous ne payez que pour les appels que vous effectuez, et non pour une infrastructure coûteuse qui passe du temps à tourner à vide.

Bien sûr, si la confidentialité est une préoccupation majeure et suffisante, cela pourrait changer le calcul.

5 « J'aime »