Désolés les gars, je n’ai pas pu déterminer à partir de cet article si un LLM installé localement peut être configuré via l’interface utilisateur des paramètres standard.
Je pense que tant qu’il expose une API prise en charge, cela devrait être possible.
Existe-t-il un LLM particulier que vous prévoyez d’installer (ou que vous avez déjà installé) localement ?
ce sujet pourrait aider
C’est un autre exercice pour choisir le bon - je n’étais pas certain même après avoir lu vos articles liés à l’IA ici sur Meta.
Je suppose qu’un outil Open Source LLM Selector de l’équipe Discourse serait très utile - car vous connaissez les rouages et ce qu’un LLM doit exactement être capable de faire pour exceller dans divers types de tâches pertinentes pour les communautés Discourse. Ainsi, l’outil/assistant/LLM poserait des questions ou me laisserait cocher/décocher dans une liste de plus de 20 tâches typiques que j’aimerais que le LLM fasse dans ma communauté, puis obtiendrait un Top 3 recommandé (sans compromis mais le plus lourd et nécessitant du matériel coûteux ; équilibré nécessitant un serveur dédié à prix moyen ; et léger pour les tâches de base dans les communautés petites à moyennes qui peuvent fonctionner sur un VPS de 20 à 40 $).
Je pense que maintenir la bonne réponse à cela serait un travail à temps plein. ![]()
Si vous recherchez la gratuité, le niveau gratuit de Gemini est la solution :
Gemini Flash 2.0 est un modèle très performant et le niveau gratuit offre une utilisation suffisante pour effectuer pas mal de choses sur votre forum.
Je cherche un hébergement local car je ne peux envoyer aucun de nos contenus à un service extérieur à nos serveurs.
Pour les options bon marché, merci pour l’astuce !
Sans compromis
- DeepSeek V3 0324
- Qwen 3 235B A22
Équilibré
- Qwen 3 32B / 30B A3B
- Llama 3.3 70B
- Qwen 2.5 70B
Léger
Peut-être unsloth/gemma-3-4b-it-qat-GGUF · Hugging Face ? C’est difficile à ce niveau, beaucoup plus économique d’utiliser une API hébergée, comme OpenRouter.