Pour LLaVa, nous ne prenons en charge que l’auto-hébergement via l’image de conteneur ghcr.io/xfalcox/llava:latest pour le moment.
Si vous avez accès à un serveur avec un GPU doté d’au moins 24 Go de VRAM, vous pouvez l’auto-héberger, sinon je vous recommande de vous en tenir à GPT-4V.