Für LLaVa unterstützen wir derzeit nur das Self-Hosting über das Container-Image ghcr.io/xfalcox/llava:latest.
Wenn Sie Zugriff auf einen Server mit einer GPU mit mindestens 24 GB VRAM haben, können Sie ihn selbst hosten. Andernfalls empfehle ich, bei GPT-4V zu bleiben.