目前,对于 LLaVa,我们仅支持通过 ghcr.io/xfalcox/llava:latest 容器镜像进行自托管。
ghcr.io/xfalcox/llava:latest
如果您确实拥有至少具有 24GB VRAM 的 GPU 服务器,则可以自托管,否则我建议您继续使用 GPT-4V。