Para LLaVa, no momento, suportamos apenas auto-hospedagem através da imagem de contêiner ghcr.io/xfalcox/llava:latest.
Se você tiver acesso a um servidor com GPU e pelo menos 24 GB de VRAM, poderá auto-hospedá-lo, caso contrário, recomendo continuar usando o GPT-4V.