Hospedagem própria de Sentiment e Emotion para DiscourseAI

Estou tentando configurar o modelo de análise de sentimentos auto-hospedado, mas ao tentar executar a imagem Docker, estou recebendo erros:

0: erro de solicitação: erro de cliente de status HTTP (404 Não Encontrado) para a URL (https://huggingface.co/cardiffnlp/twitter-roberta-base-sentiment-latest/resolve/main/tokenizer.json)
1: erro de cliente de status HTTP (404 Não Encontrado) para a URL (https://huggingface.co/cardiffnlp/twitter-roberta-base-sentiment-latest/resolve/main/tokenizer.json)

Estou usando: docker run --rm --shm-size 1g -p 8083:80 -v /opt/tei-sentiment-cache:/data ghcr.io/huggingface/text-embeddings-inference:cpu-1.9 --model-id cardiffnlp/twitter-roberta-base-sentiment-latest

Isso não é suportado sem suporte a GPU ou algo mudou na configuração?