Estou tentando configurar o modelo de análise de sentimentos auto-hospedado, mas ao tentar executar a imagem Docker, estou recebendo erros:
0: erro de solicitação: erro de cliente de status HTTP (404 Não Encontrado) para a URL (https://huggingface.co/cardiffnlp/twitter-roberta-base-sentiment-latest/resolve/main/tokenizer.json)
1: erro de cliente de status HTTP (404 Não Encontrado) para a URL (https://huggingface.co/cardiffnlp/twitter-roberta-base-sentiment-latest/resolve/main/tokenizer.json)
Estou usando: docker run --rm --shm-size 1g -p 8083:80 -v /opt/tei-sentiment-cache:/data ghcr.io/huggingface/text-embeddings-inference:cpu-1.9 --model-id cardiffnlp/twitter-roberta-base-sentiment-latest
Isso não é suportado sem suporte a GPU ou algo mudou na configuração?