Aviso de incorporação `input must have less than 8192 tokens` com discourse ai

Se você auto-hospedar o mesmo modelo, ele pode consumir até 32 mil tokens.

Se isso estiver fora de questão, você precisará configurar o modelo de embeddings para limitar as entradas ao máximo permitido pelo seu provedor. Dessa forma, nosso AI Bot RAG dividirá os arquivos carregados em blocos, e o Tópico Relacionado / Pesquisa consumirá apenas os primeiros 8192 tokens de cada tópico.

1 curtida