Se você auto-hospedar o mesmo modelo, ele pode consumir até 32 mil tokens.
Se isso estiver fora de questão, você precisará configurar o modelo de embeddings para limitar as entradas ao máximo permitido pelo seu provedor. Dessa forma, nosso AI Bot RAG dividirá os arquivos carregados em blocos, e o Tópico Relacionado / Pesquisa consumirá apenas os primeiros 8192 tokens de cada tópico.