Falco
(Falco)
Outubro 1, 2024, 4:16pm
32
Sim.
Sim, cada modelo produz representações vetoriais diferentes.
É basicamente uma chamada por tópico, então é muito fácil de calcular.
Se a maioria dos seus tópicos for longa, eles serão truncados para 8 mil tokens, caso contrário, eles usarão o comprimento do seu tópico.
Sim.
Overgrow:
Eu presumo que, tanto para tópicos relacionados quanto para pesquisa com IA, todos os posts precisam ser vetorizados apenas uma vez, então posso calcular o número total de palavras na tabela de posts e derivar o número de tokens necessários. O mesmo processo se aplicaria à adição diária de posts. Estou negligenciando as frases de pesquisa por enquanto.
Ambos funcionam no nível do tópico, então um por tópico.
2 curtidas
Posso saber como adicionar corretamente as gems sem fazer um fork do plugin com o PR sugerido?
Estou testando o recurso de scale-to-zero no HuggingFace e só preciso usar a tarefa rake para preencher embeddings.
jlcoo
(Jiang Long)
Julho 7, 2025, 8:33am
40
Por que retorna o código de erro 418 ao usar a pesquisa completa de embeddings de IA do Discourse em DiscourseAi::Embeddings::EmbeddingsController#search como JSON? Você pode me ajudar?
Falco
(Falco)
Dividiu este tópico
Outubro 14, 2025, 7:55pm
41
Falco
(Falco)
Dividiu este tópico
Outubro 15, 2025, 3:36pm
42