A propósito, não achamos os modelos de sumarização existentes bons o suficiente para o Discourse e passamos a usar LLMs para isso. Se você tiver um servidor com VRAM de GPU suficiente, executar um LLM baseado em Llama2 trará ótimos resultados para #ai-summarization e ai-helper. Atualizei o Guia de Auto-hospedagem do Discourse AI com instruções básicas sobre como executar tal LLM.
2 curtidas