Backfill de Resumo de IA está desperdiçando tokens ao resumir PMs

Nossa proporção é de 10 PMs para cada tópico normal:

topic_type total_count
Mensagens Privadas 52130
Tópicos Normais (Regulares) 5399

(O código do Explorador de Dados é uma cortesia do ChatGPT o1.)

Os tópicos normais geralmente usam um pouco mais de tokens de entrada do que os PMs, o que mitiga um pouco o problema, mas ainda assim.

2 curtidas