Olá, você seguiu estas recomendações?
O gráfico de uso definitivamente parece preocupante. Você pode tentar esta consulta do explorador de dados:
SELECT
a.id,
a.language_model,
LENGTH(p.raw) as raw_length,
a.response_tokens,
a.raw_request_payload,
a.raw_response_payload,
a.topic_id,
a.post_id
FROM ai_api_audit_logs a
LEFT JOIN posts p ON p.id = a.post_id AND p.deleted_at IS NULL
LEFT JOIN topics t ON t.id = a.topic_id AND t.deleted_at IS NULL
WHERE a.created_at > CURRENT_DATE - INTERVAL '1 days'
AND p.deleted_at IS NULL
AND t.deleted_at IS NULL
AND p.user_deleted = false
AND a.feature_name = 'translation'
AND LENGTH(p.raw) < 1000
AND a.response_tokens > 10000
ORDER BY a.created_at DESC
LIMIT 100
A consulta deve mostrar o número de tokens de resposta usados com base no comprimento bruto do post. Idealmente, você deve ver um número semelhante, não mais que 1,5x tokens. O AiApiAuditLog ajudará a determinar o que está acontecendo.
Além disso, por favor, compartilhe:
- Qual modelo você está usando?
- Qual é a sua taxa de preenchimento por hora? Sugiro mantê-la em um valor baixo, como 50 para começar.
- Quantos idiomas você está suportando? O modelo selecionado os suporta?