Salut, avez-vous suivi ces recommandations ?
Le graphique d’utilisation semble définitivement préoccupant. Pouvez-vous essayer cette requête d’explorateur de données :
SELECT
a.id,
a.language_model,
LENGTH(p.raw) as raw_length,
a.response_tokens,
a.raw_request_payload,
a.raw_response_payload,
a.topic_id,
a.post_id
FROM ai_api_audit_logs a
LEFT JOIN posts p ON p.id = a.post_id AND p.deleted_at IS NULL
LEFT JOIN topics t ON t.id = a.topic_id AND t.deleted_at IS NULL
WHERE a.created_at > CURRENT_DATE - INTERVAL '1 days'
AND p.deleted_at IS NULL
AND t.deleted_at IS NULL
AND p.user_deleted = false
AND a.feature_name = 'translation'
AND LENGTH(p.raw) < 1000
AND a.response_tokens > 10000
ORDER BY a.created_at DESC
LIMIT 100
La requête devrait vous montrer le nombre de tokens de réponse utilisés en fonction de la longueur brute du message. Idéalement, vous devriez voir un nombre similaire, pas plus de 1,5 fois les tokens. L’AiApiAuditLog aidera à déterminer ce qui se passe.
Veuillez également partager,
- Quel modèle utilisez-vous ?
- Quel est votre taux de remplissage horaire ? Je suggère de le maintenir à une valeur faible, comme 50 pour commencer.
- Combien de langues supportez-vous ? Votre modèle sélectionné les supporte-t-il ?