Das Nutzungsproblem nach der Verwendung von KI-Übersetzung

Hallo, hast du diese Empfehlungen befolgt?

Der Nutzungsgraph sieht definitiv besorgniserregend aus. Können Sie diese Data Explorer-Abfrage ausprobieren:

SELECT
  a.id,
  a.language_model,
  LENGTH(p.raw) as raw_length,
  a.response_tokens,
  a.raw_request_payload,
  a.raw_response_payload,
  a.topic_id,
  a.post_id
FROM ai_api_audit_logs a
LEFT JOIN posts p ON p.id = a.post_id AND p.deleted_at IS NULL
LEFT JOIN topics t ON t.id = a.topic_id AND t.deleted_at IS NULL
WHERE a.created_at > CURRENT_DATE - INTERVAL '1 days'
AND p.deleted_at IS NULL
AND t.deleted_at IS NULL
AND p.user_deleted = false
AND a.feature_name = 'translation'
AND LENGTH(p.raw) < 1000
AND a.response_tokens > 10000
ORDER BY a.created_at DESC
LIMIT 100

Die Abfrage sollte Ihnen die Anzahl der verbrauchten Antwort-Tokens basierend auf der Rohlänge des Beitrags anzeigen. Idealerweise sollten Sie eine ähnliche Anzahl sehen, nicht mehr als das 1,5-fache der Tokens. Der AiApiAuditLog hilft bei der Ermittlung, was vor sich geht.

Teilen Sie uns außerdem bitte mit:

  • Welches Modell verwenden Sie?
  • Wie hoch ist Ihre Backfill-Stundenrate? Ich schlage vor, sie für den Anfang niedrig zu halten, z. B. 50.
  • Wie viele Sprachen unterstützen Sie? Unterstützt Ihr ausgewähltes Modell diese?