Ich habe ai_api_audit_logs gefunden und glaube, ich habe das Problem gefunden.
Wenn eine Übersetzung gesendet wird, gibt es eine Funktion get_max_tokens, die die maximale Anzahl von Tokens basierend auf der Textlänge zuweist.
Das Problem ist, dass sie hauptsächlich für die Argumentation verwendet wird. Sehen Sie sich dieses Audit-Protokoll an: Das Limit wurde auf 1000 gesetzt, und die Argumentation hat die gesamten 1000 verbraucht, bevor sie überhaupt mit der Generierung von Ausgaben begonnen hat.
Das Limit für Argumentationsmodelle sollte viel höher sein.
data: {"id":"chatcmpl-CQ7XU4Ep16RClb7OZQAxOXN9JWgIG","object":"chat.completion.chunk","created":1760341544,"model":"gpt-5-2025-08-07","service_tier":"default","system_fingerprint":null,"choices":[{"index":0,"delta":{"role":"assistant","content":"","refusal":null}}],"usage":null,"obfuscation":"dPNNK7ojEf"}
data: {"id":"chatcmpl-CQ7XU4Ep16RClb7OZQAxOXN9JWgIG","object":"chat.completion.chunk","created":1760341544,"model":"gpt-5-2025-08-07","service_tier":"default","system_fingerprint":null,"choices":[{"index":0,"delta":{},"finish_reason":"length"}],"usage":null,"obfuscation":"dM2r"}
data: {"id":"chatcmpl-CQ7XU4Ep16RClb7OZQAxOXN9JWgIG","object":"chat.completion.chunk","created":1760341544,"model":"gpt-5-2025-08-07","service_tier":"default","system_fingerprint":null,"choices":[],"usage":{"prompt_tokens":1075,"completion_tokens":1000,"total_tokens":2075,"prompt_tokens_details":{"cached_tokens":0,"audio_tokens":0},"completion_tokens_details":{"reasoning_tokens":1000,"audio_tokens":0,"accepted_prediction_tokens":0,"rejected_prediction_tokens":0}},"obfuscation":"j4"}
data: [DONE]