Ciao pmusaraj,
Grazie per la risposta. Solo per chiarire: non sto utilizzando il modello LLM più economico per risparmiare denaro, ma per testare come funziona in pratica la funzione di traduzione. La scelta del modello non è il punto centrale.
Il punto è che quando Mistral restituisce un errore 503, Discourse AI interrompe silenziosamente la traduzione senza dare alcuna indicazione all’amministratore, senza una coda di nuovi tentativi e senza alcun modo di sapere quali argomenti sono stati saltati. Questo è il problema di UX che sto sollevando, non il costo dei token.
Capisco che si tratti di un progetto open source e che tu stia facendo del tuo meglio per aiutare. Lo apprezzo. Tuttavia, dire “adatta le tue aspettative” è un po’ scoraggiante per qualcuno che sta attivamente testando, segnalando bug e cercando di contribuire al miglioramento del prodotto.
Continuerò a seguire questa discussione e spero in una soluzione.
Grazie,
Denis
1 Mi Piace