Utilizzo text-embedding-3-large per il modello di embedding AI e qualcosa non va. Voglio dire, devo ricaricare il mio account OpenAI due volte da (30 novembre), il che è pazzesco perché dovrebbe bastare per mesi… È cambiato qualcosa in argomenti correlati? Forse riempie sempre argomenti già elaborati o non lo so.
Genera circa 24 milioni di token di input al giorno
Ho controllato il mio. È esploso il 27.11. e prima era sotto i 100k token al giorno, ma poi è aumentato a 7 milioni e sta aumentando ogni giorno e ieri era vicino ai 20 milioni.
Modifica: Ottobre, il costo degli embedding era di 46 centesimi. Ora, dicembre quasi quattro giorni: quasi 6 dollari.
24M al giorno è il tuo intero forum, sembra che ci siano dei bug. A meno che tu non riceva aggiornamenti in tutti quegli argomenti ogni giorno, si tratta sicuramente di un bug.
Una cosa che potrebbe essere correlata è che in passato saltavamo la chiamata all’API embeddings quando il riassunto dell’argomento non cambiava, ma abbiamo regressionato questo in gen_bulk_reprensentations@Roman.
@Don sai quante richieste di embeddings stai facendo al giorno?
Dati i 250 all’ora, abbiamo un limite massimo di 6k al giorno. Questi numeri sono ancora all’interno del limite.
Tuttavia, se vengono attivati solo dal nostro “aggiornamento di un campione casuale” di argomenti, dovrebbe essere limitato al 10% di questo, il che, nel peggiore dei casi, sarebbero 600 richieste.
@Roman questo limite non viene applicato in qualche modo? O il problema è altrove?
Sì, penso che il bug che ho corretto ne abbia rivelato un altro che il controllo del digest stava nascondendo.
Penso che il bug sia qui:
L’ho cambiato da find_each a find_in_batches la settimana scorsa (il primo usa batch internamente) e poiché entrambi si basano su limit per specificare la dimensione del batch, il limit originale di limit - rebaked viene ignorato. Dovremmo usare pluck + each_slice invece.
A prima vista, non sembra correlato. Sembra che non sia riuscito a generare l’embedding e stia cercando di inserire NULL. Potrebbe essere che OpenAI stia restituendo un errore? Forse qualcosa relativo alle quote?
Puoi eseguirlo da una console?
DiscourseAi::Embeddings::VectorRepresentations::Base
.find_representation(SiteSetting.ai_embeddings_model)
.new(DiscourseAi::Embeddings::Strategies::Truncation.new)
.vector_from("this is a test")
.present?
Dovrebbe registrare l’errore nei tuoi log se solleva un Net::HTTPBadResponse.
Ciò significa che può generare embedding allora. Questi errori persistono? Se è così, dovresti vedere questi errori ogni cinque minuti.
Ho eseguito alcuni test sulla mia istanza locale contro il nostro servizio di embedding self-hosted e ho confermato che il backfilling funziona nelle seguenti condizioni:
Non ci sono embedding.
Il digest è obsoleto e updated_at degli embedding è precedente alle 6 ore.
Il digest non è obsoleto e updated_at degli embedding è precedente alle 6 ore (in questo caso non si aggiorna).
Non so nulla dei limiti, ma la quantità di richieste API ecc. è tornata alla normalità dopo la precedente correzione. Quindi grazie ragazzi per la reazione rapida.