GPT-4o mini è atterrato - continuerà ad essere supportato?

Il titolo dice tutto: mi chiedevo solo se ci sarà un piano per supportare questo modello e, in caso affermativo, c’è una stima approssimativa su quando potrebbe essere implementato?

Questo è un enorme miglioramento per chiunque utilizzi attualmente GPT 3.5 Turbo poiché è più intelligente e oltre il 60% più economico.

Maggiori informazioni su questo modello su TechCrunch

1 Mi Piace

https://meta.discourse.org/t/discourse-chatbot/256652/899?u=aaron_walsh

4 Mi Piace

Funziona già con il plugin Discourse AI, devi solo assicurarti di utilizzare gpt-4o-mini come nome nella configurazione del tuo LLM:

10 Mi Piace

Beh, questo è imbarazzante. Grazie capo :grin::robot:
Forse non ci ho giocato abbastanza - annotato

2 Mi Piace

Vedremo quanto sarà più intelligente o migliore allucinare :smirking_face: Ricordo quanto clamore c’è stato quando è uscito GPT-4o e ora ci sono molte lamentele.

Ma è bene provarci.

Un po’ fuori tema, ma non capisco del tutto perché abbiamo due posti per dire al modello e all’API, impostazioni e sezione LLM?

1 Mi Piace

Questo è un buon punto. Sospetto che i problemi di allucinazione non siano migliorati con questo modello, tuttavia sono riuscito a mitigarli in gran parte inserendo una serie di vincoli nell’intero prompt di sistema, sebbene ciò comporti anche i suoi svantaggi, ovviamente.

Ha senso solo per la configurazione manuale dell’LLM. Quindi mi ritrovo a fare la stessa domanda :sweat_smile:

L’idea è che configuri prima il tuo LLM e poi scelga quell’LLM per la funzionalità di Discourse AI che preferisci, motivo per cui sono attualmente in due posti separati.

Abbiamo avuto alcune discussioni interne riguardo alla possibilità di avere questo processo tutto in un unico posto, cioè - non appena configuri l’LLM puoi anche attivarlo per le specifiche funzionalità AI, come facciamo per il bot AI.