Il titolo dice tutto: mi chiedevo solo se ci sarà un piano per supportare questo modello e, in caso affermativo, c’è una stima approssimativa su quando potrebbe essere implementato?
Questo è un enorme miglioramento per chiunque utilizzi attualmente GPT 3.5 Turbo poiché è più intelligente e oltre il 60% più economico.
Questo è un buon punto. Sospetto che i problemi di allucinazione non siano migliorati con questo modello, tuttavia sono riuscito a mitigarli in gran parte inserendo una serie di vincoli nell’intero prompt di sistema, sebbene ciò comporti anche i suoi svantaggi, ovviamente.
Ha senso solo per la configurazione manuale dell’LLM. Quindi mi ritrovo a fare la stessa domanda
L’idea è che configuri prima il tuo LLM e poi scelga quell’LLM per la funzionalità di Discourse AI che preferisci, motivo per cui sono attualmente in due posti separati.
Abbiamo avuto alcune discussioni interne riguardo alla possibilità di avere questo processo tutto in un unico posto, cioè - non appena configuri l’LLM puoi anche attivarlo per le specifiche funzionalità AI, come facciamo per il bot AI.