O título diz tudo – apenas curioso se haverá um plano para dar suporte a este modelo e, em caso afirmativo, há uma estimativa aproximada de quando ele poderá ser implementado?
Esta é uma melhoria massiva para qualquer pessoa que atualmente usa o GPT 3.5 Turbo, pois é mais inteligente e mais de 60% mais barato.
Esse é um bom ponto. Suspeito que os problemas de alucinação não poderiam ter melhorado com este modelo, no entanto, consegui mitigá-los em grande parte colocando um monte de restrições em todo o prompt do sistema – embora isso tenha suas próprias desvantagens, é claro.
Faz sentido apenas para a configuração manual do LLM. Então, me pego fazendo a mesma pergunta
A ideia é que você configure seu LLM primeiro e depois escolha esse LLM para o recurso de IA do Discourse de sua escolha, é por isso que eles estão atualmente em dois lugares separados.
Tivemos algumas discussões internas sobre talvez ter esse processo em um só lugar, ou seja, assim que você configurar o LLM, você também poderá ativá-lo para os recursos específicos de IA, como temos para o bot de IA.