GPT-4o mini aterrissou - será compatível?

O título diz tudo – apenas curioso se haverá um plano para dar suporte a este modelo e, em caso afirmativo, há uma estimativa aproximada de quando ele poderá ser implementado?

Esta é uma melhoria massiva para qualquer pessoa que atualmente usa o GPT 3.5 Turbo, pois é mais inteligente e mais de 60% mais barato.

Mais informações sobre este modelo no TechCrunch

1 curtida

https://meta.discourse.org/t/discourse-chatbot/256652/899?u=aaron_walsh

4 curtidas

Já funciona com o plugin Discourse AI, você só precisa garantir que está usando gpt-4o-mini como nome na sua configuração de LLM:

10 curtidas

Que embaraçoso. Obrigado chefe :grin::robot:
Talvez eu não tenha brincado o suficiente com isso - anotação feita

2 curtidas

Veremos o quão mais inteligente ou melhor é alucinar :smirking_face: Lembro-me de quanto burburinho houve quando o GPT-4o chegou e agora há muitas reclamações.

Mas é bom tentar.

Um pouco fora do tópico, mas não entendo totalmente por que temos dois lugares para informar o modelo e a API, configurações e seção LLM?

1 curtida

Esse é um bom ponto. Suspeito que os problemas de alucinação não poderiam ter melhorado com este modelo, no entanto, consegui mitigá-los em grande parte colocando um monte de restrições em todo o prompt do sistema – embora isso tenha suas próprias desvantagens, é claro.

Faz sentido apenas para a configuração manual do LLM. Então, me pego fazendo a mesma pergunta :sweat_smile:

A ideia é que você configure seu LLM primeiro e depois escolha esse LLM para o recurso de IA do Discourse de sua escolha, é por isso que eles estão atualmente em dois lugares separados.

Tivemos algumas discussões internas sobre talvez ter esse processo em um só lugar, ou seja, assim que você configurar o LLM, você também poderá ativá-lo para os recursos específicos de IA, como temos para o bot de IA.