Fazendo o discourse ai funcionar com o ollama localmente

Legal. Existe algum guia que possamos seguir sobre como implementá-lo?

Estou mais interessado na sumarização e em outras funções do que no chatbot.

ETA: Esta configuração não funciona:

(Eu ocultei o endereço IP do meu host aqui).

O que acontece é que recebo um Erro Interno do Servidor quando clico em “Executar Teste”.

Em /logs, vejo:

NameError (variável local ou método `tokenizer' indefinido para uma instância de DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:427:in `block in with_resolved_locale'
app/controllers/application_controller.rb:427:in `with_resolved_locale'
lib/middleware/omniauth_bypass_middleware.rb:35:in `call'
lib/middleware/csp_script_nonce_injector.rb:12:in `call'
lib/middleware/anonymous_cache.rb:409:in `call'
lib/middleware/csp_script_nonce_injector.rb:12:in `call'
config/initializers/008-rack-cors.rb:14:in `call'
config/initializers/100-quiet_logger.rb:20:in `call'
config/initializers/100-silence_logger.rb:29:in `call'
lib/middleware/enforce_hostname.rb:24:in `call'
lib/middleware/processing_request.rb:12:in `call'
lib/middleware/request_tracker.rb:385:in `call'

Isso acontece independentemente do tokenizador que eu selecionar. Estou testando isso em 3.5.0beta1-dev (c1ee4e120e).

1 curtida