Far funzionare Discourse AI con Ollama localmente

Imposta l’URL su http://localhost:11434/v1/chat/completions

1 Mi Piace