Ich habe keinen LLM-Tab auf meinem Gerät; ich habe nur diese Optionen auf der Hauptseite der KI-Einstellungen

Ich habe keinen LLM-Tab auf meinem Gerät; ich habe nur diese Optionen auf der Hauptseite der KI-Einstellungen

Wie wurde Ihre Instanz installiert? Verwenden Sie die neueste Version von Discourse? Können Sie im abgesicherten Modus ohne jegliche Anpassungen versuchen?
Ich habe den abgesicherten Modus ausprobiert, aber nichts hat funktioniert. Die Software wurde auf einem Raspberry Pi 5 mit Raspberry Pi OS Lite und Docker installiert. Ich verwende derzeit die Version 3.6.0.beta3-latest.
Sie müssen mindestens auf die neueste Version aktualisieren. Discourse v2025.11.0-latest ist die Version, auf der Sie sein sollten.
Danke, das werde ich jetzt tun.
ok wie gehe ich mit dem Upgrade auf die neueste Version vor
Wenn es sich um eine Standard-Docker-basierte Installation handelt, wird ./launcher rebuild app den Trick machen.
Ich bin jetzt auf dem neuesten Stand, danke Freund, aber wie gehe ich jetzt vor, um eines meiner selbst gehosteten Modelle auf meinem Raspberry Pi mit Ollama zu verwenden, falls das überhaupt möglich ist?
Obwohl es möglich ist, sowohl ein komplettes LLM als auch Discourse auf dem Pi zu hosten, wird dies höchstwahrscheinlich zu einer unbefriedigenden Leistung für beide führen.
Falco macht das tatsächlich
Ich habe versucht, Ollama auf einem Pi auszuführen. Es dauerte so lange, dass es aufgab, eine Verbindung herzustellen. Sofern Sie nicht über beträchtliche Ressourcen verfügen, ist die Ausführung von Ollama auf einem Pi mit 4 GB RAM keine gute Idee. Ich bin mir nicht sicher, ob ein Swap viel helfen würde.
In einer ähnlichen, aber nicht zum Thema gehörenden Anmerkung: Nach meiner Erfahrung funktioniert die Ausführung einer Discourse-Entwicklungsumgebung auf einem Pi mit 4 GB RAM ohne Swap auf einer SD-Karte nicht. Aber das ist weder hier noch da.