Ich möchte Discourse AI auf Discourse installieren

  1. Ich möchte Discourse AI auf Discourse installieren. Welche der folgenden drei Methoden sollte ich zur Installation verwenden?
    1-1. Fügen Sie die Adresse von Discourse AI’s .git zu „nono“ hinzu, wie in den Installationsanweisungen des Plugins gezeigt.
    1-2. Discourse AI - Self-Hosted Guide Geben Sie die drei Zeilen der „Docker“-Befehle ein, die in dieser Adresse gezeigt werden, um es zu installieren.
    *Muss ich den Befehl im Stammverzeichnis eingeben?
    1-3. Muss ich sowohl 1-1. als auch 1-2. tun?
  2. Was sind die Mindestspezifikationen für den Betrieb von Discourse AI?

Wenn ich Toxic, NSFW und Sensitivity in meinem selbst gehosteten Discourse verwenden möchte, reicht es aus, einfach dieses GitHub - discourse/discourse-ai hinzuzufügen?

Oder muss ich sie mit den Docker-Befehlen installieren, die im Link unten angegeben sind?

Sie benötigen auch ein LLM, das auf etwas anderem als OpenAI basiert und viel teurer ist. Dieses Plugin ist nur eine Art Schnittstelle, nichts weiter.

1 „Gefällt mir“

Vielen Dank für Ihre Antwort, könnten Sie bitte etwas mehr ins Detail gehen?

Wie Ihr Link zeigt, tut das KI-Plugin nur selbst nichts. Es liefert nur Einstellungen. Sie benötigen auch eine KI, entweder selbst gehostet oder von OpenAI.

Modelle von OpenAI bieten nicht die von Ihnen gewünschten Dienste an, daher müssen Sie auf selbst gehostete Lösungen zurückgreifen. Dies erfordert einige technische Fähigkeiten, wird aber aufgrund des Bedarfs an einem ziemlich großen VPS wirklich kostspielig sein.

Um es zu verwenden, muss ich also den Befehl ‘Docker’ aus der Self-Hosted-Anleitung im zweiten Link installieren, nicht nur das Plugin? (Ich bin Self-Hosted)

So etwas, aber viel mehr.

Wenn ich Sie richtig verstehe, bedeutet das, dass Sie mehr als nur Plugins und ‘Docker’ benötigen?

Ja, Sie benötigen eine echte KI.

1 „Gefällt mir“

Wenn Sie sich nicht sicher sind, probieren Sie es zuerst aus, indem Sie zuerst einen Schlüssel von Open AI erhalten und sich dann später mit der komplexeren Aufgabe befassen, eine lokale LLM-Engine bereitzustellen:

https://platform.openai.com/docs/overview

1 „Gefällt mir“
  1. Wenn ich das richtig verstehe, muss man bestimmte APIs auf Self-Hosting korrekt aufrufen, indem man sie mit Docker-Befehlen installiert, ist das richtig?
    Zum Beispiel, wenn es sich um eine toxische KI handelt, müsste ich „docker run -it --rm --name detoxify -e BIND_HOST=0.0.0.0 -p6666:80 ghcr.io/discourse/detoxify:latest“ installieren.
    1-1. In diesem Fall ist es in Ordnung, die Endpunktwerte so zu belassen, wie sie sind?
  2. Sollte dieser Befehl „docker run -it --rm --name detoxify -e BIND_HOST=0.0.0.0 -p6666:80 ghcr.io/discourse/detoxify:latest“ aus dem Discourse-Verzeichnis ausgeführt werden? Oder sollte er aus dem Stammverzeichnis ausgeführt werden?

Sie bauen nur ein Gateway auf. Sie müssen irgendwo eine KI haben. Und um das zu bekommen, was Sie wollen, werden Sie wahrscheinlich eine selbst hosten. Und weil die Nachfrage wirklich hoch ist, werden Sie einen separaten VPS hochfahren und die KI dort installieren.

Wenn Sie das getan haben, müssen Sie den Docker-Befehl richtig abstimmen und Sie sind bereit.

Aber KI ist kein Teil von Docker oder Discourse.

Vielleicht sollten Sie tun, was Robert vorgeschlagen hat, und mit OpenAI beginnen. Und danach irgendwann weitermachen.

Übrigens sind die Funktionen, nach denen Sie suchen, nicht so zuverlässig, wie Sie vielleicht denken. Und sie kosten mindestens 60+ USD pro Monat, vielleicht sind 300+ realistischer.

2 „Gefällt mir“

Danke für Ihre Antwort

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.