Warum wurde externe KI gegenüber einem internen System gewählt?

Hallo,

ich schreibe Ihnen, um mich nach der Funktion für verwandte Inhalte auf Discourse zu erkundigen. Mir ist aufgefallen, dass sie auf externer KI basiert. Warum wurde dieser Ansatz gewählt, anstatt ein internes System zu entwickeln, das auf Tags oder Kategorien basiert und direkt relevante Inhalte anbieten könnte? Ich habe eine Option gesehen, Themen aus derselben Kategorie vorzuschlagen, aber nichts für Tags.

Gibt es ein offizielles Discourse-Plugin oder eine Komponente, die diese Funktionalität bietet? Ich möchte Ihnen für Ihre tägliche Arbeit und die ständige Innovation, die Sie auf die Plattform bringen, danken.

3 „Gefällt mir“

Hinweis: Ich bin weder ein Mitarbeiter von Discourse noch von OpenAI, sondern ein Moderator in der Kategorie des OpenAI-Forums (Ersteller von ChatGPT und GPT 4) und habe viele der Discourse-KI-Funktionen bereits während der Entwicklung genutzt.

Die von Ihnen genannten Mittel sind syntaktische Suchen, dies ist eine semantische Suche und verwendet Embeddings anstelle von Schlüsselwörtern.

Eine Google-Suche nach how does semantic search work (wie funktioniert semantische Suche) zeigt viele Artikel, hier ist einer, der vielen hier gefallen könnte:

Ja, es ist Teil des Discourse AI-Plugins, speziell Semantic Related Topics.

5 „Gefällt mir“

Was die Nutzung externer Ressourcen betrifft, können Sie Ihr LLM auch lokal ausführen:

Aber haben Sie das schon für ein Projekt gemacht?

Dafür benötigen Sie besonders beeindruckende Hardware, die Sie besitzen oder mieten!

Probieren Sie die kleineren Sprachmodelle (die Sie vielleicht selbst hosten möchten) aus und sehen Sie, wie beeindruckt Sie sind:

Ihre Erfahrungen können variieren, aber meiner Meinung nach müssten Sie ein Modell mit mindestens 70 Milliarden Parametern hosten, was für das Self-Hosting ziemlich kostspielig wäre.

Zum Vergleich: GPT 3.5 soll ein Modell mit 175 Milliarden Parametern sein und GPT 4 hat fast 2 Billionen (sagen sie) :sweat_smile:

Ich habe dieses Plugin geschrieben:

Und es hat eine KI-Tagging-Funktion. Meiner Erfahrung nach benötigen Sie GPT 4 Turbo, damit es gut funktioniert (und dann funktioniert es wirklich gut!)

Wenn Sie etwas so Leistungsfähiges wie diese selbst hosten wollten, bräuchten Sie sehr tiefe Taschen.

Deshalb ist die Nutzung einer externen LLM-API immer noch eine attraktive Pay-as-you-go-Option, insbesondere weil Sie nur für die von Ihnen getätigten Aufrufe bezahlen und nicht für eine teure Infrastruktur, die ungenutzt Leerlaufzeiten verbringt.

Wenn Datenschutz von großer und ausreichender Bedeutung ist, könnte dies natürlich die Rechnung ändern.

5 „Gefällt mir“

@EricGT @merefield Vielen Dank für Ihre schnelle Antwort und die bereitgestellten Informationen. Ich verstehe und schätze die Innovation, die KI auf die Discourse-Plattform bringt. Ich bin jedoch besorgt über die strengen Datenschutzanforderungen in Europa, insbesondere in Frankreich mit der DSGVO. Die Konsultation eines Anwalts, um die Einhaltung unserer Datenschutzrichtlinie sicherzustellen, könnte ziemlich kostspielig sein.

Deshalb habe ich mich gefragt, ob es ein Discourse-Plugin gibt, das eine Funktion für verwandte Inhalte bietet, ohne dass externe KI benötigt wird.

Darüber hinaus möchte ich meine persönliche Erfahrung mit Ihnen teilen: Ich habe lange gezögert, mein Discourse-Forum zu starten, aus Angst, dass ich es trotz der verfügbaren Anleitungen nicht richtig machen könnte. Das Aufkommen von ChatGPT war für mich ein Wendepunkt. Es ist unglaublich, wie es mein Leben verändert hat: Mit seiner Hilfe konnte ich Projekte in Angriff nehmen, die ich mir zuvor nicht zugetraut hätte. Es ist eine Revolution, die mir neue Perspektiven eröffnet und es mir ermöglicht, zuversichtlich voranzukommen.

Vielen Dank nochmals für all Ihre Arbeit und Ihre fortlaufende Unterstützung.

1 „Gefällt mir“

Wie bereits erwähnt, können die KI-Plugins externe Dienste nutzen oder Sie können Ihr eigenes persönliches Cloud-System erstellen, das die gleichen Aufgaben ausführt. Der Betrieb eines eigenen KI-Dienstes ist jedoch kostspielig, erfordert zusätzlichen Wartungsaufwand und liefert keine vergleichbaren Ergebnisse wie externe Dienste.

Dies ist alles eine Einschränkung der KI-Technologie selbst, dass sie so schwierig zu warten und zu betreiben ist, und nichts, was Discourse dagegen tun kann. Die Discourse-Plugins sind agnostisch, ob Sie einen externen Dienst oder einen „internen“ Dienst nutzen.

In diesem Zusammenhang überhaupt nicht relevant.

Aber… ein Anwalt ist wirklich viel billiger als ein selbst gehostetes LLM.

2 „Gefällt mir“