Preise für LLM-Anbieter bei Discourse AI

:bookmark: Discourse AI erfordert die Verknüpfung mit einem LLM-Anbieter – dies ist ein Verweis auf die Preise für verschiedene Optionen.

:person_raising_hand: Erforderliches Benutzerniveau: Administrator

Um bestimmte Discourse AI-Funktionen nutzen zu können, müssen Benutzer einen Drittanbieter für Large Language Models (LLM) verwenden. Bitte sehen Sie sich jede KI-Funktion an, um festzustellen, welche LLMs kompatibel sind.

Der folgende Leitfaden verweist auf die Preise verschiedener LLM-Anbieter.

:information_source: Beachten Sie, dass die Kosten je nach mehreren Faktoren variieren können, wie z. B. der Anzahl der Anfragen, der Länge des Textes, den verwendeten Rechenressourcen, den ausgewählten Modellen usw. Überprüfen Sie regelmäßig die aktuellsten und genauesten Preise bei jedem Anbieter.

5 „Gefällt mir“

Dies ist definitiv kein statistisch erworbener Vergleich, aber basierend auf meinen kurzen Tests ist die Verwendung von OpenAI GPT-4 dreimal teurer als GPT-3.5 Turbo, wenn man die API-Aufrufe und die Anzahl der verwendeten Tokens zählt – und da die von GPT-4 verwendeten Tokens geldmäßig teurer sind, ist dieser Unterschied viel größer.

Und ich hatte keine Vorteile mit GPT-4 im Vergleich zu 3.5 Turbo.

Und als Haftungsausschluss: Ich habe Finnisch verwendet, daher kann Englisch etwas anderes sein. Außerdem ist jede KI im Chat-Einsatz völlig nutzlos, wenn Finnisch verwendet wird, aber das ist eine ganz andere Sache – aber das bedeutet aus meiner Sicht, dass alle Chatbots reine Geldverschwendung sind, wenn kleine Sprachen verwendet werden.

Die Kosten hier sind Schätzungen und es wurde vereinbart, dass die Kosten je nach Nutzung erheblich variieren können!

Es ist wichtig zu beachten, dass für viele grundlegende Aufgaben der Unterschied zwischen den Modellen GPT-4 und GPT-3.5 möglicherweise nicht signifikant ist. GPT-4 weist jedoch einige nachweisbare Unterschiede in Bezug auf seine Fähigkeiten, sein kreatives Verständnis und seine Rohdaten auf.

Ich stimme auch zu, dass für weniger verbreitete Sprachen die Fähigkeiten des Modells zu wünschen übrig lassen.

1 „Gefällt mir“

Ich denke, wir reden über dasselbe, aber um auf Nummer sicher zu gehen :smirking_face:: Das ist ein Problem von KI-Unternehmen, und du, ich oder irgendein Entwickler können diese Tatsache nicht ändern.

Aber ich bin hinter etwas her, wie wir alle ein wenig darauf achten sollten, wie viel Geld wir ausgeben (wenn wir kein Geld aus einem anderen Budget als unserem eigenen Taschengeld ausgeben :smirking_face:) und versuchen, ein Gleichgewicht zwischen sehr subjektivem Nutzen und Geld zu finden.

Und nein, ich weiß nicht, wovon ich rede. Hauptsächlich, weil die Antworten aller Chatbots im Grunde nur auf englischen Schlagworten von Millionen von Flügen basieren (Quantität über Qualität). Die Situation kann sich ändern – besser oder schlechter, es kommt darauf an –, wenn wir bessere Werkzeuge haben, um KI zu erziehen, welche Quellen sie nutzen kann. Sicher, wir haben sie, aber das wird viel mehr kosten als der Preis der Tokens.

Und ja, das ist die Sorge der kleinen Akteure.

Ich frage mich… gibt es eine Chance, dass wir mit einer freieren Bearbeitung von Prompts ein besseres Kosten-/Genauigkeitsverhältnis erzielen können?

Wären Sie bereit, ungefähr die Kosten für Meta im Moment offenzulegen? Selbst eine grobe Schätzung oder eine Spanne wäre hilfreich.

Ich habe den Bot gebeten, eine Schätzung abzugeben, und er hat Folgendes angegeben:

Ich finde diese Zahl zu niedrig, aber wenn man experimentelle Arbeiten und die Nutzung durch das Team usw. außer Acht lässt, ist dies vielleicht nicht weit von dem entfernt, was die meisten Instanzen ähnlicher Größe wie Meta erwarten könnten?

2 „Gefällt mir“

Noch eine dumme Frage, aber ist die Mathematik selbst gültig? Ich frage nur, weil LLMs einfach nicht zählen können.

Mein Forum nutzt viel weniger KI-Dinge (über OpenAI) und meine Gebühren übersteigen das.

1 „Gefällt mir“

Der Tokenpreis, den der Bot erwähnt hat, ist nicht korrekt. Die aktuellen Preise für gpt-3.5-turbo-0125 betragen 0,50 pro 1 Million Eingabe-Token und 1,50 pro 1 Million Ausgabe-Token. Unter der Annahme von der Hälfte Eingabe und der Hälfte Ausgabe sollten 2,4 Millionen Token nur 2,40 kosten. `gpt-4` kostet 30 /M Eingabe und 60 /M Ausgabe, was für 2,4 Mio. Token 108 ergeben würde.

2 „Gefällt mir“

Claude Haiku kommt der Leistung von GPT-4 sehr nahe und kostet die Hälfte von GPT-3.5.

Ich denke, man braucht einen super überzeugenden Grund, um 3.5 statt Claude 3 Haiku zu verwenden.

@Saif kannst du den OP mit den neuesten Preisen von Claude aktualisieren. Der OP ist sehr veraltet.

Ich bin mir nicht sicher, ob es sich lohnt, die tatsächlichen Preise anzugeben, da sie sich so oft ändern.

2 „Gefällt mir“

Habe die OP aktualisiert, um nur die Links zu enthalten. Ich stimme zu, dass sich die Preise ständig ändern und es besser ist, die aktuellsten Informationen zu erhalten.

1 „Gefällt mir“

Da die Auswahl an Anbietern und LLMs ständig wächst, ist es für Benutzer am besten, sich direkt beim Anbieter zu informieren. Daher entfernen wir dieses Thema.

1 „Gefällt mir“