@merefield Danke!
Wie zum Teufel hast du das so schnell debuggt?
Ich werde Zendesk entfernen⊠einfach ![]()
@merefield Danke!
Wie zum Teufel hast du das so schnell debuggt?
Ich werde Zendesk entfernen⊠einfach ![]()
Bittere Erfahrung ![]()
Hallo zusammen,
Ich habe jetzt ein Konto bei OpenAI erstellt. Sollte ich einen âAssistentenâ erstellen? Ich frage mich nur, ob es Schritte gibt, um die KI in das Plugin zu integrieren?
Mit freundlichen GrĂŒĂen,
Nein, Sie benötigen lediglich ein Token. Möglicherweise mĂŒssen Sie Ihr Konto bei Open AI aufladen, um Zugang zu den fortschrittlicheren Modellen und höheren RatenbeschrĂ€nkungen zu erhalten.
Die gesamte API-Abwicklung erfolgt ĂŒber das Plugin.
(Ăbrigens, wussten Sie schon â Chatbot unterstĂŒtzt die Assistants API ausdrĂŒcklich nicht, da es sein eigenes, maĂgeschneidertes Konversations- und âinnere Gedankenâ-System implementiert, das ausschlieĂlich die Chat Completions API und die Embeddings API nutzt. Das ist groĂartig, da die Assistants API den Ruf hat, verschwenderisch mit Tokens umzugehen und Sie viel Geld zu kosten â Chatbot ist darauf ausgelegt, sparsam zu sein!)
Das tut es, viel mehr als ich dachte.
Könnten Sie erklĂ€ren, was ein Token in der ChatGPT-Welt ist? Ich zahle derzeit fĂŒr ChatGPT Premium, das sind 20 USD/Monat. Mein Ziel war es, unseren Discourse-Nutzern den Zugriff auf die KI zu ermöglichen, die ich trainiert habe, und zwar ĂŒber chatgpt.com.
Ich hoffe, das ergibt Sinn und der Anwendungsfall ist klar!
Es ist wie Geld. Sie können sich Token als Wörter oder Wortteile vorstellen. Wenn Sie etwas fragen, kostet das X Token. Wenn OpenAI Ihre Frage verarbeitet, werden mehr Token verbraucht. Und schlieĂlich kostet die Erstellung Ihrer Antwort eine bestimmte Anzahl von Token.
AbhĂ€ngig vom verwendeten Modell und dem GesprĂ€ch mĂŒssen Sie diesen Tokenverbrauch bezahlen, manchmal mehr und manchmal weniger.
Die FĂ€higkeit, o1 zu nutzen, hat meine KI-Nutzung ziemlich verĂ€ndert (und Gott sei Dank, aber dank Roberts Programmierkenntnissen kann ich die Nutzung auf mich beschrĂ€nken). Aber die o1-Serie verwendet keinen System-Prompt, daher muss ich solche Anleitungen, wie man Mathematik darstellt usw., in meinen Prompt einfĂŒgen.
Es wĂ€re einfacher, wenn wir einen Standardtext hĂ€tten, der automatisch nach dem eigentlichen Prompt hinzugefĂŒgt wird, also ein Post-Prompt. Discourse hat diese FĂ€higkeit irgendwie, aber entweder kann ich sie nicht nutzen oder ich versuche, sie falsch zu nutzen. Sie sollte in jeder Kategorie und jeder PM erscheinen, wenn der Chatbot erwĂ€hnt wird oder Teil einer PM ist. Und nur, wenn o1 oder o1-mini verwendet wird ![]()
Die o1-Serie ist noch nicht fertig, daher kann sich die Art und Weise, wie sie Tools usw. nutzen kann, irgendwann Ă€ndern. In diesem Sinne frage ich nicht nach einer neuen Funktion, sondern diskutiere vielleicht eher ĂŒber Optionen. Und die o1-Serie wird niemals eine Massenlösung sein, sie ist zu spezialisiert (und teuer), daher könnte die Nachfrage, bei der sich ein Benutzer einfach daran erinnern muss, diese zusĂ€tzlichen Regeln hinzuzufĂŒgen, gerechtfertigt sein.
Off-Topic, aber GPT-Modelle lernten Mathematik, als o1 veröffentlicht wurde.
Ja, wir können uns nicht zu sehr mit der Anpassung beschÀftigen, um die Inkonsistenzen von Open AI auszugleichen.
Ich vermute stark, dass Tools und möglicherweise sogar System-Prompt-Funktionen verfĂŒgbar sein werden, wenn o1 aus der Vorschauphase austritt.
Ich bin nicht davon ĂŒberzeugt, dass Chatbot der richtige Ort fĂŒr die Implementierung eines âSnippetâ-Systems ist, obwohl ich mich erinnere, dass eines der Teammitglieder dies erstellt hat. Ich werde es finden und den Beitrag aktualisieren âŠ
Hier, bitte schön:
Danke @Jagster fĂŒr die wirklich klaren Informationen dazu. Ich glaube, ich meinte etwas anderes, vielleicht? Ich versuche, dieses Plugin mit OpenAI zu integrieren, indem ich dies verwende:
Das ist nur ein API-SchlĂŒssel, den Sie generieren, um Zugriff zu erhalten. Nichts weiter, Ihr Passwort, könnte man sagen.
Ah, jetzt verstehe ich die Verwirrung.
Ja, es gibt ein API-Token (oder einen SchlĂŒssel, den Sie von OpenAI erhalten mĂŒssen) und es gibt Text-Tokens, die Teile von Wörtern darstellen. Letztere werden von der LLM verarbeitet. Ersteres dient dazu, dass Sie von der API authentifiziert werden.
Hier ist ein ziemlich guter Leitfaden zur Terminologie von The Verge:
Ich fĂŒhre Llama lokal aus und bin dem Ziel sehr nahe, dies auf einer lokalen Discourse-Instanz zum Laufen zu bringen. Der Chatbot chattet
, aber ich habe Schwierigkeiten, die Einbettungen hinzuzufĂŒgen. Ich habe meinen Benchmark-Benutzer auf Vertrauensstufe 1. Das Rake-Task rake chatbot:refresh_embeddings[1] schlĂ€gt mit einem Authentifizierungsproblem fehl.
Faraday::UnauthorizedError: the server responded with status 401 (Faraday::UnauthorizedError)
Im Chatbot-OpenAI-Token-Feld habe ich die URL eingefĂŒgt, die Llama mir gegeben hat
Haben Sie vielleicht VorschlÀge, wie ich mich richtig authentifizieren sollte?
Toll, dass du es versucht hast!
Freut mich, dass es chattet ![]()
Ich weià nicht, ob es möglich ist, Chatbot mit Embeddings lokal zu verwenden.
Ich wĂŒrde einen guten PR akzeptieren, um UnterstĂŒtzung hinzuzufĂŒgen.
Ich habe das hier gefunden:
Es könnte also mit dem richtigen Modell und relevantem zusĂ€tzlichem Code und Einstellungen in Chatbot möglich sein. Wahrscheinlich benötigen Sie eine benutzerdefinierte Einstellung fĂŒr Embeddings-Modelle, die es noch nicht gibt.
Es gibt jedoch bereits Folgendes:
chatbot open ai embeddings model custom url
Dies wurde hauptsĂ€chlich zur UnterstĂŒtzung von Azure implementiert, kann aber auf Ă€hnliche Weise wiederverwendet werden, wie Chat Completions auf einen lokalen Ollama-Dienst verweisen können.
Ich schĂ€tze, dies schrĂ€nkt die NĂŒtzlichkeit des Bots lokal derzeit ein.
Dies ist der Token, der an den Endpunkt gesendet wird. Es ist einfach ein Textfeld. Ich bezweifle stark, dass eine URL hier funktionieren wird. Es gibt weiter unten benutzerdefinierte Einstellungen fĂŒr die URL des Chat Completions-Endpunkts:
z. B. chatbot open ai model custom url high trust
Wenn Sie forken und relevante ErgĂ€nzungen vornehmen, die mit dem, was bereits existiert, ĂŒbereinstimmen, das bereits VerfĂŒgbare nutzen, aber das Minimum hinzufĂŒgen, um lokale Embeddings-UnterstĂŒtzung mit Ollama zu erreichen, wĂ€hrend das bestehende Verhalten mit Open AI und Azure erhalten bleibt, wĂŒrde ich definitiv einen PR mit Blick auf die ZusammenfĂŒhrung prĂŒfen.
Kommt bald
Weitere Funktionen werden zur UnterstĂŒtzung von Workflows mit Embeddings hinzugefĂŒgt:
âŠ
OpenAI API-KompatibilitĂ€t: UnterstĂŒtzung fĂŒr den OpenAI-kompatiblen Endpunkt /v1/embeddings
Da bald in diesem sich schnell entwickelnden Bereich normalerweise wirklich bald ist, ist das vielleicht etwas, auf das es sich lohnt zu warten, um meinen Anwendungsfall zu lösen?
Unsere Instanz ist eine Informationsquelle, die 20 Jahre zurĂŒckreicht, aber Lecks sind ebenfalls ein groĂes Problem, daher der Wunsch nach lokalen Tests.
Ich glaube, ich habe einen Ollama PR gefunden, der die KompatibilitÀt des API-Endpunkts zu beheben scheint. Ich muss das besser verstehen, aber bin ich auf dem richtigen Weg?
Nun gibt es derzeit keine Einstellung fĂŒr ein benutzerdefiniertes Embeddings-Modell, was ein Showstopper ist.
Wenn Sie lokal ausfĂŒhren, könnten Sie es versuchen, indem Sie das Modell fest fĂŒr das von Ihnen fĂŒr Ollama heruntergeladene Modell kodieren.
Wenn ich weiter darĂŒber nachdenke, ist das andere Problem, dem Sie begegnen werden, dass die Definition der Embeddings-Tabelle Dimensionen hat, die auf den Standard des kleinen OpenAI-Modells eingestellt sind, was RIESIG ist ⊠vielleicht können Sie darĂŒber nachdenken, wie Sie das ĂŒberwinden könnten âŠ
Chatbot 1.2. fĂŒhrt die KI-gestĂŒtzte Erfassung von Benutzerfeldern als experimentelle Funktion ein.
Wenn ein Benutzer einige optionale Benutzerfelder hat, die derzeit leer sind, wird durch Aktivieren dieser Einstellung der Bot beginnen, den Benutzer nach den Informationen zu fragen. Er wird die ausstehenden Benutzerfelder durchlaufen, bis diese abgeschlossen sind, und dann zum normalen Verhalten zurĂŒckkehren.

(Entschuldigung fĂŒr die langsame Antwort â dies wurde in der Entwicklung aufgenommen)
Hinweis: Diese Funktion unterstĂŒtzt nur:
Mehrfachauswahl wird noch nicht unterstĂŒtzt.
Die Felder mĂŒssen optional sein.
Die Reihenfolge der Benutzerfelder bestimmt die PrioritÀt.
Chatbot 1.3 wurde veröffentlicht ![]()
chatbot_quota_basis ermöglicht die Aktivierung, andernfalls bleibt die ZÀhlung nach Abfragen bestehenChatbot hat schon immer die Möglichkeit geboten, eine Nutzungsgrenze durchzusetzen.
Heute wird dies ausgefeilter!
Chatbot kann jetzt ein Kontingent fĂŒr die Nutzung nach Token verfolgen und durchsetzen.
Sie können API-Aufrufe bepreisen, um deren ĂŒbermĂ€Ăige Nutzung abzuschrecken, sodass Sie sich weniger Sorgen machen mĂŒssen, Leuten Zugang zur Bilderzeugung zu gewĂ€hren.
Die Token-Verfolgung ist optional. Wenn Sie zur Token-Verfolgung wechseln, stellen Sie sicher, dass Sie jedes Vertrauensstufenkontingent erhöhen, da die Werte um einige GröĂenordnungen höher sein mĂŒssen. Experimentieren Sie.
Die Verfolgung nach Abfragen hat sich jedoch leicht geĂ€ndert. Sie wird nun auf Ihre maximal zulĂ€ssige Anzahl von Abfragen zurĂŒckgesetzt und zĂ€hlt abwĂ€rts auf Null.
Sie könnten erwĂ€gen, den globalen KontingentrĂŒcksetzungsjob einmalig als einmalige Aktion auszufĂŒhren, um sicherzustellen, dass jeder mit einem vollen Kontingent beginnt. Dies ist eine einmalige Sache!
In Sidekiq unter /sidekiq/scheduler:
DrĂŒcken Sie die Trigger-SchaltflĂ€che.
In beiden FÀllen können Benutzer jetzt fragen, wie viel Kontingent sie noch haben:
Hinweis: Bekanntes Problem: Wenn diese Frage zum ersten Mal gestellt wird, bevor der RĂŒcksetzungsjob ausgefĂŒhrt wurde, kann die Antwort etwas seltsam sein! UnabhĂ€ngig davon, ob der RĂŒcksetzungsjob ausgefĂŒhrt wurde oder nicht, sollte die Frage beim zweiten Mal korrekt funktionieren.
Hallo Robert,
Ich schÀtze all die Arbeit, die du in den Bot gesteckt hast, aber ich bekomme die folgende Fehlermeldung in den Protokollen, wenn ich versuche, ihn im Chat aufzurufen.
![]()
Hast du Ideen, ohne eine Deinstallation/Neuinstallation?