GPT3-ähnliche Bots integrieren?

Leute,

ich sehe, dass es einige interessante Themen zur Integration von Bots auf verschiedenen Ebenen in Discourse gibt, aber ich habe keine Themen über die Integration der großen KI-Bots mit großem Speicher wie GPT-3, BlenderBot usw. gesehen. Hat jemand darüber nachgedacht? Oder ist er sogar schon dabei, die Idee umzusetzen?

Ich denke darüber nach, eine weitere Instanz von Discourse einzurichten, bei der einer der großen KI-Bots als normaler Benutzer im System fungiert, der wie jeder andere menschliche Benutzer teilnimmt – aber vielleicht nur antwortet, wenn ein Beitrag speziell an ihn gerichtet ist oder wenn sein Handle in einem Beitrag erwähnt wird.

Bevor ich mich wieder mit einer neuen Instanz beschäftige, dachte ich, ich könnte dieses Mal zuerst Feedback einholen. . .

Vielen Dank für jede Erleuchtung. .

12 „Gefällt mir“

Ja, das wäre ein lustiges Experiment.
Ich habe auch über die Möglichkeit nachgedacht, etwas wie DialogFlow an das Chat-Plugin anzuhängen.

Ich habe im Moment keine dedizierte Zeit dafür, aber ich würde gerne mit ein paar Gleichgesinnten mitdenken und ein wenig experimentieren.

8 „Gefällt mir“

Ausgezeichnet! Mein Gedanke im Moment ist, im Laufe der Zeit viele verschiedene KI-Apps zur zentralen Einheit hinzuzufügen – so ähnlich, wie sich das Säugetier-/menschliche Gehirn durch Duplikation und Spezialisierung entwickelt hat. .

Vielleicht sollte ich die Discourse-Instanz erstellen, um damit anzufangen?

4 „Gefällt mir“

Vielleicht fangen wir zuerst mit einem technischen Design an. Mit welcher Art von API verbinden wir uns? Benötigen wir eine Software dazwischen, oder reicht ein Plugin, das die GPT-API aufruft?

6 „Gefällt mir“

@RGJ ,

Ich habe die Hubot-Posts zuvor gesehen – und ich habe darüber nachgedacht, diese Option als Lernübung auszuprobieren, bevor ich mich mit etwas beschäftige, das Radneuerfindung erfordert – glaubst du, das wäre nützlich?

3 „Gefällt mir“

Ja, absolut. Ich werde für ungefähr eine Woche weg sein und danach kann ich etwas Zeit damit verbringen, herumzuspielen. Ich bin jedoch kein großer Node-Fan, ich würde es lieber in Python, Ruby oder PHP machen. Aber lass uns zuerst einige Erfahrungen damit sammeln.

3 „Gefällt mir“

Meine Präferenz wäre Ruby!

Ausgezeichnet! – Ich werde auch ein wenig reisen, aber ich werde es mir genauer ansehen, bevor ich zurückkomme. . .

Danke!

3 „Gefällt mir“

Ich war in den letzten Monaten größtenteils offline und bin zurückgekommen, um viel Aufregung um GPT-3 zu sehen. Das hat mich darüber nachdenken lassen, wie es auf Discourse angewendet werden könnte.

Ich habe mit der Idee gespielt, einen “Mitarbeiterassistenten”-Bot mit OpenAI zu erstellen. Ich teste ihn vorerst mit dem text-davinci-003-Modell. Ich denke, das grundlegende Design wird ein Discourse-Post-Event-Webhook sein, der auf einen Server mit der Python OpenAI-Bibliothek verweist.

Die erste Aufgabe, an der ich arbeite, ist, den Bot dazu zu bringen, Data Explorer-Abfragen aus einfachen Textbeschreibungen zurückzugeben. Ich habe noch kein Modell feinabgestimmt, aber wenn Informationen über die Discourse-Datenbankstruktur mit der Eingabeaufforderung der Anfrage bereitgestellt werden, liefert es überraschend gute Ergebnisse.

Es könnte sich herausstellen, dass die Verwendung von OpenAI für diese Art von Dingen zu teuer ist oder dass die Ergebnisse nicht genau genug sind, um sie auf einer Produktionsseite zu verwenden.

Ich arbeite nur zum Spaß daran. Das andere offensichtliche Ding, das man sich ansehen könnte, ist das Training eines Kundensupport-Bots anhand bestehender Antworten in einem Discourse-Forum. Dies scheint ein schwierigeres Problem zu sein (sowohl in Bezug auf Kosten als auch auf Genauigkeit) als nur die Einrichtung eines Bots für Staff-Benutzer.

13 „Gefällt mir“

Ich habe einen anderen Anwendungsfall (der Bot MUSS sich an frühere Gespräche mit Mitgliedern unserer gemeinnützigen Organisationen erinnern). Ich habe in der letzten Woche mit verschiedenen Versionen von BlenderBot einige Fortschritte gemacht – ich werde hier mehr posten, wo wir Discourse speziell für das Projekt eingerichtet haben:

https://forum.phirho.org

– fühlen Sie sich frei, sich zu beteiligen!

3 „Gefällt mir“

Die Anmeldung ist deaktiviert, wir benötigen eine Einladung.

1 „Gefällt mir“

Ah! - Entschuldigung! - Sie sind erst die dritte Person. . Schicken Sie mir eine E-Mail-Adresse per DM?

1 „Gefällt mir“

Eigentlich, wenn ich jetzt darüber nachdenke, gibt es keinen Grund, warum wir dort nicht mehr als einen Bot betreiben könnten.

1 „Gefällt mir“

Ich wollte gerade dasselbe fragen, ein ChatGPT-Bot, damit wir Fragen in einem Chat oder einem Thread stellen können, wäre sehr nützlich. Hier gibt es ein Tutorial, wie man ihn in einer VM ausführt

3 „Gefällt mir“

Sehr clever, erstaunlich und interessant! - aber es kann nicht das tun, was ich brauche (inter-session memory):

Erinnert sich ChatGPT an das, was früher im Gespräch passiert ist? | OpenAI Help Center | https://help.openai.com/en/articles/6787051-does-chatgpt-remember-what-happened-earlier-in-the-conversation

3 „Gefällt mir“

Ich würde mich gerne irren, aber nach meinem Verständnis “erinnert” sich ChatGPT nur an den Text der letzten Aufforderung, die Sie ihm gesendet haben. Sie können dies im OpenAI Playground testen, indem Sie einen Chat starten und dann nach dem Absenden Ihres Textes auf die Schaltfläche “Code anzeigen” klicken. Sie werden sehen, dass jedes Mal, wenn Sie weiteren Text absenden, dieser an die Aufforderung angehängt wird:

prompt="The following is a conversation with an AI assistant. The assistant is helpful, creative, clever, and very friendly.\n\nHuman: Just testing to see how the prompt gets set.\nAI: Hi there! It looks like you're trying to find out about how to configure the prompts. Is there anything else I can help you with today?\nHuman: If I use OpenAI's chat functionality on my own application, should I keep updating the prompt each time a user posts a new question? It's definitely a good idea to keep your prompts up-to-date, as it will help ensure your users are getting the most relevant information for each question they post. Depending on the size of your application and the complexity of your conversations, you may want to update your prompts regularly or develop a more sophisticated system to determine when updates are necessary. Let me know if there is anything else I can help you with."

Dies kann so lange fortgesetzt werden, bis Sie das in der Dokumentation, auf die Sie verlinkt haben, erwähnte Limit von 4000 Tokens (ca. 3.000 Wörter) erreichen. Beachten Sie, dass das Senden großer Prompts teuer werden kann. Ich glaube, es kostet derzeit 0,02 US-Dollar pro 1.000 Tokens mit dem Davinci-Modell.

Wenn mein Verständnis korrekt ist, müsste eine Anwendung oder ein Discourse-Plugin, das ChatGPT für Discourse verwaltet, jede neue Frage und Antwort an den Prompt anhängen. Dies könnte es tun, bis es 4.000 Tokens (ca. 3.000 Wörter) erreicht. Wenn dieses Limit überschritten wird, scheint eine Fehlermeldung von OpenAI zurückgegeben zu werden. Diese Fehlermeldung müsste von der Anwendung behandelt werden, die die Anfragen an OpenAI stellt.

Eine mögliche Umgehung des Token-Limits wäre, einen Weg zu finden, wichtige Details aus einem Gespräch zu extrahieren und dann nur diese Details in den Prompt aufzunehmen. Es könnte möglich sein, eine Anfrage im Namen des Benutzers zu stellen, um diese Informationen zu erhalten. Etwas wie:

Diese Details könnten dann in der Anwendung gespeichert werden, die die Anfragen an OpenAI stellt, und verwendet werden, um das Gespräch zu einem späteren Zeitpunkt neu zu starten.

Sie erhalten hier weitaus definitivere Antworten: https://community.openai.com/. Es ist großartig zu sehen, dass sie Discourse für ihre Community nutzen!

8 „Gefällt mir“

Ich denke, Sie haben Recht, aber der Link, den ich bereitgestellt habe, besagt im Grunde, dass ChatGPT KEIN Inter-Session-Gedächtnis hat. . was ich für meinen Anwendungsfall benötige. .

3 „Gefällt mir“

Wenn Sie mit ChatGPT interagieren und sich die Netzwerkanfragen ansehen, können Sie sehen, dass auch eine conversation_id bereitgestellt wird, die an das Backend gesendet wird. Ich glaube, die OpenAI-Dokumentation erwähnt dies auch.

Es gibt also möglicherweise mehr Kontext als nur die Eingabeaufforderung. :denkend:

3 „Gefällt mir“

Das ist ziemlich einfach zu testen.

3 „Gefällt mir“

Darauf bezog ich mich (und es ist entscheidend für meinen Anwendungsfall):

https://help.openai.com/en/articles/6787051-does-chatgpt-remember-what-happened-earlier-in-the-conversation

1 „Gefällt mir“

Entschuldigung, ich habe falsch verstanden, was Sie gesagt haben.

3 „Gefällt mir“