Ich habe mir das kurz angesehen, aufgrund meines historischen Engagements/Interesses an
's im Discourse-Bereich.
Die Autorisierung der API-Aufrufe an das webbasierte ChatGPT ist derzeit ziemlich kompliziert (und nervig, da man zum Beispiel einen Webbrowser nachahmen muss) und einige zwischenzeitliche Open-Source-API-Wrapper-Lösungen sind inzwischen fehlgeschlagen, da sie dies verschärft haben.
Ich vermute, dass sie vorerst aktiv versuchen, das Reverse-Engineering der offiziellen Website-API-Aufrufe zu erschweren[1], und es könnte sich lohnen, auf die offizielle API für ein vollständig konversationsfähiges ChatGPT zu warten, die sicherlich kommen wird, um diese Komplexität und jeglichen Missbrauch der Nutzungsbedingungen, den Sie riskieren könnten, zu vermeiden? Wenn man sich OpenAIs Discourse (
) ansieht, scheinen andere das auch zu denken.
Aber fragen wir den Bot direkt?:
Es gibt bereits eine offizielle OpenAI API, aber diese unterstützt keine fortlaufenden Konversationen auf so bequeme Weise (man muss anscheinend die gesamte Historie jedes Mal in einer context-Variablen senden! Das ist mir im Moment zu verschwenderisch (und letztendlich zu teuer), um mich damit zu befassen!
).
Hoffentlich werden sie irgendwann bald eine offizielle API mit einer einfachen Gesprächsreferenz veröffentlichen. Zweifellos wird ein Preis dafür anfallen! ![]()
Ich vermute, das liegt teilweise daran, dass sie auch eine Moderations-API verwenden, die derzeit von den Bot-Aufrufen getrennt ist? ↩︎

