Ich weiß überhaupt nicht, wie GPT (direkt oder über API) funktioniert. System-Prompts sind für mich wirklich schwer, und die kreative Verwendung von Englisch macht es nicht einfacher. Wegen dieser und ein paar anderer Dinge habe ich keine allzu realistischen Erwartungen, was GPT tun kann. Also bin ich in dieser Hinsicht wie GPT: kein Wissen, Lesen von leicht zugänglichen Copy-Paste-Artikeln, bei denen ich überhaupt nicht weiß, ob die Fakten auch nur annähernd vertrauenswürdig sind, und Lücken fülle ich mit Halluzinationen. Aber ich habe viele, wirklich viele Tests und Versuche hinter mir, bei denen ich viel zu viel Geld verbrannt habe.
Reicht das als Haftungsausschluss?
Ich behaupte, GPT hat ein längeres Gedächtnis, als es sollte. Oder anders ausgedrückt: Es hängt davon ab, ich weiß nicht, wie viele Nutzer OpenAI hat. Oder wie nah die Nutzung an der Obergrenze ist. Aber definitiv erinnert sich das frische GPT-4 viel länger, als es sollte. Die GPT-3.5-Linie nicht so sehr, und ich behaupte, dass die 3.5-Modelle kürzlich zugunsten von 4 lobotomisiert wurden.
Und ihr werdet einen Schritt weiter gehen und sagen, ich soll die Erwachsenen in Ruhe lassen und ihre Gespräche führen, weil ihr GPT von OpenAI nicht benutzt 
Aber jedes Mal, wenn ich Iterationen mache, den Prompt ein wenig ändere und neue Gespräche beginne, erhalte ich ähnliche Ergebnisse: zuerst nah dran oder genau das, was ich wollte, und dann fängt es an, mich im Stich zu lassen.
Dann habe ich angefangen, ein paar Dinge anders zu machen, und es ist mir gelungen, Antworten zu erhalten, die nicht möglich gewesen wären, es sei denn, GPT hätte ein längeres Gedächtnis. Sicher, es besteht eine hohe Wahrscheinlichkeit, dass ich ihm tatsächlich falsche Erinnerungen einflöße, oder dass ich nicht so schlau war, wie ich dachte (auch hier ist Englisch für mich schwierig) und es nur ein glücklicher Zufall oder ein Koinzidenz war, aka. was GPT tut.
Was ihr also als Verschlechterung bezeichnet, ist eigentlich eine Art Frustration. Ein dummer Mensch stellt immer wieder die gleiche Frage, und die intelligente, weltbeherrschende Intelligenz versucht, Versuch nach Versuch eine etwas andere Antwort zu geben. Am Ende hat sie keine interessanten Themen mehr übrig, weil sie diese alle in den Iterationsrunden angeboten hat.
Euer Bert ist einfach wirklich verärgert, weil nichts, was er euch anbietet, gut genug ist, und schließlich sagt er: Verdammt, Leute, ich gehe nach Hause – nun, er ist ein höflicher Kerl, also benutzt er nicht genau diese Worte, aber der Ton ist derselbe.
TLDR; Iterationen können Möglichkeiten verschwenden, weil es keine endlose Menge an neuen und interessanten Themen gibt (egal, ob die Entwickler sagen, dass es nicht möglich ist; diese Leute können keine Menschen lesen, also bin ich mir nicht ganz sicher, ob sie KI auch nur besser verstehen
)