Je ne sais absolument pas comment GPT (directement ou via API) fonctionne. Les invites système sont vraiment difficiles pour moi, et utiliser l’anglais de manière créative ne facilite pas les choses. À cause de cela et de quelques autres choses, je n’ai pas d’attentes trop réalistes quant à ce que GPT peut faire. Donc, je suis comme GPT à cet égard : aucune connaissance, lecture d’articles faciles d’accès à copier-coller où je ne sais pas du tout si les faits sont même un tant soit peu fiables et les blancs que je remplis par hallucination. Mais j’ai beaucoup, et je dis bien beaucoup de tests et d’essais qui me coûtent trop cher.
Est-ce que c’est suffisant pour la clause de non-responsabilité ?
J’affirme que GPT a une mémoire plus longue qu’il ne le devrait. Ou je le formule ainsi : cela dépend, je ne sais pas, de combien d’utilisateurs OpenAI a. Ou de la proximité de l’utilisation du plafond. Mais le GPT-4 récent se souvient nettement plus longtemps qu’il ne le devrait. La ligne GPT-3.5 pas autant et j’affirme que les modèles 3.5 ont été lobotomisés récemment en faveur du 4.
Et vous allez faire un pas en avant et dire que je devrais laisser les adultes tranquilles et avoir leur conversation parce que vous n’utilisez pas GPT par OpenAI 
Mais à chaque fois que je fais des itérations en changeant un peu l’invite et en commençant de nouvelles conversations, j’obtiens des résultats similaires : d’abord proches ou totalement ce que je voulais, puis il a commencé à me faire défaut.
Ensuite, j’ai commencé à faire des choses un peu différentes et j’ai réussi à obtenir des réponses qui n’auraient pas été possibles à moins que GPT n’ait une mémoire plus longue. Bien sûr, il y a une forte possibilité que je lui fournisse de faux souvenirs, ou que je n’aie pas été aussi intelligent que je le pensais (encore une fois, l’anglais est difficile pour moi) et que ce n’était qu’une supposition chanceuse ou une coïncidence, alias. ce que fait GPT.
Donc, ce que vous appelez dégradation est en fait une sorte de frustration. L’humain stupide pose la même question encore et encore et l’intelligence intelligente qui domine le monde essaie de donner une réponse légèrement différente essai après essai. Donc, à la fin, il n’y a plus de sujets intéressants ici, car il les a tous proposés au cours des cycles d’itération.
Votre Bert est juste vraiment énervé parce que rien de ce qu’il vous propose n’est assez bon et finalement il dit f*** vous les gars, je rentre à la maison — eh bien, c’est un type poli, donc il n’utilise pas exactement ces mots, mais le ton est le même.
TLDR ; les itérations peuvent gaspiller des possibilités car il n’y a pas une quantité infinie de sujets nouveaux et intéressants (peu importe si les développeurs disent que ce n’est pas possible ; ces gars ne peuvent pas lire les humains, donc je ne suis pas totalement sûr qu’ils comprennent mieux l’IA
)