Das Problem ist, dass die Bereitstellung des Schemas allein nicht ausreicht, um ChatGPT Informationen zu geben. Sie müssen ihm Details zu Dingen wie Folgendem zur Verfügung stellen:
- wofür die Integer-Codes von
req_typeinapplication_requestsstehen - wofür die Spalte
user_idintopicsverwendet wird - wofür die Codes von
action_typein der Tabelleuser_actionsstehen und was der Unterschied zwischen den Spaltenuser_id,target_user_idundacting_user_iddieser Tabelle ist
Mit diesen Details scheint GPT 3.5 ohne zusätzliches Training gute Arbeit zu leisten. Das Problem ist dann, dass die Bereitstellung dieser Detailtiefe über die gesamte Datenbank dazu führt, dass die Eingabeaufforderung das Token-Limit von ChatGPT (4096 Tokens, einschließlich des Eingabeaufforderungstexts und der generierten Ausgabe) überschreitet. Wenn dieser Ansatz verwendet würde, müsste es eine Möglichkeit geben, die in die Eingabeaufforderung aufgenommenen Informationen basierend auf den Informationen zu begrenzen, die der Benutzer aus der Data Explorer-Abfrage erhalten wollte.