Ja, das ist ein guter Punkt… sie lernen nicht wirklich wie Menschen!
Ich denke, wir sprechen in diesem Thread über Methoden, die sich auf Kontextlernen beziehen, und nicht über konventionelles menschliches Langzeitlernen… obwohl es vergänglich ist, wird Kontextlernen wirklich interessant wegen der unglaublich großen Kontextgrößen (z. B. +1 Mio. Token), die die neuesten Modelle erreichen.
Wenn Sie zum Beispiel möchten, dass ein bestimmtes Modell Fragen, die Kenntnisse der Laplace-Wahrscheinlichkeitsprinzipien erfordern, zuverlässiger beantwortet, könnten Sie mit dem Kontext-/Prompting-Ansatz diesen Kontext entweder mit einem fest codierten System-Prompt oder durch Abruf aus einer Vektor-Datenbank usw. einspeisen.
Hier ist ein Beispiel für ein Experiment, das auf dem Hochladen eines kleinen Dokuments (ca. 1.000 Wörter) mit Laplace-Kenntnissen basiert.
Annahmen:
- Der Bot ist nicht auf Laplace vortrainiert (siehe obige Fehlbeispiele).
- Der Bot ist auf das beschränkt, was in der Discourse-Instanz für spezifisches Wissen vorhanden ist.
Benutzerdefinierte Persona-Einstellungen
(Plugin-Experten bitte nach Bedarf korrigieren!)
KI
Aktiviert? ja
Priorität? ja
Chat erlauben? ja
Erwähnungen erlauben? ja
Name: AlphaBot
Beschreibung: Bot für Wahrscheinlichkeitsrätsel mit Laplace-Kenntnissen
Standard-Sprachmodell: GeminiPro
Aktivierte Befehle: Suchen, Kategorien, Lesen
System-Prompt:
Beantworten Sie Fragen mithilfe des lokal bereitgestellten Kontexts, der Laplace-Methoden für Wahrscheinlichkeitsvergleiche beschreibt. Seien Sie so gründlich und umfassend wie möglich, aber durchsuchen Sie nicht das Web oder externe Quellen. Verwenden Sie nur lokalen Kontext und konzentrieren Sie sich auf die Verwendung von Laplace-Techniken.
Upload: Laplace-tutorial.txt
Beachten Sie, dass Sie Laplace nicht erwähnen müssen, da es in den Anweisungen steht: