Tools als Pseudo-Agenten für spezialisierte Direktiven verwenden

Ich hoffe, dies wurde nicht an anderer Stelle inhaltlich beantwortet – ich habe gesucht, aber keine direkte Diskussion über diesen Ansatz gefunden.

Das Problem

Derzeit scheint es keine Möglichkeit zu geben, andere Agenten (Personas) innerhalb einer Discourse AI-Konversation aufzurufen. Mit „Agent“ meine ich das Aufrufen einer anderen Persona, die über spezialisierte Fähigkeiten oder Anweisungen verfügt, die nicht im Hauptsystem-Prompt enthalten sind.

Dies stellt eine Herausforderung dar: Abhängig vom Anwendungsfall kann es notwendig sein, sehr große System-Prompts zu erstellen, um alle Szenarien abzudecken. Das Ergebnis ist, dass wir Anweisungen erhalten, die nur selten verwendet werden, was potenziell Overhead oder Verwirrung für die KI bei jeder Interaktion verursachen kann.

Eine funktionierende Lösung: Tools als Direktiven-Injektoren

Ich konnte ein benutzerdefiniertes Tool verwenden, um Direktiven für Randfälle einzuschleusen. Der Ansatz:

  1. Den Hauptsystem-Prompt auf die Kernidentität und gängige Verhaltensweisen konzentrieren.
  2. Ein Tool mit einem generischen Parameter erstellen, wie zum Beispiel:
    - topic: string: Das behandelte Randfallthema oder die Herausforderung (erforderlich)
    
  3. Die spezialisierten Direktiven direkt in den JavaScript-Code des Tools einbetten, der bei Aufruf zurückgegeben wird.
  4. Einen kleinen Anweisungsblock zum Haupt-Prompt hinzufügen, der definiert, wann das Tool aufgerufen werden soll.

Wenn eine Benutzernachricht die Kriterien für den Aufruf des Tools erfüllt, wird es ausgelöst und injiziert die spezialisierten Anweisungen in den Konversationskontext. Es funktioniert perfekt.

Anwendungsfallbeispiel

Stellen Sie sich eine allgemeine Assistenz-KI vor, die gelegentlich in einen spezialisierten Modus wechseln muss – beispielsweise zur detaillierten technischen Fehlerbehebung oder zur eingehenden Synthese von Forschungsergebnissen. Anstatt diese umfangreichen Protokolle bei jeder Konversation zu laden (von denen die meisten Routinefragen sind), kann ein Tool die spezialisierten Direktiven nur dann injizieren, wenn der Konversationskontext dies erfordert. Der Haupt-Prompt bleibt schlank und auf gängige Aufgaben konzentriert, während der spezialisierte Modus nur bei Auslösung aktiviert wird.

Fragen an die Community

  1. Gedanken zu diesem Muster? Tools nicht für externe API-Aufrufe oder Datenabrufe verwenden, sondern als Container für spezialisierte Anweisungssätze, die kontextabhängig aktiviert werden.

  2. Gibt es Pläne oder bestehende Methoden, um tatsächlich andere Agenten/Personas aufzurufen und sie zu Konversationen hinzuzufügen? So etwas wie das Aufrufen einer Spezialisten-Persona mitten in einer Konversation, die ihren eigenen System-Prompt in den Kontext bringt.

  3. Gibt es Fallstricke, auf die ich achten sollte? Ich verwende dies derzeit nur im Kontext privater KI-Nachrichten.

Ich bin gespannt, ob andere diesen Ansatz untersucht haben oder ob es eine elegantere Lösung gibt, die ich übersehe.