Oh, das wäre Llama 70b, ich glaube nicht, dass es leistungsfähig genug ist, um Forum Researcher auszuführen, werde das Team über den XML-Generierungsfehler informieren, wir können ihn möglicherweise beheben.
Ich hatte es mir schon gedacht – ich würde erwarten, dass es nicht in der Dropdown-Liste enthalten ist, wenn es sich um ein „eingebautes Modell“ handelt, aber nicht leistungsfähig genug ist, um damit zu arbeiten.
Ja, ich bin etwas überrascht, dass unser gehostetes LLM für Bots freigeschaltet ist. Wir haben es technisch gesehen nur für Zusammenfassungen und KI-Suche eingeführt. Gibt es eine Möglichkeit, dass Sie intern Gemini/Anthropic- oder OpenAI-Schlüssel erwerben können?
Es gibt eine große Motivation, dies aus der Perspektive des “Beweisens des Wertes der Community” zu tun, da wir Ihnen helfen könnten, wöchentliche/monatliche Berichte zu erstellen, die Sie in der Organisation nach oben weitergeben könnten.