Ich habe ein wenig getestet – Entschuldigung, nicht sehr konsequent, aber wie ein Hase zwischen den Scheinwerfern eines Autos.
Sie kann definitiv auch Finnisch. Ich denke, es gibt grundlegendere Probleme mit KI und kleineren Sprachen. Und Benutzern.
Zunächst einmal hat OpenAI nicht genug Material, um Finnisch zu verarbeiten, aber ich bin sicher, dass diese Situation für alle Sprachen gilt, in denen es nicht genügend Material gibt, das die KI lernen kann. Das bedeutet, dass Semantik weitaus schwieriger ist als andere Fragen, und diese sind für Chat GPT wirklich schwierig, wenn es andere Sprachen als Englisch oder andere wichtige Sprachen verwendet.
Es scheint, dass GPT-4 genauer ist als GPT-3.5-turbo. Aber wenn Treffer bei 3.5 nur Rauschen waren, vielleicht 8 von 10 Mal, und selbst Discourse diese 2 richtigen Treffer nur mit reinen Tags liefern konnte, hatte GPT-4 eine Erfolgsquote von etwa 50 %. Und ja, das sind Stetson-Statistiken.
Eine Suche zu erstellen, bei der der semantische Ansatz hilfreich ist, ist tatsächlich ziemlich schwierig. Zumindest für mich, weil ich Erwartungen hatte, was ich bekommen sollte. Es geht also nicht nur um echte semantische Suchen, sondern mehr oder weniger um die Suche mit einem ungenauen Suchsatz über eine Liste von Suchbegriffen, die aus diesem Satz erstellt wurden. Ja, ich weiß – so etwas ist auch eine semantische Suche.
Mein sehr schwacher Punkt ist, dass die semantische Komponente wie erwartet funktioniert, aber die Probleme von den Einschränkungen der KI selbst und den zu hohen Erwartungen des Benutzers herrühren. Und Sprachen außer Englisch sind per se kein Problem.
Aber…
Die semantische Volltextsuche ist schrecklich langsam. Habe ich Recht, wenn ich die technische Schwäche meines VPS beschuldige – nicht genug RAM, magische Kreaturen usw.? Denn hier ist sie schnell.
Zweitens… können wir an einem bestimmten Punkt KI-Treffer als Standard anbieten, über die von Discourse generierten?