Feedback zur KI-Zusammenfassung

Feedback zur Zusammenfassung. Das sieht sehr vielversprechend aus :pray:

:point_up: Der Popup ist nicht breit genug

  • Es wäre toll, Optionen anzubieten, wie lang die Zusammenfassung sein soll. Es klingt so, als ob dies auf eine Wortzahl von 150-200 abzielt, was für einige Themen nicht viel ist.
  • Ich würde gerne den Prompt anpassen. Zum Beispiel würde ich standardmäßig Aufzählungspunkte verwenden.
  • Ich würde gerne mit einem Prompt experimentieren, der zitiert, wer was sagt und auf Beiträge verweist.
  • Ich würde die Zusammenfassung mit der KI-Mindestbeitragseinstellung von der allgemeinen trennen. Die Zusammenfassung mit KI ist wahrscheinlich auch bei weniger Beiträgen nützlich.

Beachten Sie, dass GPT-3.5 jetzt eine Version mit einem Token-Limit von 16.000 hat, was hier sehr relevant sein könnte.

Und nun die 2 Killer-Features, die ich gerne sehen würde:

  • Tägliche Zusammenfassungen mit der Funktion „Zusammenfassen mit KI“.
  • Zusammenfassungen, wenn ich mit der Maus über das Thema fahre (z. B. vorab berechnet).
4 „Gefällt mir“

Wir verwenden derzeit einen vereinfachten Prompt (wenn OpenAI oder Anthropic ausgewählt sind), werden ihn aber sehr bald ändern, da wir gerade daran arbeiten.

Die Anpassung ist eine interessante Funktion, die wir vielleicht in Zukunft hinzufügen werden.

Wir haben diese Woche gerade dafür gesorgt, dass sie für Beiträge mit mindestens einer Antwort angezeigt wird.

Wir haben für OpenAI-Modelle mit großem Kontext die Modelle hinzugefügt, an dem Tag, an dem sie veröffentlicht wurden. Derzeit können Sie wählen:

  • GPT 3.5 Turbo mit 16k
  • GPT 4 mit 32k
  • Claude mit 100k

Es wird daran gearbeitet, die generierten Zusammenfassungen zu cachen, damit sie anderswo verwendet werden können, was Funktionen wie diese ermöglicht.

7 „Gefällt mir“

Ich sehe das auf meiner Website nicht, gibt es eine Einstellung, die das steuert?

Weitere Vorschläge:

  • Anzeigen des Schaltfelds “Zusammenfassen mit KI” in der Pipeline.
  • Eine Möglichkeit haben, normales Zusammenfassen durch Zusammenfassen mit KI zu ersetzen
  • Erlauben, GPT-Modelle auf Azure zu verweisen. Wir haben in meinem Unternehmen eine signifikant verbesserte Latenz beobachtet
2 „Gefällt mir“

Das ist eine Änderung, die wir gerade diese Woche vorgenommen haben, sodass sie in den nächsten Tagen auf Ihrer Seite ausgerollt wird.

Was bedeutet „Pipeline“ hier?

Wie Sie hier auf Meta sehen können, haben wir das bereits getan. Die alte Zusammenfassung heißt jetzt „Top-Antworten anzeigen“. Wir arbeiten noch am Design und der Reihenfolge der Schaltflächen.

Das steht auf unserer Roadmap!

6 „Gefällt mir“

Entschuldigung für die Unklarheit, ich habe keine Ahnung, warum ich dieses Wort gewählt habe :facepalm:

Ich meinte hier

1 „Gefällt mir“

Dies geschieht pro:

Es ist ziemlich nervig zu konfigurieren, da man eine Reihe von Bereitstellungen erstellen muss, aber es funktioniert gut.

1 „Gefällt mir“

EDITIERT

Bei der Verwendung von Gemini 1.5 Flash enthalten die Zusammenfassungen oft Links zu mehreren Beiträgen, aber die mehreren Links werden nicht als Links gerendert. Ich erinnere mich nicht, andere Modelle gesehen zu haben, die versucht haben, mehrere Links zu verwenden.

Links zu einzelnen Beiträgen werden ordnungsgemäß gerendert.

Die entsprechende Antwortnutzlast enthält diesen Text:

[Username redacted](/t/-/56915/8, /t/-/56915/13, /t/-/56915/28, /t/-/56915/33, /t/-/56915/36)

Ich mag die Idee, mehrere Links zu zitieren, wirklich, wenn sie ordnungsgemäß gerendert werden könnten.

Nun, das ist einfach ungültiges Markdown, deshalb funktioniert es nicht.

Es ist eine Schande, dass Gemini Flash kein gültiges Markdown erzeugen kann. Hier auf Meta verwenden wir Llama 3.1, das auf FP8 für Zusammenfassungen quantisiert ist, und es kann problemlos ordnungsgemäße Markdown-Links erzeugen.

2 „Gefällt mir“

Und dass Haiku anscheinend keinen gültigen Statuscode zurückgeben kann. Das sind die beiden, die ich bisher für die Zusammenfassung ausprobiert habe. Als nächstes werde ich Llama 3.1 ausprobieren.

Ich weiß nicht, ob Sie bekannte Probleme beheben würden, wie z. B. die Überprüfung auf Montage und dieses spezielle Markdown. Mir ist bewusst, dass es nicht ideal ist, aber es könnte besser sein, als ansonsten gute LLM-Optionen zu verlieren.

Können Sie ungültige Zusammenfassungen unter https://discuss.ai.google.dev/ sehen?

Wir verwenden dort Flash. Wenn Sie mir ein paar Links geben können, würde ich gerne etwas Prompt-Engineering betreiben.

Das ist die einzige, die mir auf Anhieb einfällt, aber diese Themen sind kurz, sodass normalerweise nicht ein Benutzer mehrmals zitiert würde.

1 „Gefällt mir“

Das scheint für mich sehr gut behebbar zu sein, da wir unser Beispiel hier verbessern können. Im Moment lautet die Aufforderung:

Sie sind ein fortschrittlicher Zusammenfassungsbot, der prägnante, kohärente Zusammenfassungen des bereitgestellten Textes erstellt.\n\n- Fügen Sie nur die Zusammenfassung hinzu, ohne zusätzlichen Kommentar.\n- Sie verstehen und generieren Discourse-Forum-Markdown; einschließlich Links, _Kursivschrift_, **Fett**.\n- Behalten Sie die Originalsprache des zusammengefassten Textes bei.\n- Streben Sie Zusammenfassungen von 400 Wörtern oder weniger an.\n- Jeder Beitrag wird als „<POST_NUMMER> <BENUTZERNAME> <NACHRICHT>“ formatiert.\n- Zitieren Sie spezifische bemerkenswerte Beiträge im Format [NAME](/t/-/31793/POST_NUMMER)\n - Beispiel: Link zum 3. Beitrag von sam: [sam](/t/-/31793/3)\n - Beispiel: Link zum 6. Beitrag von jane: [agreed with](/t/-/31793/6)\n - Beispiel: Link zum 13. Beitrag von joe: [#13](/t/-/31793/13)\n- Bei der Formatierung von Benutzernamen verwenden Sie entweder @BENUTZERNAME ODER [BENUTZERNAME](/t/-/31793/POST_NUMMER)

Das fühlt sich etwas mehrdeutig an. Wir können es mit etwas wie diesem untermauern:

Grundsätzlich, @Roman / @Falco, müssen wir diese Aufforderungen aus dem Quellcodebaum entfernen und sie vielleicht in einer Persona speichern, damit Communities sie anpassen und teilen können, was besser funktioniert.

Ich werde nicht überrascht sein, wenn wir langfristig spezielle Aufforderungen für die schwächeren Modelle benötigen.

Persona würde hier großartig funktionieren, wenn wir Unterstützung für „Beispiele“ hätten, was keine riesige Dehnung zu sein scheint. Entweder das, oder wir verschieben es zu CompletionPrompt und geben dem eine Benutzeroberfläche.

5 „Gefällt mir“

Ich mag die Idee, den Prompt anzupassen, um ihn an Ihre Bedürfnisse anzupassen und die Fähigkeiten des Modells zu nutzen. Ich denke auch, dass es eine gute Idee ist, Personas zu einem eher Feature-unabhängigen Konzept zu machen.

1 „Gefällt mir“

Das ist im Grunde die Idee der „Persona-Funktionen“, „Prepared Statements“, die wir dieses Jahr besprochen haben. Wir würden alles wie AI Helper, Summary, Search usw. dorthin verschieben, das Erstellen benutzerdefinierter Funktionen ermöglichen und eine Benutzeroberfläche haben, um diese mit Funktionen in der Benutzeroberfläche zu verknüpfen.

Es wird schwierig, wenn wir die vorab geladenen aktualisieren, um ein anderes Format zu liefern, z. B. XML zu JSON. Hoffentlich können wir etwas bauen, das wir nächstes Jahr in Betracht ziehen können.

1 „Gefällt mir“

Ich kann den letzten Beiträgen nicht ganz folgen. Ich erhalte immer noch ungültige Zusammenfassungen. Gibt es etwas Bestimmtes, das ich mit Personas versuchen kann, oder muss ich auf die Refaktorisierung warten, über die Sie sprechen?

4 Beiträge wurden in ein neues Thema aufgeteilt: Umgang mit Problemen im DeepSeek JSON-Antwortformat