Nutzung von PDF- und Anhangsunterstützung mit KI-Bots

:bookmark: Diese Anleitung erklärt, wie Sie die native Unterstützung für PDF- und Dokumentenanhänge aktivieren und nutzen, wenn Sie mit KI-Bots in Discourse interagieren. Benutzer können PDFs und andere Dokumente direkt in Gesprächen mit KI-Personas hochladen.

:person_raising_hand: Erforderliches Benutzerniveau: Administrator

Zusammenfassung

Discourse AI unterstützt jetzt die native Handhabung von Anhängen, sodass Benutzer PDFs und andere Dokumenttypen direkt beim Gespräch mit KI-Bots hochladen können. Die KI kann den Inhalt dieser Anhänge lesen und verstehen, was Anwendungsfälle wie Dokumentenanalyse, Zusammenfassung und Beantwortung von Fragen basierend auf hochgeladenen Dateien ermöglicht.

Diese Funktion erfordert:

  • Ein LLM-Modell mit aktivierter Vision
  • Konfigurierte erlaubte Anhangstypen für das LLM
  • Eine Persona, die Vision unterstützt
  • Die Dateierweiterung muss in den Upload-Einstellungen Ihrer Website autorisiert sein

Unterstützte Anbieter

Die native Anhangsunterstützung funktioniert mit Modellen der folgenden Anbieter:

  • Anthropic (Claude-Modelle)
  • Google (Gemini-Modelle)
  • OpenAI (GPT-Modelle)

Jeder Anbieter behandelt Anhänge auf API-Ebene unterschiedlich, aber Discourse AI verwaltet dies automatisch. Beachten Sie, dass verschiedene Anbieter unterschiedliche Unterstützungsgrade für verschiedene Anhangstypen implementieren.

Unterstützte Anhangstypen

Die folgenden Dokumenttypen können für die KI-Verarbeitung konfiguriert werden:

Typ Erweiterungen
PDF pdf
Nur Text txt
Microsoft Word doc, docx
Rich Text Format rtf
HTML html, htm
Markdown md, markdown

:information_source: Bilder werden separat über die Einstellung „Vision aktiviert“ behandelt und erfordern keine Konfiguration des Anhangstyps.

Konfiguration

Schritt 1: Dateierweiterungen für den Upload autorisieren

Stellen Sie sicher, dass die Dateierweiterungen in Ihren Website-Einstellungen autorisiert sind, bevor Benutzer Anhänge hochladen können.

  1. Navigieren Sie zu AdminDateien
  2. Suchen Sie die Einstellung autorisierte Erweiterungen
  3. Fügen Sie die Erweiterungen hinzu, die Sie zulassen möchten (z. B. pdf|txt|docx)

Schritt 2: Das LLM-Modell konfigurieren

  1. Navigieren Sie zu AdminPluginsDiscourse AILLMs
  2. Wählen Sie das LLM-Modell aus, das Sie konfigurieren möchten (oder erstellen Sie ein neues)
  3. Aktivieren Sie Vision aktiviert – dies ist für die Anhangsunterstützung erforderlich
  4. Wählen Sie im Feld Erlaubte Anhänge die Dateierweiterungen aus oder geben Sie diese ein, die das Modell akzeptieren soll (z. B. pdf, txt, docx)

llm configuration showing pdf / txt selection in allowed attachments

:warning: Wenn Sie das Feld „Erlaubte Anhänge“ leer lassen, werden Dokumentenanhänge für dieses Modell deaktiviert. Bilder werden separat über den Schalter „Vision aktiviert“ gesteuert.

Schritt 3: Die Persona konfigurieren

  1. Navigieren Sie zu AdminPluginsDiscourse AIKI-Personas
  2. Wählen Sie eine Persona aus oder erstellen Sie eine neue
  3. Stellen Sie sicher, dass Vision-Unterstützung für die Persona aktiviert ist
  4. Setzen Sie das Standardmodell auf ein LLM, für das Vision und Anhänge konfiguriert sind

Funktionsweise

Wenn ein Benutzer ein Dokument in einem Gespräch mit einem KI-Bot hochlädt:

  1. Das Dokument wird über die Standard-Upload-Verarbeitung an Discourse hochgeladen
  2. Discourse AI kodiert den Dokumentinhalt (base64)
  3. Der kodierte Inhalt wird zusammen mit der Nachricht des Benutzers an das LLM gesendet
  4. Das LLM verarbeitet sowohl die Textnachricht als auch den Dokumentinhalt
  5. Die KI antwortet basierend auf dem kombinierten Kontext

image

Technische Details

  • Dokumente werden als base64 kodiert und inline mit der Anfrage gesendet
  • Jeder Anbieter empfängt Anhänge in seinem nativen Format:
    • Anthropic: Verwendet den Typ document mit base64-Quelle
    • Gemini: Verwendet das Format inlineData
    • OpenAI: Verwendet den Typ file mit file_data, das den base64-Inhalt enthält
  • Dateigrößenbeschränkungen werden durch die Einstellung max attachment size kb Ihrer Website bestimmt

Anwendungsfälle

Die native Anhangsunterstützung ermöglicht mehrere Workflows:

  • Dokumentenanalyse: Laden Sie Verträge, Berichte oder Forschungsarbeiten hoch, die die KI zusammenfassen oder Fragen dazu beantworten soll
  • Inhaltsprüfung: Lassen Sie die KI Entwurfsdokumente überprüfen und Feedback dazu geben
  • Datenextraktion: Extrahieren Sie bestimmte Informationen aus hochgeladenen Dokumenten
  • Übersetzungshilfe: Laden Sie Dokumente in einer Sprache hoch und diskutieren Sie den Inhalt oder fordern Sie Übersetzungen an
  • Technischer Support: Benutzer können Protokolldateien oder Konfigurationsdateien für die Fehlerbehebung hochladen

Einschränkungen

  • Dateigröße: Anhänge werden durch die Upload-Größeneinstellungen Ihrer Website und den LLM-Anbieter begrenzt
  • Anbieterunterstützung: Derzeit unterstützen nur Modelle von Anthropic, Google und OpenAI Anhänge
  • Vision-Anforderung: Das LLM muss über aktivierte Dokumentenlesefähigkeiten verfügen
  • Erweiterungsabgleich: Die Dateierweiterung muss sowohl auf Ihrer Website für den Upload autorisiert als auch in der Konfiguration der Anhangstypen des LLM erlaubt sein
  • Ergebnisse variieren: Da LLM-Anbieter und LLMs die Dateien verarbeiten, variieren Kosten/Genauigkeit und Ergebnisse. Anthropic neigt dazu, mehr Tokens für die Analyse zu verwenden als OpenAI oder Google.
  • Caching aktivieren: Stellen Sie bei Open AI sicher, dass Sie die Responses API verwenden, die eine konsistentere Unterstützung für das Caching bietet (wenn „Denken“ aktiviert ist). Bei Anthropic-Modellen müssen Sie das Caching möglicherweise explizit in der LLM-Konfiguration aktivieren. Dies kann besonders wichtig sein, wenn Sie mehrstufige Gespräche führen.

Fehlerbehebung

Anhänge werden nicht verarbeitet

  1. Überprüfen Sie, ob die Dateierweiterung in der Einstellung autorisierte Erweiterungen Ihrer Website enthalten ist
  2. Prüfen Sie, ob das LLM „Vision aktiviert“ hat
  3. Bestätigen Sie, dass der Dateityp in der Einstellung „Erlaubte Anhänge“ des LLM aufgeführt ist
  4. Stellen Sie sicher, dass die Persona über Vision-Unterstützung verfügt und ein korrekt konfiguriertes LLM verwendet

Upload schlägt fehl

  • Überprüfen Sie Ihre Einstellung max attachment size kb
  • Vergewissern Sie sich, dass die Dateierweiterung autorisiert ist
  • Sehr große PDFs werden möglicherweise nicht unterstützt, jeder LLM-Anbieter hat unterschiedliche maximale Upload-Größen.

KI versteht das Dokument nicht

  • Stellen Sie sicher, dass Sie ein Modell verwenden, das Dokumentenverständnis unterstützt
  • Versuchen Sie ein leistungsfähigeres Modell (z. B. Claude Sonnet 4.5, GPT-5.1, Gemini Pro 3)

FAQs

Können Benutzer mehrere Dokumente in einer Nachricht hochladen?
Ja, Benutzer können mehrere Anhänge in eine einzige Nachricht aufnehmen, und die KI hat Zugriff auf alle davon.

Funktioniert dies sowohl im Chat als auch in privaten Nachrichten?
Ja, die Anhangsunterstützung funktioniert sowohl in privaten Nachrichten mit KI-Bots als auch in Chat-Direktnachrichten, vorausgesetzt, die Persona ist für diese Interaktionsmethoden konfiguriert.

Ist dies anders als RAG-Uploads bei Personas?
Ja. RAG-Uploads sind Dokumente, die Administratoren zur Wissensbasis einer Persona hinzufügen, die indiziert und durchsucht werden. Die native Anhangsunterstützung ermöglicht es Endbenutzern, Dokumente während Gesprächen für die sofortige Analyse hochzuladen, ohne sie zu indizieren.

Was passiert mit hochgeladenen Dokumenten?
Dokumente werden gemäß den Standard-Upload-Verarbeitungs- und Aufbewahrungsrichtlinien Ihrer Website verarbeitet. Sie werden als reguläre Discourse-Uploads gespeichert.

Zusätzliche Ressourcen

4 „Gefällt mir“