Diese Anleitung erklärt, wie Sie die native Unterstützung für PDF- und Dokumentenanhänge aktivieren und nutzen, wenn Sie mit KI-Bots in Discourse interagieren. Benutzer können PDFs und andere Dokumente direkt in Gesprächen mit KI-Personas hochladen.
Erforderliches Benutzerniveau: Administrator
Zusammenfassung
Discourse AI unterstützt jetzt die native Handhabung von Anhängen, sodass Benutzer PDFs und andere Dokumenttypen direkt beim Gespräch mit KI-Bots hochladen können. Die KI kann den Inhalt dieser Anhänge lesen und verstehen, was Anwendungsfälle wie Dokumentenanalyse, Zusammenfassung und Beantwortung von Fragen basierend auf hochgeladenen Dateien ermöglicht.
Diese Funktion erfordert:
- Ein LLM-Modell mit aktivierter Vision
- Konfigurierte erlaubte Anhangstypen für das LLM
- Eine Persona, die Vision unterstützt
- Die Dateierweiterung muss in den Upload-Einstellungen Ihrer Website autorisiert sein
Unterstützte Anbieter
Die native Anhangsunterstützung funktioniert mit Modellen der folgenden Anbieter:
- Anthropic (Claude-Modelle)
- Google (Gemini-Modelle)
- OpenAI (GPT-Modelle)
Jeder Anbieter behandelt Anhänge auf API-Ebene unterschiedlich, aber Discourse AI verwaltet dies automatisch. Beachten Sie, dass verschiedene Anbieter unterschiedliche Unterstützungsgrade für verschiedene Anhangstypen implementieren.
Unterstützte Anhangstypen
Die folgenden Dokumenttypen können für die KI-Verarbeitung konfiguriert werden:
| Typ | Erweiterungen |
|---|---|
pdf |
|
| Nur Text | txt |
| Microsoft Word | doc, docx |
| Rich Text Format | rtf |
| HTML | html, htm |
| Markdown | md, markdown |
Bilder werden separat über die Einstellung „Vision aktiviert“ behandelt und erfordern keine Konfiguration des Anhangstyps.
Konfiguration
Schritt 1: Dateierweiterungen für den Upload autorisieren
Stellen Sie sicher, dass die Dateierweiterungen in Ihren Website-Einstellungen autorisiert sind, bevor Benutzer Anhänge hochladen können.
- Navigieren Sie zu Admin → Dateien
- Suchen Sie die Einstellung
autorisierte Erweiterungen - Fügen Sie die Erweiterungen hinzu, die Sie zulassen möchten (z. B.
pdf|txt|docx)
Schritt 2: Das LLM-Modell konfigurieren
- Navigieren Sie zu Admin → Plugins → Discourse AI → LLMs
- Wählen Sie das LLM-Modell aus, das Sie konfigurieren möchten (oder erstellen Sie ein neues)
- Aktivieren Sie Vision aktiviert – dies ist für die Anhangsunterstützung erforderlich
- Wählen Sie im Feld Erlaubte Anhänge die Dateierweiterungen aus oder geben Sie diese ein, die das Modell akzeptieren soll (z. B.
pdf,txt,docx)

Wenn Sie das Feld „Erlaubte Anhänge“ leer lassen, werden Dokumentenanhänge für dieses Modell deaktiviert. Bilder werden separat über den Schalter „Vision aktiviert“ gesteuert.
Schritt 3: Die Persona konfigurieren
- Navigieren Sie zu Admin → Plugins → Discourse AI → KI-Personas
- Wählen Sie eine Persona aus oder erstellen Sie eine neue
- Stellen Sie sicher, dass Vision-Unterstützung für die Persona aktiviert ist
- Setzen Sie das Standardmodell auf ein LLM, für das Vision und Anhänge konfiguriert sind
Funktionsweise
Wenn ein Benutzer ein Dokument in einem Gespräch mit einem KI-Bot hochlädt:
- Das Dokument wird über die Standard-Upload-Verarbeitung an Discourse hochgeladen
- Discourse AI kodiert den Dokumentinhalt (base64)
- Der kodierte Inhalt wird zusammen mit der Nachricht des Benutzers an das LLM gesendet
- Das LLM verarbeitet sowohl die Textnachricht als auch den Dokumentinhalt
- Die KI antwortet basierend auf dem kombinierten Kontext

Technische Details
- Dokumente werden als base64 kodiert und inline mit der Anfrage gesendet
- Jeder Anbieter empfängt Anhänge in seinem nativen Format:
- Anthropic: Verwendet den Typ
documentmit base64-Quelle - Gemini: Verwendet das Format
inlineData - OpenAI: Verwendet den Typ
filemitfile_data, das den base64-Inhalt enthält
- Anthropic: Verwendet den Typ
- Dateigrößenbeschränkungen werden durch die Einstellung
max attachment size kbIhrer Website bestimmt
Anwendungsfälle
Die native Anhangsunterstützung ermöglicht mehrere Workflows:
- Dokumentenanalyse: Laden Sie Verträge, Berichte oder Forschungsarbeiten hoch, die die KI zusammenfassen oder Fragen dazu beantworten soll
- Inhaltsprüfung: Lassen Sie die KI Entwurfsdokumente überprüfen und Feedback dazu geben
- Datenextraktion: Extrahieren Sie bestimmte Informationen aus hochgeladenen Dokumenten
- Übersetzungshilfe: Laden Sie Dokumente in einer Sprache hoch und diskutieren Sie den Inhalt oder fordern Sie Übersetzungen an
- Technischer Support: Benutzer können Protokolldateien oder Konfigurationsdateien für die Fehlerbehebung hochladen
Einschränkungen
- Dateigröße: Anhänge werden durch die Upload-Größeneinstellungen Ihrer Website und den LLM-Anbieter begrenzt
- Anbieterunterstützung: Derzeit unterstützen nur Modelle von Anthropic, Google und OpenAI Anhänge
- Vision-Anforderung: Das LLM muss über aktivierte Dokumentenlesefähigkeiten verfügen
- Erweiterungsabgleich: Die Dateierweiterung muss sowohl auf Ihrer Website für den Upload autorisiert als auch in der Konfiguration der Anhangstypen des LLM erlaubt sein
- Ergebnisse variieren: Da LLM-Anbieter und LLMs die Dateien verarbeiten, variieren Kosten/Genauigkeit und Ergebnisse. Anthropic neigt dazu, mehr Tokens für die Analyse zu verwenden als OpenAI oder Google.
- Caching aktivieren: Stellen Sie bei Open AI sicher, dass Sie die Responses API verwenden, die eine konsistentere Unterstützung für das Caching bietet (wenn „Denken“ aktiviert ist). Bei Anthropic-Modellen müssen Sie das Caching möglicherweise explizit in der LLM-Konfiguration aktivieren. Dies kann besonders wichtig sein, wenn Sie mehrstufige Gespräche führen.
Fehlerbehebung
Anhänge werden nicht verarbeitet
- Überprüfen Sie, ob die Dateierweiterung in der Einstellung
autorisierte ErweiterungenIhrer Website enthalten ist - Prüfen Sie, ob das LLM „Vision aktiviert“ hat
- Bestätigen Sie, dass der Dateityp in der Einstellung „Erlaubte Anhänge“ des LLM aufgeführt ist
- Stellen Sie sicher, dass die Persona über Vision-Unterstützung verfügt und ein korrekt konfiguriertes LLM verwendet
Upload schlägt fehl
- Überprüfen Sie Ihre Einstellung
max attachment size kb - Vergewissern Sie sich, dass die Dateierweiterung autorisiert ist
- Sehr große PDFs werden möglicherweise nicht unterstützt, jeder LLM-Anbieter hat unterschiedliche maximale Upload-Größen.
KI versteht das Dokument nicht
- Stellen Sie sicher, dass Sie ein Modell verwenden, das Dokumentenverständnis unterstützt
- Versuchen Sie ein leistungsfähigeres Modell (z. B. Claude Sonnet 4.5, GPT-5.1, Gemini Pro 3)
FAQs
Können Benutzer mehrere Dokumente in einer Nachricht hochladen?
Ja, Benutzer können mehrere Anhänge in eine einzige Nachricht aufnehmen, und die KI hat Zugriff auf alle davon.
Funktioniert dies sowohl im Chat als auch in privaten Nachrichten?
Ja, die Anhangsunterstützung funktioniert sowohl in privaten Nachrichten mit KI-Bots als auch in Chat-Direktnachrichten, vorausgesetzt, die Persona ist für diese Interaktionsmethoden konfiguriert.
Ist dies anders als RAG-Uploads bei Personas?
Ja. RAG-Uploads sind Dokumente, die Administratoren zur Wissensbasis einer Persona hinzufügen, die indiziert und durchsucht werden. Die native Anhangsunterstützung ermöglicht es Endbenutzern, Dokumente während Gesprächen für die sofortige Analyse hochzuladen, ohne sie zu indizieren.
Was passiert mit hochgeladenen Dokumenten?
Dokumente werden gemäß den Standard-Upload-Verarbeitungs- und Aufbewahrungsrichtlinien Ihrer Website verarbeitet. Sie werden als reguläre Discourse-Uploads gespeichert.