Dieses Thema behandelt die Konfiguration der NSFW-Funktion (Not Safe For Work) des Discourse AI-Plugins.
Erforderliche Benutzerebene: Administrator
Die NSFW-Module können den NSFW-Score jedes neuen Bild-Uploads in Beiträgen und Chat-Nachrichten in Ihrer Discourse-Instanz automatisch klassifizieren. Dieses System hilft bei der Identifizierung und Verwaltung von Inhalten, die für ein professionelles oder öffentliches Umfeld unangemessen oder explizit sein können.
Sie können auch die automatische Kennzeichnung von Inhalten aktivieren, die einen Schwellenwert überschreiten.
Einstellungen
ai_nsfw_detection_enabled: Aktiviert oder deaktiviert das Modul
ai_nsfw_inference_service_api_endpoint: URL, unter der die API für das Modul ausgeführt wird. Wenn Sie CDCK-Hosting verwenden, wird dies automatisch für Sie erledigt. Wenn Sie selbst hosten, lesen Sie die Anleitung für Self-Hosting.
ai_nsfw_inference_service_api_key: API-Schlüssel für die oben konfigurierte API. Wenn Sie CDCK-Hosting verwenden, wird dies automatisch für Sie erledigt. Wenn Sie selbst hosten, lesen Sie die Anleitung für Self-Hosting.
ai_nsfw_models: Das Modell, das wir für die Bildklassifizierung verwenden. Wir bieten zwei verschiedene mit ihren Schwellenwerten an:
- opennsfw2 gibt einen einzelnen Score zwischen
0,0und1,0zurück. Legen Sie den Schwellenwert für einen als NSFW betrachteten Upload über die Einstellungai_nsfw_flag_threshold_generalfest.- nsfw_detector gibt Scores für vier Kategorien zurück:
drawings,hentai,pornundsexy. Legen Sie den Schwellenwert für jede Kategorie über die entsprechende Einstellungai_nsfw_flag_threshold_${category}fest. Wenn der allgemeine Wert niedriger ist als einer dieser Werte, betrachten wir den Inhalt als NSFW.ai_nsfw_flag_automatically: Kennzeichnet automatisch Beiträge/Chat-Nachrichten, die über den konfigurierten Schwellenwerten liegen. Wenn diese Einstellung deaktiviert ist, speichern wir nur die Klassifizierungsergebnisse in der Datenbank.
Zusätzliche Ressourcen
11 „Gefällt mir“