Questo argomento copre la configurazione della funzionalità NSFW (Not Safe For Work) del plugin Discourse AI.
Livello utente richiesto: Amministratore
I moduli NSFW possono classificare automaticamente il punteggio NSFW di ogni nuovo caricamento di immagini nei post e nei messaggi di chat nella tua istanza Discourse. Questo sistema aiuta a identificare e gestire contenuti che potrebbero essere inappropriati o espliciti per un ambiente professionale o pubblico.
Puoi anche abilitare il contrassegno automatico dei contenuti che superano una soglia.
Impostazioni
-
ai_nsfw_detection_enabled: Abilita o disabilita il modulo
-
ai_nsfw_inference_service_api_endpoint: URL in cui è in esecuzione l’API per il modulo. Se stai utilizzando l’hosting CDCK, questo viene gestito automaticamente per te. Se stai auto-ospitando, consulta la guida all’auto-hosting.
-
ai_nsfw_inference_service_api_key: Chiave API per l’API configurata sopra. Se stai utilizzando l’hosting CDCK, questo viene gestito automaticamente per te. Se stai auto-ospitando, consulta la guida all’auto-hosting.
-
ai_nsfw_models: Il modello che utilizzeremo per la classificazione delle immagini. Offriamo due diversi modelli con le loro soglie:
- opennsfw2 restituisce un singolo punteggio tra
0.0e1.0. Imposta la soglia affinché un caricamento sia considerato NSFW tramite l’impostazioneai_nsfw_flag_threshold_general. - nsfw_detector restituisce punteggi per quattro categorie:
drawings,hentai,pornesexy. Imposta la soglia per ciascuna tramite l’impostazione corrispondenteai_nsfw_flag_threshold_${category}. Se quello generale è inferiore a uno di questi, considereremo il contenuto NSFW.
- opennsfw2 restituisce un singolo punteggio tra
-
ai_nsfw_flag_automatically: Contrassegna automaticamente i post/messaggi di chat che superano le soglie configurate. Quando questa impostazione è disabilitata, memorizziamo solo i risultati della classificazione nel database.