Discourse AI - NSFW

:bookmark: Questo argomento copre la configurazione della funzionalità NSFW (Not Safe For Work) del plugin Discourse AI.

:person_raising_hand: Livello utente richiesto: Amministratore

I moduli NSFW possono classificare automaticamente il punteggio NSFW di ogni nuovo caricamento di immagini nei post e nei messaggi di chat nella tua istanza Discourse. Questo sistema aiuta a identificare e gestire contenuti che potrebbero essere inappropriati o espliciti per un ambiente professionale o pubblico.

Puoi anche abilitare il contrassegno automatico dei contenuti che superano una soglia.

Impostazioni

  • ai_nsfw_detection_enabled: Abilita o disabilita il modulo

  • ai_nsfw_inference_service_api_endpoint: URL in cui è in esecuzione l’API per il modulo. Se stai utilizzando l’hosting CDCK, questo viene gestito automaticamente per te. Se stai auto-ospitando, consulta la guida all’auto-hosting.

  • ai_nsfw_inference_service_api_key: Chiave API per l’API configurata sopra. Se stai utilizzando l’hosting CDCK, questo viene gestito automaticamente per te. Se stai auto-ospitando, consulta la guida all’auto-hosting.

  • ai_nsfw_models: Il modello che utilizzeremo per la classificazione delle immagini. Offriamo due diversi modelli con le loro soglie:

    • opennsfw2 restituisce un singolo punteggio tra 0.0 e 1.0. Imposta la soglia affinché un caricamento sia considerato NSFW tramite l’impostazione ai_nsfw_flag_threshold_general.
    • nsfw_detector restituisce punteggi per quattro categorie: drawings, hentai, porn e sexy. Imposta la soglia per ciascuna tramite l’impostazione corrispondente ai_nsfw_flag_threshold_${category}. Se quello generale è inferiore a uno di questi, considereremo il contenuto NSFW.
  • ai_nsfw_flag_automatically: Contrassegna automaticamente i post/messaggi di chat che superano le soglie configurate. Quando questa impostazione è disabilitata, memorizziamo solo i risultati della classificazione nel database.

Risorse aggiuntive

11 Mi Piace