Ein Plugin, das alle über die Google Cloud Vision API hochgeladenen Bilder auf Discourse prüft und sie ablehnt, wenn sie gemäß festgelegten Schwellenwerten nicht angemessen sind.
Dokumentation:
Google stellt eine Ruby-Gem bereit:
Dieses Plugin sollte in den Haupt-Prozess für das Hochladen von Bildern auf Discourse integriert werden und alle Bilder (Beiträge, Avatare, Profil-Hintergründe usw.) prüfen, um Bilder mit unerwünschtem Inhalt abzulehnen:
puts "Adult: #{safe_search.adult}" puts "Spoof: #{safe_search.spoof}" puts "Medical: #{safe_search.medical}" puts "Violence: #{safe_search.violence}" puts "Racy: #{safe_search.racy}"
['UNKNOWN', 'VERY_UNLIKELY', 'UNLIKELY', 'POSSIBLE', 'LIKELY', 'VERY_LIKELY']
Die Mindestwahrscheinlichkeiten, bei denen Uploads für die verschiedenen Flaggenkategorien (Adult, Spoof, Medical, Violence, Racy) abgelehnt werden, sollten in den Plugin-Einstellungen konfigurierbar sein.
Abgelehnte Bilder sollten sofort entfernt und nirgendwo gespeichert werden.
Von Google Cloud Vision unterstützte Bildformate: