Um plugin que verifica todas as imagens enviadas para o Discourse usando a API do Google Cloud Vision e as rejeita se não forem apropriadas de acordo com os níveis definidos.
Documentação:
Um Ruby Gem é fornecido pelo Google:
Esse plugin deve se integrar ao processo principal de upload de imagens do Discourse para todas as imagens (postagens, avatares, fundos de perfil etc.) e rejeitar imagens que contenham conteúdo proibido:
puts "Adulto: #{safe_search.adult}" puts "Falsificação: #{safe_search.spoof}" puts "Médico: #{safe_search.medical}" puts "Violência: #{safe_search.violence}" puts "Sensível: #{safe_search.racy}"
['DESCONHECIDO', 'MUITO_IMPROVÁVEL', 'IMPROVÁVEL', 'POSSÍVEL', 'PROVÁVEL', 'MUITO_PROVÁVEL']
Os níveis mínimos de probabilidade para rejeitar uploads nas várias categorias de flag (Adulto, Falsificação, Médico, Violência, Sensível) devem ser configuráveis nas configurações do plugin.
Imagens rejeitadas devem ser removidas instantaneamente e não devem ser salvas em nenhum lugar.
Formatos de imagem suportados pelo Google Cloud Vision: