Discourse: Violazione della politica sui contenuti generati dagli utenti di Google Play

Ciao a tutti,

Sto cercando qualche consiglio. Abbiamo un’app, disponibile su Google Play e sull’App Store di Apple, con una community Discourse integrata. È così da diversi anni ormai e la community è forte.

Occasionalmente, quando si invia un aggiornamento di un’app a Google, questa viene revisionata manualmente e viene esaminata l’intera app alla ricerca di violazioni. Questo ci è successo di recente, in particolare riguardo alle nostre funzionalità della community e alla loro policy sui contenuti generati dagli utenti.

Inizialmente, hanno rifiutato l’app perché la community (Discourse) non disponeva di queste funzionalità:

  1. Fornire una funzione in-app che consenta agli utenti di segnalare/bloccare contenuti potenzialmente violanti
  2. Fornire una funzione in-app che consenta agli utenti di rimuovere/bloccare utenti offensivi

Come potete vedere, non si tratta della nostra community specifica, ma piuttosto delle funzionalità di Discourse stesso. Ho risposto mostrando loro un video su come segnalare i post e come silenziare/ignorare gli utenti, quindi ho inviato nuovamente l’app.

Ora l’hanno nuovamente rifiutata e hanno aggiunto questo problema:

  1. Fornire una funzione in-app che consenta agli utenti di segnalare/bloccare altri utenti per potenziali violazioni

Non sono d’accordo, poiché il 99% dei problemi in un forum di discussione deriverà dalla discussione stessa, quindi la segnalazione dei post offensivi gestirà la maggior parte dei casi. Ma non è che possa discutere contro la policy di Google.

Per quanto ne so, non esiste un “pulsante” per segnalare un utente in Discourse. Ho intenzione di inviare loro un video per mostrare che qualsiasi utente può contattare il nostro team di moderatori e segnalare un utente tramite un messaggio privato. Non so se lo accetteranno.

Lo sto pubblicando anche qui per aumentare un po’ la consapevolezza. Google Play è recentemente impegnata a rivedere la sua policy sui contenuti generati dagli utenti, quindi questo potrebbe interessare altre app Android che utilizzano Discourse in qualche modo.

Dettagli completi della violazione

Problema con la tua app
La tua app contiene o presenta Contenuti Generati dagli Utenti (UGC) non conformi alla policy sui Contenuti Generati dagli Utenti.

Dettagli del problema

Abbiamo riscontrato un problema nelle seguenti aree:

  • Esperienza in-app: Si prega di consultare lo screenshot allegato com.sociosoft.sobertime-InAppExperience-321.png

Si noti che i contenuti generati dagli utenti sono contenuti che gli utenti contribuiscono a un’app e che sono visibili o accessibili ad almeno un sottoinsieme degli utenti dell’app. Ciò include, ma non è limitato a, profili utente, commenti, media, post, ecc.

Pertanto, le nostre linee guida richiedono che le app contenenti contenuti UGC, indipendentemente dal fatto che siano lo scopo principale dell’app o meno, DEVONO avere le seguenti funzionalità:

  • Un sistema in-app di facile utilizzo per segnalare UGC discutibili e intraprendere azioni contro tale UGC ove appropriato. Ciò include:
    • Fornire una funzione in-app che consenta agli utenti di segnalare/bloccare altri utenti per potenziali violazioni
    • Fornire una funzione in-app che consenta agli utenti di segnalare/bloccare contenuti potenzialmente violanti
    • Fornire una funzione in-app che consenta agli utenti di rimuovere/bloccare utenti offensivi

Per maggiori informazioni, puoi consultare il nostro [corso di e-learning sui UGC] prima dell’invio.

Durante la revisione della tua app, abbiamo riscontrato contenuti discutibili e/o funzionalità UGC potenzialmente mancanti. Ti chiediamo gentilmente di ricontrollare la tua app e assicurarti che TUTTE queste funzionalità siano presenti per i tuoi utenti. Ti chiediamo inoltre di rivedere la policy sui Contenuti Generati dagli Utenti per assicurarti che la tua app soddisfi TUTTI i requisiti delineati nell’articolo di aiuto.

Se alla tua app mancano una o più funzionalità UGC, assicurati di aggiungerle alla tua app prima di inviarla nuovamente.

Consigliamo che tutte le funzionalità richieste siano etichettate e/o progettate in modo chiaro per gli utenti per evitare confusione. Puoi risolvere autonomamente questo problema assicurandoti che tutte le funzionalità UGC richieste siano implementate correttamente. Se il tuo problema è già stato risolto, OPPURE se hai aggiornato la tua app su Play Console e l’hai inviata per la revisione, non è richiesta alcuna ulteriore azione da parte tua e non è necessario contattarci.

Se hai esaminato la policy UGC e ritieni che la nostra decisione possa essere errata perché tutte le funzionalità UGC richieste nella tua app esistono effettivamente e sono ragionevolmente identificabili per i tuoi utenti, ti preghiamo di contattare il nostro team di supporto per le policy.

4 Mi Piace

Abbiamo un cliente che ha recentemente riscontrato le stesse cose e ha adottato il seguente approccio (con successo):

  • Consentire agli utenti di segnalare/etichettare altri utenti per potenziali violazioni: utilizzare il plugin Custom Wizard per creare tale funzionalità.
  • Consentire agli utenti di segnalare/contrassegnare contenuti potenzialmente in violazione: esiste utilizzando la funzionalità di segnalazione dei post. È necessario impostare “min trust to flag posts” su 0 per assicurarsi che il team di test di Google veda la funzionalità di segnalazione.
  • Consentire agli utenti di eliminare/bloccare utenti offensivi: esiste utilizzando la funzionalità “mute user”, vedere /my/preferences/users
  • Tutti gli utenti DEVONO accettare i termini di servizio dell’app: implementare utilizzando un campo personalizzato How to make users to explicitly agree to ToS - #4 by neil
4 Mi Piace

Grazie!

  • Consentire agli utenti di segnalare/etichettare altri utenti per potenziali violazioni: Stiamo avendo problemi con questo, quindi apprezzo il suggerimento del plugin wizard personalizzato. Non l’abbiamo mai usato prima e lo proveremo. Per ora, ho aggiunto un link “Moderatori” che gli utenti possono toccare e inviare un messaggio ai moderatori per segnalare un utente. Ho inviato loro un video di questo. Speriamo che sia accettabile, poiché è una funzionalità in-app, dovranno solo digitare un motivo (ma dovrebbero farlo comunque).

  • Consentire agli utenti di segnalare/contrassegnare contenuti potenzialmente in violazione: Credo che abbiamo superato questo test. La loro comunicazione è terribile, quindi è difficile dirlo. Per il primo rifiuto, hanno effettivamente segnalato un post casuale utilizzando l’account di prova e ne hanno allegato uno screenshot. Ma lo hanno comunque rifiutato per questo motivo. Strano.

  • Consentire agli utenti di eliminare/bloccare utenti offensivi: Non sapevano come farlo, quindi ho inviato loro un video su come silenziare o ignorare un utente.

  • Tutti gli utenti DEVONO accettare i termini di servizio dell’app: Non si sono ancora lamentati di questo. Abbiamo un sistema in atto per questo, ma potremmo seguire il tuo approccio se ci daranno problemi.

Aggiornerò questo quando riceverò un feedback da loro.

1 Mi Piace

Penso che si tratti di spiegare chiaramente in dettaglio la funzionalità di segnalazione esistente in Discourse al revisore. Ho dovuto farlo in passato per i revisori di Apple, è possibile che i revisori di Google necessitino di screenshot/dettagli ancora più specifici.

Core fornisce certamente molte opzioni per farlo, è quello che sono le segnalazioni, un modo per segnalare violazioni da parte degli utenti. Non permettiamo alle persone di andare al profilo dell’utente per segnalare un utente, ma dai post, questi possono certamente essere segnalati.

E una volta che un utente normale ne segnala un altro, gli amministratori/moderatori possono molto facilmente sospendere/bloccare quell’utente a livello globale. Potrebbe essere necessario mostrare alcuni di quegli screenshot alla revisione, ma le funzionalità in Discourse per questo sono piuttosto solide.

C’è un’affermazione predefinita che gli utenti accettano i ToS e l’informativa sulla privacy quando creano un account:

E nei prossimi mesi, aggiungeremo anche la possibilità per i siti di aggiungere una casella di controllo del consenso che gli utenti devono selezionare, sia al momento dell’iscrizione che al momento dell’accesso (ad esempio, se la policy cambia così tanto che gli amministratori devono richiedere una nuova accettazione da parte di tutti gli utenti).

5 Mi Piace

Oggi è il 18° giorno in cui non possiamo pubblicare la nostra app.

Ecco alcune cose che abbiamo imparato:

  • Il team di revisione è in realtà esternalizzato in un altro paese in cui l’inglese non è la prima lingua
  • Quando si fa appello contro un rifiuto, questo viene esaminato da un dipendente Google e il suo inglese sembra a posto

La nostra app è stata inizialmente rifiutata (dalla società esternalizzata) a causa della Politica sui contenuti generati dagli utenti di Google Play. Ho creato una cartella di Google Drive con documenti, screenshot e video che mostrano come Discourse abbia le funzionalità richieste. Ho quindi presentato il mio ricorso. Il ricorso è stato accettato da Google e mi è stato detto di inviare nuovamente l’app, cosa che ho fatto. Il team di revisione ha quindi nuovamente rifiutato l’aggiornamento dell’app a causa della Politica sui contenuti generati dagli utenti di Google Play. Ho presentato un altro ricorso e Google ha nuovamente accettato il ricorso e mi ha detto di inviare nuovamente l’app. Ho nuovamente inviato l’app e ora stiamo aspettando che il team di revisione la esamini.

C’è chiaramente un problema di comunicazione qui, poiché Google sembra a posto con la funzionalità, ma il team di revisione esternalizzato no. A mio parere, Discourse ha le capacità richieste e questo si riduce a un problema di lingua o di comprensione da parte del revisore.

Solo un’ipotesi, ma potrebbe esserci anche un sistema in atto che premia o punisce il revisore esternalizzato per recensioni di app corrette o errate, quindi potrebbe esserci una riluttanza da parte loro ad ammettere che la tua app è effettivamente conforme. Ho avuto a che fare con loro anche su altre app dove, ad esempio, hanno insistito per due mesi affinché elencassi i dettagli dell’abbonamento di un acquisto in-app che era solo un acquisto una tantum.

Per chiunque altro si trovi in questa situazione, ecco i problemi menzionati e come li abbiamo affrontati:

1. Fornire una funzione in-app che consenta agli utenti di segnalare/bloccare altri utenti per potenziali violazioni
Abbiamo un link nella nostra community che abbiamo creato utilizzando Nav Links Component che rimanda al gruppo Moderatori. Ho registrato un video in cui mostro come è possibile toccare questo link, quindi inviare un messaggio al gruppo moderatori per segnalare direttamente un utente. Google ha accettato questo, poiché l’unico requisito è che sia in-app. Non deve essere un pulsante “segnala utente”.

2. Fornire una funzione in-app che consenta agli utenti di rimuovere/bloccare utenti offensivi
Discourse ha un sistema di silenziamento/ignoranza. Assicurati solo che le impostazioni del tuo sito consentano anche ai nuovi utenti con livello di fiducia 0 di silenziare/ignorare gli utenti. Ho mostrato loro un video su come toccare un utente per aprire la sua scheda profilo, quindi accedere al profilo dell’utente per ignorarlo/silenziare. Google ha accettato questo.

3. Fornire una funzione in-app che consenta agli utenti di segnalare/bloccare contenuti potenzialmente violanti
Discourse ha la sua funzionalità di segnalazione per questo, e copre il requisito. Sembra che il team di revisione non l’abbia capito. La cosa divertente è che hanno effettivamente segnalato un post casuale utilizzando il loro account di test, e poi hanno incluso uno screenshot che mostrava che avevano segnalato un post, ma hanno comunque sollevato questo problema. Ho inviato loro un video che mostra come segnalare i post. Google ha accettato questo.

4. Tutti gli utenti DEVONO accettare i termini di utilizzo/la policy utente dell’app forniti dallo sviluppatore prima dell’utilizzo dell’app
Per questo, hanno inviato uno screenshot che mostra il modulo di accesso in cui si stanno registrando con il loro account di test. Presumo che intendessero indicare che gli utenti non devono accettare i termini ad ogni accesso. Leggendo il requisito della policy, posso interpretare che gli utenti debbano accettarla solo al momento della registrazione iniziale.
Come menzionato da @pmusaraj, il modulo di registrazione predefinito di Discourse menziona già i termini di servizio e la privacy policy. Per garantire la conformità, abbiamo un campo utente obbligatorio che l’utente deve accettare al momento dell’accesso.
Ho inviato loro un video che mostra che non è possibile creare un account senza spuntare la casella, e Google lo ha accettato.

5. I termini di utilizzo/la policy utente dell’app DEVONO definire contenuti e comportamenti discutibili
Abbiamo già definito chiaramente quali sono i contenuti accettabili e discutibili nella nostra community. Li abbiamo nei nostri termini di servizio e nelle nostre FAQ. Si tratta di un insieme dettagliato di linee guida su cui i nostri moderatori hanno lavorato insieme. Ho inviato loro un video su come accedere ai termini (Informazioni - FAQ / Termini di Servizio) e ho anche inviato loro collegamenti diretti a entrambe le pagine. Google ha accettato questo.

7 Mi Piace

Il nostro aggiornamento è stato accettato dal team di revisione oggi, quindi quanto sopra dovrebbe essere sufficiente per chiunque si trovi ad affrontare questo problema in futuro.

3 Mi Piace

Ciao Abdul,

Questo sito è specifico per Discourse e i suoi utenti.

La tua app ha a che fare con Discourse o stai cercando aiuto con la tua app non correlata?

La mia app non ha nulla a che fare con discourse. La pubblico sul Google Play Store e ricevo questa email da Google Play con lo stesso problema menzionato nel post. Sto cercando aiuto.

Mi dispiace, questo non è il sito giusto per te, questo sito è specificamente su Discourse.

2 Mi Piace

Chiusura poiché questo argomento sta generando rumore generale su Internet.