Come pulire la community

… per renderlo uno spazio digitale sano.

Tutte le comunità partono dal livello zero e cresceranno finché il team di amministratori non si sentirà a proprio agio… e inizierà ad analizzare perché esistono argomenti di dibattito pubblicati da anni ma che non ricevono visite. Bisogna mantenere quel tema? Dobbiamo archiviarlo? O eliminarlo?

Se lo archiviamo, i crawler dei motori di ricerca potranno continuare a indicizzarlo, quindi potrebbe continuare a portare nuovi lettori al forum. Ma… è davvero utile? O sarebbe meglio eliminarlo?

D’altra parte, se lo eliminiamo, liberiamo risorse e rinnoviamo la possibilità che chi arriva nella comunità apra discussioni nuove e fresche su contenuti non pubblicati (o archiviati).

Nel mio caso, il mio forum sta per raggiungere le 500.000 visualizzazioni di pagina negli ultimi 30 giorni, e voglio ottimizzare meglio i contenuti che mostro al mondo.

Come ottimizzare i contenuti? Come pulire correttamente i contenuti vecchi?

Alcune attività che sono attualmente in corso:

  • Nella categoria tutorial o nei post di conoscenza, le nuove domande come nuovi argomenti vengono spostate nella categoria supporto, mentre i messaggi con contenuto vengono lasciati nel settore appropriato, con il timer che rimuoverà automaticamente le nuove risposte.

  • Ho modificato le impostazioni di alcune categorie in modo che i bot dei motori di ricerca non possano indicizzare i contenuti, accessibili solo agli utenti registrati. (Categorie sensibili solo per i motori di ricerca).

Cosa altro si potrebbe fare?

Qualsiasi idea è apprezzata.

8 Mi Piace

Ottima domanda

Sarebbe utile comprendere che tipo di comunità hai. Le mie riflessioni variano tra le comunità di supporto e le CoP (Community of Practice), ad esempio.

3 Mi Piace

Grazie per la tua risposta, Sarah. So che sei una consulente per le comunità digitali, quindi la tua esperienza nel settore sarebbe di grande aiuto. Sarebbe fantastico conoscere la tua opinione su entrambi i tipi di comunità.

Nel mio caso, dal 2008 mi dedico alla consulenza sui sistemi ERP, in particolare su SAP, fornendo informazioni e supporto a aziende e utenti finali da molti anni, che, come me, hanno iniziato da zero con il sistema. Nel tempo, abbiamo sviluppato una sorta di dipendenza per la professione di consulente.

Di solito gestisco comunità di supporto; questo è il progetto più grande che abbia mai affrontato. Ho utilizzato altri sistemi e posso confermare che Discourse ha superato tutte le mie aspettative. Per questo motivo voglio migliorarlo, mantenendo idee per il debug e la pulizia dei contenuti, per offrire ai miei lettori uno spazio di qualità e informazioni aggiornate.

3 Mi Piace

Bene. Nel caso delle community di supporto, a mio avviso, la questione è piuttosto chiara: elimina i contenuti che non sono più aggiornati o pertinenti.

Presumo che qualsiasi consiglio obsoleto sia stato sostituito da un argomento aggiornato, così chi cerca troverà comunque un risultato.

6 Mi Piace

Beh, in questo momento sto lottando con questi “bot”…


Oddio, perché così tante visualizzazioni di pagina da parte dei bot!

Ho già letto questo: How to block all crawlers but Google's - #12 by codinghorror
Ma… sono nei guai… va bene bloccare “tutti” i crawler (tranne Google bot)?

2 Mi Piace

Puoi fare ciò che vuoi, ma starei attento. Ci sono altri bot legittimi.

Perché non controlli il rapporto sui crawler e vedi quali stanno causando più problemi?

3 Mi Piace

Sì, certo, ho dimenticato di precisare che sto gestendo questa pulizia crawler per crawler, con un’analisi quasi settimanale per individuare quale sta invadendo di più il sito web, e lo blocco uno alla volta.

Ciò che mi preoccupa è che aggiungere così tanti bot alla blacklist possa in qualche modo influenzare le prestazioni del sito.

Quindi ho pensato che forse, invece di bloccarli uno per uno, la soluzione migliore potrebbe essere aggiungere i bot essenziali alla whitelist e bloccare tutti gli altri. Ma… esistono davvero tracker essenziali?

Ho cercato nel forum per vedere se c’era un dibattito “dedicato” ai crawler essenziali, ma non l’ho trovato. Se conosci un argomento correlato, fammelo sapere.

1 Mi Piace

Se il tuo sito è pubblico e la SEO ha valore per te, allora qualsiasi bot che aggiunge i tuoi dati a un indice utile è “essenziale”. Guarda le tue fonti di traffico e confrontale con i bot: c’è qualche correlazione?

Una whitelist di bot potrebbe essere la soluzione migliore in questo caso, vero?

3 Mi Piace

Se il 100% rappresenta l’intera fonte organica, negli ultimi 30 giorni:

L’ultimo crawler bloccato è stato: MegaIndex.ru/2.0
Il responsabile dei colpi del 22 giugno. Più di 20.000 visualizzazioni di pagina da quel bot :angry:

4 Mi Piace

Se usi Cloudflare, è possibile bloccare i “bot dannosi” con esso. Non sono sicuro di quanto sia efficace, però. L’ho provato temporaneamente e blocca tutto ciò che sembra automatizzato, anche cose come curl e i miei stessi script che usano l’API di Discourse.

1 Mi Piace