Posso eseguire il backup più volte al giorno e sono al sicuro se il server va giù

Ciao a tutti, ho bisogno del vostro aiuto, sono nuovo in questo, sto configurando la mia community sul mio server, ho domande sul backup, come posso configurarlo per farlo 3 volte al giorno? e questo backup è sicuro? Se succede qualcosa al mio server, posso migrare la mia intera community con tutte le impostazioni su un altro server?

Non puoi farlo (senza ricorrere a script personalizzati complicati)

Sì, finché lo memorizzi altrove (come su S3)

2 Mi Piace

Capisco, penso che sia un po’ rischioso avere solo un backup al giorno, se la community è molto attiva c’è il rischio di perdere dati dato che il backup più vicino potrebbe richiedere 24 ore… Tornando all’argomento, puoi dirmi se aggiungendo un bucket S3 i file di backup vanno direttamente su S3 o vengono salvati anche sulla macchina in cui è ospitato il discorso?

Vengono prima salvati sulla macchina, poi caricati (e rimossi dalla macchina).

1 Mi Piace

Capisco, nel mio caso questa soluzione non funziona, sarà insicura.

Cosa c’è di insicuro in s3?

Se per qualche motivo non ti fidi, potresti usare lo storage locale e sincronizzare i file altrove con rsync. Ma sarebbe meno sicuro di s3.

1 Mi Piace

L’insicurezza a cui mi riferisco non è S3, ma nel discorso stesso, il tempo minimo di backup è di 1 giorno, ma se si analizza questo periodo per il backup successivo, potrebbero esserci problemi o situazioni sul server o sul file stesso, quindi se si tratta di una community molto attiva si potrebbero perdere alcuni dati.

Se non puoi permetterti la probabilità di tale perdita di dati, dovresti investire in una configurazione di database che si replichi su un altro provider di hosting o zona di disponibilità. Ma queste cose hanno un prezzo.

Quando si esegue la gestione del rischio, il rischio che qualcosa vada storto è la probabilità moltiplicata per l’impatto. Se si desidera diminuire il rischio, si può diminuire la probabilità del disastro o l’impatto.

Avere backup più frequenti è una misura che diminuisce l’impatto. Si potrebbe anche considerare di diminuire la probabilità, ad esempio ottenendo un hosting più affidabile.

Negli ultimi 10 anni di hosting di molti, molti forum Discourse con Communiteq, non abbiamo mai avuto un caso in cui avremmo desiderato avere backup più frequenti.

2 Mi Piace

Sono nuovo al discorso, quindi quello che hai detto non l’ho capito molto bene

Sta dicendo che in dieci anni di gestione di centinaia di forum non ha mai desiderato di avere backup più frequenti.

Se i tuoi dati sono molto preziosi, puoi configurare postgres per replicare su un altro server in modo da poter passare a un backup “hot” e perdere pochissimi dati. Puoi cercare su Google “postgres replication”. Suppongo che ti ci vorrà un giorno o due per configurarlo e altri pochi giorni per assicurarti di capire veramente come passare al server di backup.

Potresti anche creare un cron job che esegua il backup ogni dieci minuti e avere quei backup su s3.

La raccomandazione, tuttavia, è di trovare qualcos’altro di cui preoccuparsi.

1 Mi Piace

Capisco, va bene, vedrò cosa è meglio fare

1 Mi Piace

Non riesco proprio a capire perché così tanti siano contrari a backup del database più frequenti. Cosa c’è dietro? Spiegatemi perché con Discourse un limite massimo di 24 ore non è una minaccia, ma lo è ovunque altrove. Il mio WordPress/Woocommerce esegue backup del database ogni 5 minuti e ha un costo praticamente nullo.

Fin dall’inizio del mondo digitale ci sono state due verità universali:

  • i backup sono troppo vecchi troppo spesso
  • eseguire backup deve essere automatico, perché fare affidamento sull’uomo è un modo garantito per dimenticarsene

Non capisco nemmeno come non possano vedere i rischi in un backup che viene eseguito ogni 24 ore, durante questo periodo possono verificarsi grandi perdite di informazioni sensibili.

Se vuoi creare backup più spesso, puoi creare uno script cron per farlo o creare un plugin che lo faccia più spesso. Se hai intenzione di fare backup più spesso, vorrai assicurarti che gli upload siano su s3, poiché fare copie degli upload con ogni backup è costoso.

Cdck/discourse.org fa backup due volte al giorno, credo. Lo fanno con uno script esterno.

Se non vuoi capire come gestire i backup di postgres, puoi chiedere in Marketplace con un budget e dire se preferisci che un plugin crei i backup o che ricevi aiuto con postgres per creare script di backup del database postgres o backup di discourse.

Quella non è una funzionalità nativa di wordpress, però, vero? È un plugin, giusto?

Ma il punto è che fare backup più frequenti è probabilmente non necessario, almeno per l’esperienza di alcune persone che hanno gestito molti forum discourse per molti anni.

Ma stiamo parlando di database qui. Fare il backup dei caricamenti su S3 ogni pochi minuti è semplicemente stupido.

Ma ancora vorrei sentire perché questa è una domanda così importante.

Non c’è alcuna soluzione integrata da Autommatic. Ma ci sono molte ragioni per cui non c’è bisogno di creare tale funzionalità. L’intero ecosistema è diverso e Discourse come ambiente manca totalmente di tale varietà. Tutto qui è fortemente basato sul B2B, lo so, e non c’è né la necessità né il desiderio di sviluppare una soluzione a livello cliente simile a quella che sono WordPress e i suoi plugin.

Tutto quello che voglio sapere è qual è il vero motivo per cui questa è una domanda così difficile.

Non ci sono contrario. Semplicemente non penso di averne bisogno, e non ne ho mai avuto bisogno.

Non sarebbe molto difficile o richiederebbe molto lavoro creare un plugin che lo faccia. Tuttavia, nessuno l’ha costruito. Probabilmente è un segno che non è così importante per molti :wink:

2 Mi Piace

Sì, il vero test di qualsiasi requisito è se CDCK lo raccoglie o se qualcuno pubblica su Marketplace con un budget significativo.