Aggiornamento = :teschio_e_ossa_incrociate:

Ciao a tutti

Tengo il passo con gli aggiornamenti abbastanza bene, ho visto che ne era uno in arrivo e l’ho fatto, il risultato è stato nessun’interfaccia utente tranne che nell’amministrazione

Ho fatto l’SSH e ho aggiornato il server per assicurarmi che tutto fosse a posto, nessun aiuto

Ho provato a tornare indietro e ho ottenuto questo

Sono entrato in modalità provvisoria e sono stato avviato, ma ho ottenuto un’interfaccia utente parziale

Non riesco ad accedere, dice che il mio nome utente è disponibile e che la mia email non esiste

Potrei usare un po’ di aiuto per favore e grazie


modifica, ho riavviato il server e ho ottenuto

non convinto sono andato a registrarmi, ho pensato che fosse dovuto un backup ora

nessuna gioia nemmeno lì


modifica, rinfrescando una finestra diversa sono riuscito a registrarmi


poi

ancora nessuna gioia


SSH e le cose appaiono ancora come erano


modifica
image



DISCOURSE DOCTOR Dom 12 nov 01:54:06 UTC 2023
OS: Linux ip-10-0-159-37 6.2.0-1015-aws #15~22.04.1-Ubuntu SMP Fri Oct 6 21:37:24 UTC 2023 x86_64 x86_64 x86_64 GNU/Linux


Trovato containers/app.yml

==================== IMPOSTAZIONI YML ====================
DISCOURSE_HOSTNAME=forum.full30.com
SMTP_ADDRESS=smtp.sendgrid.net
DEVELOPER_EMAILS=REDACTED
SMTP_PASSWORD=REDACTED
SMTP_PORT=587
SMTP_USER_NAME=apikey
LETSENCRYPT_ACCOUNT_EMAIL=REDACTED LETSENCRYPT_ACCOUNT_EMAIL

==================== INFORMAZIONI DOCKER ====================
DOCKER VERSION: Docker version 24.0.7, build afdd53b

PROCESSI DOCKER (docker ps -a)

CONTAINER ID   IMAGE                 COMMAND        CREATED        STATUS                      PORTS     NAMES
0be0150fecde   local_discourse/app   \"/sbin/boot\"   5 mesi fa      Esclusa (5) 11 minuti fa             app

==================== GRAVE PROBLEMA!!!! ====================
app non in esecuzione!
Tentativo di ricostruzione
==================== LOG DI RICOSTRUZIONE ====================
Architettura x86_64 rilevata.
Avvio del launcher in corso
Recupero dell'origine
Il launcher è aggiornato
Arresto del vecchio container
+ /usr/bin/docker stop -t 600 app
app
2.0.20231023-1945: Pulling da discourse/base
Digest: sha256:2b0eb484d20888cc2daadb690dcfa73522105650c1420212e99345a36a424d77
Status: Immagine aggiornata per discourse/base:2.0.20231023-1945
docker.io/discourse/base:2.0.20231023-1945
/usr/local/lib/ruby/gems/3.2.0/gems/pups-1.2.1/lib/pups.rb
/usr/local/bin/pups --stdin
I, [2023-11-12T01:54:13.829288 #1]  INFO -- : Lettura da stdin
I, [2023-11-12T01:54:13.834181 #1]  INFO -- :
I, [2023-11-12T01:54:13.862453 #1]  INFO -- : Generazione delle localizzazioni (potrebbe richiedere un po' di tempo)...
Generazione completata.

I, [2023-11-12T01:54:13.862638 #1]  INFO -- :
I, [2023-11-12T01:54:13.865023 #1]  INFO -- :
I, [2023-11-12T01:54:13.865390 #1]  INFO -- :
I, [2023-11-12T01:54:13.867489 #1]  INFO -- :
I, [2023-11-12T01:54:13.867791 #1]  INFO -- :
I, [2023-11-12T01:54:13.869643 #1]  INFO -- :
I, [2023-11-12T01:54:13.869925 #1]  INFO -- :
/tmp/discourse-debug.txt
2 Mi Piace

Questo sembra significativo:

Warning: Could not create server TCP listening socket *:6379: bind: Address already in use

Penso che Redis debba essere in esecuzione sulla porta 6379.

Il mancato avvio del server Redis potrebbe causare problemi con le migrazioni?

Error: relation "summary_sections" already exists

Per qualche motivo, la migrazione per creare la tabella summary_sections viene eseguita di nuovo. Ci sono altri errori di tabella duplicata nei tuoi log?

Suppongo che l’altra domanda sia: hai un file di backup recente?

6 Mi Piace

lol, sì, indovinerei più o meno lo stesso, la risposta purtroppo è che guardando sul mio server vedo il 5 novembre come più recente, dato che non posso accedere all’amministratore non posso vedere se forse ce n’è uno più recente creato da Discourse

Ma… questa è la mattina,

forum

Se non riesco ad accedere al pannello di amministrazione per fare un backup, allora semplicemente non so cosa fare?

Grazie per la risposta, spero di poter ripartire presto anche con un backup vecchio di una settimana.

Robert

1 Mi Piace

Sono così inesperto con i log, lo faccio da cinque anni con così pochi e facilmente riparabili problemi che non c’era motivo di esserlo, e non ho un team tecnico da chiedere, è qualcosa che puoi guidarmi a ottenere e pubblicare e sarà redatto come il file del Dottore se lo carico?

Ho riscontrato anche un problema con questo ultimo aggiornamento per un nuovo sito, potrei aver interrotto accidentalmente l’installazione e poi il sito ha segnalato sia che era stato aggiornato sia che necessitava di un aggiornamento urgente, ma non poteva essere aggiornato perché aveva appena completato l’ultimo aggiornamento.

Ricostruire l’app dalla console ha risolto questo problema, non ho dovuto recuperare dal backup.

Sarebbe utile sapere come riavviare il sito dal backup, inoltre non so come farlo.

2 Mi Piace

solo per riprovare ho fatto

cd /var/discourse
git pull
./launcher rebuild app

e ho di nuovo ottenuto

errori/avvisi come segue

image

Doctor non ha aiutato di nuovo, ne ho conservato il report ma non c’era niente di nuovo.

1 Mi Piace

Sto facendo un’altra ricostruzione ora, ho riscontrato errori simili:

137:M 12 nov 2023 13:09:14.143 # Avviso: Impossibile creare il socket TCP del server *:6379: bind: Address already in use
137:M 12 nov 2023 13:09:14.143 # Impossibile ascoltare sulla porta 6379 (TCP), interruzione.

Tuttavia, continua, ricordo di averli visti prima ma l’installazione è comunque completata.

Sei connesso alla console del server con ssh come root?

Un paio di volte l’installazione richiede molto tempo per completarsi, sembrava più di 10 minuti, avevo pensato che si stesse bloccando all’inizio, ma dopo aver atteso abbastanza tempo si è completata.

Molti errori relativi a dipendenze peer errate/non soddisfatte.

Quindi si ferma dopo la riga “background saving terminated with success”, che sembra una conclusione ma apparentemente non lo è, è qui che possono volerci dieci minuti per passare alla fase successiva.

2 Mi Piace

Per visualizzare i dettagli del log, puoi fare qualcosa di simile:

accedi come root o esegui “sudo su
quindi esegui i comandi:

cd /var/discourse
./launcher enter app
tail -f log/production.log

Dopo aver eseguito l’ultimo comando, devi effettuare una richiesta HTTP al tuo Discourse. Un nuovo messaggio di errore verrà visualizzato nella tua shell. Quindi puoi interrompere l’esecuzione del comando tail usando Ctrl+C e visualizzare o copiare il messaggio.

Per uscire dalla shell del container, puoi usare il comando exit.

2 Mi Piace

Error response from daemon: Container 0be0150fecde6af5e98c0f12b97d24ccc1333fee2e96f02174ac63b79df8efbc is not running
tail: cannot open ‘log/production.log’ for reading: No such file or directory
tail: no files remaining

Ho provato la richiesta HTTP come curl “https://forum.full30.com"

e ho ottenuto

curl: (3) URL using bad/illegal format or missing URL

quindi… forse semplicemente non ho capito cosa intendevi per richiesta http :man_shrugging:

Con questo come tuo backup più recente, e non essendo un esperto in questo genere di cose, non sono sicuro di dover dare consigli qui.

Per quanto ne so, il problema con Warning: Could not create server TCP listening socket *:6379 è probabilmente non correlato agli errori che stai riscontrando per le migrazioni. Ad esempio:

INFO -- cd /var/www/discourse and su discourse -c 'bundle exec rake db:migrate'

ERROR: database "discourse" already exists

Error: role "discourse" already exists

Error: relation "summary_sections" already exists

Questi errori sembrano suggerire che il tuo database sia in qualche modo corrotto. Il comando bundle exec rake db:migrate (che si trova nella sezione INFO dello snippet dei tuoi log che ho postato sopra) dovrebbe attivare Discourse a controllare la tabella schema_migrations del database per vedere quali migrazioni sono state eseguite in precedenza. Ciò impedisce che la stessa migrazione venga eseguita più volte. Quindi la mia ipotesi è che o la tabella schema_migrations del tuo database sia corrotta, o che voci duplicate siano in qualche modo entrate nella cartella db/migrations, o che i file nella cartella db/migrations siano stati rinominati in qualche modo. Non sono sicuro di cosa possa causare una di queste cose.

Sarei tentato di entrare nell’app con ./launcher enter app ed eseguire manualmente la migrazione da lì per vedere se fa qualche differenza. Aspetta però a farlo. Speriamo che qualcuno con più conoscenza degli script del launcher veda questo post e corregga qualsiasi cosa io abbia scritto di sbagliato.

3 Mi Piace

Curioso sulla tua opinione, o su quella di chiunque altro

Stiamo pianificando un altro spostamento del server, sarebbe questo un buon momento dato che questi problemi sembrano essere centrati su

PG::DuplicateTable: ERROR: relation "summary_sections" already exists

ecc. elementi già esistenti?

Potrebbe aiutare uno spostamento?

Sospetto che questo risolverebbe il problema. Non potrebbe fare male provare a creare una nuova installazione e importare il tuo file di backup più recente.

2 Mi Piace

Il sito sembra già pensare che si tratti di una nuova installazione, nota alcuni dei miei screenshot

Ciò si è verificato semplicemente quando ho usato la modalità provvisoria, è un crash piuttosto sostanziale solo da un aggiornamento, e ancora più strano se solo la mia istanza di discourse è stata influenzata e si è bloccata
Ho fatto git pull ecc. nessuna differenza direi dalla costruzione di un nuovo, se sbaglio per favore dimmi come

provato

./launcher start-cmd app

./launcher cleanup

eliminato 18 MB di immagini, ho eseguito un nuovo pull/rebuild/fail/doctor e ancora niente

tutte le mie informazioni sono ancora presenti quando accedo alla mia APP, quindi almeno questo è positivo

Sono sicuro al 95% che gli errori di tabella duplicata siano in realtà sicuri da ignorare. (Ricordo di averli visti ad ogni aggiornamento sul nostro forum)

1 Mi Piace

Li ho ignorati ma non riesco ancora a tornare online.

cosa ne pensi di questi errori?

Potresti pubblicare un log completo da una ricompilazione?

1 Mi Piace

Ho avuto ieri lo stesso problema. Pensavo fosse un problema del server perché in aggiornamenti precedenti si era comportato in modo simile e ho deciso di eseguire per risolvere temporaneamente

/launcher rebuild app

Ho scaricato il backup più recente e distribuito un nuovo server. Il ripristino del backup è stato troppo facile e misteriosamente tutto è già aggiornato.

1 Mi Piace
FAILED
--------------------
Pups::ExecError: cd /var/www/discourse && su discourse -c 'bundle exec rake db:migrate' failed with return #<Process::Status: pid 645 exit 1>
Location of failure: /usr/local/lib/ruby/gems/3.2.0/gems/pups-1.2.1/lib/pups/exec_command.rb:132:in `spawn'
exec failed with the params {"cd"=>"$home", "hook"=>"db_migrate", "cmd"=>["su discourse -c 'bundle exec rake db:migrate'"]}
bootstrap failed with exit code 1
** FAILED TO BOOTSTRAP ** please scroll up and look for earlier error messages, there may be more than one.
./discourse-doctor may help diagnose the problem.
adb2c505fd2f1289f44586496fea24ff31264f73c26eb524baf16602a189f
root@ip-10-0-159-37:/var/discourse#

significa fare cosa esattamente?

Sì, cosa dovrei oscurare per prima?