Nach einem Discourse-Upgrade ist meine Ubuntu-Instanz tot

Da ich seit Jahren erfolgreich AWS EC2 Linux/Ubuntu-Instanzen nutze, habe ich heute ein Problem, das ich nicht lösen kann:

Ich habe ein Upgrade von Discourse über die URL /admin/upgrade durchgeführt. Dies schien erfolgreich abgeschlossen zu sein.

Leider ist die Maschine danach nicht mehr erreichbar.

Kein HTTP-Zugriff, kein SSH-Zugriff.

Ich habe bereits versucht, sie über die AWS EC2-Web-GUI ein- und auszuschalten. Ohne Erfolg.

Der SSH-Zugriff zur Maschine ist derzeit unmöglich, weder über Putty noch über das webbasierte AWS EC2-Instanz-Verbindungs-Terminalfenster.

Ich bin wirklich ratlos und habe bereits mehrere Stunden gewartet.

Die EC2-Überwachung zeigt mir auch keine hohe Serverlast:

Als dies in den letzten Wochen/Monaten passierte (insgesamt etwa 2-3 Mal), brachte ein Neustart der Maschine über die EC2-GUI die Maschine immer wieder zum Laufen, aber dieses Mal nicht.

Meine Frage

Hat jemand Hinweise, wie man die Maschine wieder per SSH erreichbar macht?

(Ich weiß, dass dies höchstwahrscheinlich kein Discourse-Problem ist, aber da es direkt nach einem Discourse-Upgrade aufgetreten ist, haben vielleicht andere Benutzer genau dieses Verhalten bereits erlebt und können mir Hinweise geben)

Vielleicht solltest du deine Festplattennutzung überprüfen.

Viele der von dir beschriebenen Symptome treten auf, wenn das Dateisystem voll ist.

HTH

Vielen Dank.

Obwohl dies vernünftig klingt, sehe ich derzeit keine Möglichkeit, dies zu überprüfen, da ich überhaupt keine Verbindung zum Rechner herstellen kann.

Sie sollten dies über Ihr EC2-Steuerungs- / Admin-Panel überprüfen können; ich bin jedoch kein AWS-Benutzer und kann daher nicht weiterhelfen.

Nach einem weiteren Neustart und etwas Wartezeit ist das System wieder da, völlig unerwartet.

Für mich sieht es so aus, als hätte die Festplatte genügend freien Speicherplatz.

Dateisystem       Größe  Verw  Verfüg. %  Eingehängt auf
udev              2,0G     0   2,0G    0%  /dev
tmpfs             394M  876K  393M    1%  /run
/dev/xvda1         97G   31G   67G   31%  /
tmpfs             2,0G     0   2,0G    0%  /dev/shm
tmpfs             5,0M     0   5,0M    0%  /run/lock
tmpfs             2,0G     0   2,0G    0%  /sys/fs/cgroup
/dev/loop1         18M   18M     0  100%  /snap/amazon-ssm-agent/1566
/dev/loop0         98M   98M     0  100%  /snap/core/10185
/dev/loop2         29M   29M     0  100%  /snap/amazon-ssm-agent/2012
/dev/loop3         98M   98M     0  100%  /snap/core/10126
overlay            97G   31G   67G   31%  /var/lib/docker/overlay2/5a799ab040002ad2ddec94ae85bcbe987543651a0d9478ddc12ab12715da7340/merged
tmpfs             394M     0  394M    0%  /run/user/1000

Großartige Nachrichten @uwe_keim

Auf geht’s und immer weiter nach oben!

Für alle Interessierten habe ich meine Frage hier weitergeführt:

Wahrscheinlich werden in den nächsten Stunden oder Tagen dort weitere Details folgen.