Raid 5-Ausfall bei altem TS-809U

Raid 5-Ausfall alter TS-809U

Hallo zusammen.

Festplatte 2 war im Warnzustand.
Das alte QNAP hatte keine Festplattennummern an der Front und die Einschübe sind tatsächlich wie folgt angeordnet:
8-7-6-5
4-3-2-1

Wir haben versehentlich Festplatte 7 abgezogen, die funktionierte, anstatt Festplatte 2.
Als wir vor dem Hinzufügen einer neuen Festplatte im Speichermanager nachgesehen haben, bemerkten wir, dass Festplatte 7 abgezogen war, also haben wir sie wieder eingesteckt und kurz darauf die tatsächliche Festplatte 2 abgezogen.

Raid 5 ist nicht mehr aktiv.
Im Volumenmanagement werden alle Festplatten als gut angezeigt.

Wenn ich per SSH mit md_checker prüfe, erhalte ich Folgendes:

RAID-Metadaten gefunden!

Level: raid5

Geräte: 6

Name: md0

Chunk-Größe: 64K

md Version: 1.0

Erstellungszeit: 8. Aug 10:58:27 2016

Status: OFFLINE

===============================================================================

Festplatte | Gerät | # | Status | Letztes Update | Events | Array-Status

===============================================================================

1 /dev/sda3 0 Aktiv 6. Feb 17:51:53 2026 362103 U_uuu_

-------------- 1 Fehlend -------------------------------------------

3 /dev/sdc3 2 Aktiv 6. Feb 17:51:53 2026 362103 u_Uuu_

4 /dev/sdd3 3 Aktiv 6. Feb 17:51:53 2026 362103 u_uUu_

5 /dev/sde3 4 Aktiv 6. Feb 17:51:53 2026 362103 u_uuU_

-------------- 5 Fehlend -------------------------------------------

===============================================================================

Ich habe versucht, folgenden Befehl zu verwenden, da die funktionierende Festplatte /dev/sdf3 sein sollte

mdadm -AfR /dev/md0 /dev/sda3 /dev/sda3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3

Erhielt folgende Fehlermeldung:

mdadm: Gerät /dev/md0 bereits aktiv - kann nicht zusammengebaut werden

Wenn ich ausführe

mdadm --detail /dev/md0

erhalte ich Folgendes:

/dev/md0:

Version : 01.00.03

Erstellungszeit : Mo 8. Aug 10:58:27 2016

Raid-Level : raid5

Verwendete Gerätegröße : 3517490240 (3354.54 GiB 3601.91 GB)

Raid-Geräte : 6

Gesamtgeräte : 5

Bevorzugte Minor : 0

Persistenz : Superblock ist persistent

Update-Zeit : Fr 6. Feb 17:51:53 2026

Status : aktiv, degradiert, Nicht gestartet

Aktive Geräte : 4

Funktionierende Geräte : 5

Fehlgeschlagene Geräte : 0

Ersatzgeräte : 1

Layout : left-symmetric

Chunk-Größe : 64K

Name : 0

UUID : a090f234:f014e294:a326c8c3:a3c0de03

Events : 362103

Nummer Major Minor RaidDevice Status

0 8 3 0 active sync /dev/sda3

1 0 0 1 entfernt

8 8 35 2 active sync /dev/sdc3

6 8 51 3 active sync /dev/sdd3

4 8 67 4 active sync /dev/sde3

5 0 0 5 entfernt

5 8 83 - spare /dev/sdf3

Nummer 5 im Array war die gute Festplatte, die wieder eingesetzt wurde. Jetzt ist sie als Ersatz gelistet.
Gibt es eine Möglichkeit, sie wieder als Teil des Arrays einzubinden, da sie vorher funktionierte, oder ist es zu spät?

Danke

Ich empfehle Ihnen DRINGEND, ein Ticket beim QNAP-Support zu eröffnen, BEVOR Sie irgendwelche Befehle ausprobieren.

1 „Gefällt mir“

8-Laufwerk-RAID5 ist sowieso riskant… Hoffentlich hast du Backups.

Es handelt sich um ein TS-809UI mit Betriebssystem 4.2.6.
Das Gerät ist seit dem 31.12.2020 am Ende seines Lebenszyklus und erhält keinen technischen Support mehr.

Ich bin der Meinung, dass QNAP weiterhin Unterstützung bei Speicherproblemen bieten sollte.

Es handelt sich also um ein RAID 5 mit einer ausgefallenen Festplatte. Und Sie haben eine weitere Festplatte entfernt. Damit sind zwei Festplatten im RAID 5 ausgefallen, es ist normal, dass das System offline geht.

Ich empfehle, das NAS herunterzufahren und alle ursprünglichen, intakten Festplatten (außer Festplatte 2) wieder einzusetzen.
Wenn das RAID online und nur degradiert ist, setzen Sie eine neue Festplatte ein, um die ausgefallene zu ersetzen.
Wenn es im Nur-Lese-Modus ist, sichern Sie zuerst die Daten und wenden Sie sich an den Support.
Wenn es offline ist, wenden Sie sich am besten direkt an den QNAP-Support.

Festplatte 6 wurde wieder eingesetzt. Es ist die funktionierende Festplatte.
Festplatte 2 ist die defekte Festplatte. Sie wurde durch eine neue Festplatte ersetzt.
Das Qnap wurde neu gestartet.

Insgesamt befinden sich 6 Festplatten im Array.

Wenn ich per SSH mit md_checker prüfe, erhalte ich folgendes:

RAID-Metadaten gefunden!

Level: raid5

Geräte: 6

Name: md0

Chunk-Größe: 64K

md Version: 1.0

Erstellungszeit: 8. Aug 10:58:27 2016

Status: OFFLINE

===============================================================================

Festplatte | Gerät | # | Status | Letztes Update | Events | Array-Zustand

===============================================================================

1 /dev/sda3 0 Aktiv 6. Feb 17:51:53 2026 362103 U_uuu_

-------------- 1 fehlt -------------------------------------------

3 /dev/sdc3 2 Aktiv 6. Feb 17:51:53 2026 362103 u_Uuu_

4 /dev/sdd3 3 Aktiv 6. Feb 17:51:53 2026 362103 u_uUu_

5 /dev/sde3 4 Aktiv 6. Feb 17:51:53 2026 362103 u_uuU_

-------------- 5 fehlt -------------------------------------------

===============================================================================

Ich habe ein Support-Ticket eröffnet, hoffentlich können sie helfen.
Der Großteil der Daten wurde auf ein anderes NAS repliziert, daher ist es kein großes Problem, falls sie verloren gehen.

Ok, ich bin mir jedoch nicht sicher, ob du meine Antwort gelesen hast.
Wie auch immer, lass uns abwarten, bis der Support hilft.

Hier ist also die Situation…

Immer wenn Sie eine Festplatte aus einem RAID entfernen, muss das gesamte RAID neu aufgebaut werden, selbst wenn Sie sie nur für einen kurzen Moment entfernt haben.

Da bei Ihnen eine Festplatte ausgefallen ist und Sie dann eine zweite Festplatte entfernt haben, ist das RAID nun vollständig ausgefallen. Auch wenn diese Festplatte „gut“ ist – das spielt keine Rolle. Das RAID hätte wegen der defekten Festplatte neu aufgebaut werden müssen und nun wurde eine zweite Festplatte entfernt. Es kann nicht wiederhergestellt werden, da jetzt zwei Geräte entfernt wurden.

Laufwerk 2, Laufwerk 7, die neuesten Informationen waren Laufwerk 6, …?

Wie auch immer, 2 defekte Laufwerke in RAID 5 bedeuten normalerweise den Datenverlust.

Mit freundlichen Grüßen