FSC830
10. Februar 2026 um 10:47
1
Hallo QNAP-Teammitglieder,
welcher Prozess ist zuständig, wenn ein RAID-Scrubbing läuft?
Wenn ich ps -ef im CLI ausführe, kann ich den Scrub-Prozess trotzdem nicht identifizieren.
Mein Ziel ist es, per Skript zu erkennen, ob das Scrubbing aktuell läuft oder nicht.
Viele Grüße
OneCD
10. Februar 2026 um 20:00
2
Hi Kumpel.
Das Scrubbing wird von mdraid verwaltet. Überprüfe /proc/mdstat, um den aktuell ausgeführten Vorgang zu sehen.
Sieht bei mir so aus (etwas langsam, da auch automatisches Tiering stattfindet)
md1 : active raid6 sdf3[10] sdc3[6] sdg3[8] sdh3[9] sde3[7] sdd3[11]
46835709952 Blöcke super 1.0 Level 6, 512k Chunk, Algorithmus 2 [6/6] [UUUUUU]
[>....................] Resync = 0,0% (2455548/11708927488) Fertig=2145,3min Geschwindigkeit=90946K/sec
Bitmap: 1/88 Seiten [4KB], 65536KB Chunk
OneCD
10. Februar 2026 um 20:40
4
@FSC830 , falls es hilft, sollte es einfacher sein, den Status des userdata-Arrays mit folgendem Befehl zu extrahieren:
mdadm --detail <array name>
Im resultierenden Bericht gibt es eine Zeile mit dem Namen State :
OneCD
10. Februar 2026 um 21:44
5
@dolbyman , kannst du das bitte bei deinem aktuellen Array-Vorgang überprüfen?
mdadm --detail /dev/md1
OneCD:
mdadm --detail /dev/md1
Die Ausgabe ist
mdadm --detail /dev/md1
/dev/md1:
Version : 1.0
Creation Time : Wed Oct 9 15:48:10 2019
Raid Level : raid6
Array Size : 46835709952 (44666.01 GiB 47959.77 GB)
Used Dev Size : 11708927488 (11166.50 GiB 11989.94 GB)
Raid Devices : 6
Total Devices : 6
Persistence : Superblock ist persistent
Intent Bitmap : Intern
Update Time : Tue Feb 10 13:48:05 2026
State : aktiv, Resynchronisierung läuft
Active Devices : 6
Working Devices : 6
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Resync Status : 5% abgeschlossen
Name : 1
UUID : 2287586a:dd935b28:8f1d0240:2c5627bf
Events : 3290468
Number Major Minor RaidDevice State
10 8 83 0 active sync /dev/sdf3
11 8 51 1 active sync /dev/sdd3
7 8 67 2 active sync /dev/sde3
9 8 115 3 active sync /dev/sdh3
8 8 99 4 active sync /dev/sdg3
6 8 35 5 active sync /dev/sdc3
OneCD
10. Februar 2026 um 21:50
7
Danke, Kumpel.
Ja, die Zeile nach „Update Time“ sollte nützlich sein.
NA9D
11. Februar 2026 um 01:14
8
Wenn Sie QuTS Hero verwenden, können Sie auch den Befehl zpool status -v nutzen
[jono@NA9D-NAS ~]$ zpool status -v
pool: zpool1
state: ONLINE
scan: scrub reparierte 0 in 0 Tagen 00:41:45 mit 0 Fehlern am So 1. Feb 2026 00:42:06
prune: zuletzt 309 Einträge bereinigt, insgesamt wurden 1091 Einträge jemals bereinigt
gesamte Bereinigungsanzahl #12, durchschnittliche Bereinigungsrate = 1308547 (Eintrag/Sek)
expand: keine angefordert
renew: keine angefordert
config:
NAME STATE READ WRITE CKSUM
zpool1 ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
qzfs/enc_0/disk_0x1_24074767F6C0_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x2_24534D52401A_3 ONLINE 0 0 0
errors: Keine bekannten Datenfehler
pool: zpool2
state: ONLINE
scan: scrub reparierte 0 in 8 Tagen 03:08:22 mit 0 Fehlern am Mo 9. Feb 2026 03:09:39
prune: zuletzt 3813445 Einträge bereinigt, insgesamt wurden 65250996 Einträge jemals bereinigt
gesamte Bereinigungsanzahl #11, durchschnittliche Bereinigungsrate = 3184734 (Eintrag/Sek)
expand: keine angefordert
renew: keine angefordert
config:
NAME STATE READ WRITE CKSUM
zpool2 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
qzfs/enc_0/disk_0x3_5000CCA27EC5F5A5_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x4_5000CCA267CD00FE_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x5_5000CCA273F0B2D9_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x6_5000CCA27EC5A850_3 ONLINE 0 0 0
errors: Keine bekannten Datenfehler
pool: zpool3
state: ONLINE
scan: scrub reparierte 0 in 0 Tagen 00:00:22 mit 0 Fehlern am So 1. Feb 2026 00:01:00
prune: zuletzt 11170 Einträge bereinigt, insgesamt wurden 225866 Einträge jemals bereinigt
gesamte Bereinigungsanzahl #12, durchschnittliche Bereinigungsrate = 3569426 (Eintrag/Sek)
expand: keine angefordert
renew: keine angefordert
config:
NAME STATE READ WRITE CKSUM
zpool3 ONLINE 0 0 0
qzfs/enc_0/disk_0xa_50014EE262CA01AF_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x7_50014EE20BE5CA36_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x8_50014EE2613A68E3_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x9_50014EE20BE5E07E_3 ONLINE 0 0 0
errors: Keine bekannten Datenfehler
FSC830
11. Februar 2026 um 08:19
9
Hi,
@OneCD @dolbyman Danke für den Tritt in den A….
Ich schätze, ich beschäftige mich schon zu lange mit QNAP. Beim Lesen eurer Antworten kam eine verborgene Erinnerung hoch, da ich mir dieses mdadm/mdstat-Output vor Jahren selbst mal angeschaut habe .
Typisches Beispiel dafür, wie FIFO funktioniert.
@NA9D Dir auch danke, aber ein Hero ist (noch) nicht im Einsatz.
Viele Grüße
ab365t
12. Februar 2026 um 03:48
10
Hallo,
ich habe festgestellt, dass der Prozess [mdX_resync] läuft, wenn ich das Scrubbing auf meinem QTS NAS durchführe.
[admin@abt882br nasadmin]# ps aux | grep resync
23541 admin DWN [md1_resync]
FSC830
13. Februar 2026 um 18:14
11
Ja, diesen Prozess gibt es auch auf meinem NAS. Ich habe den falschen String für grep verwendet: „rebuild“ oder „scrub“, aber nicht „resync“.
Jedenfalls liefert /proc/mdstat genau das, was ich brauche.
Ziel war es, ein Skript zu erstellen, das das geplante Herunterfahren verschiebt, wenn ein Scrub-Prozess aktiv ist.
Viele Grüße