Reinigungsprozess gesucht...

Hallo QNAP-Teammitglieder,

welcher Prozess ist zuständig, wenn ein RAID-Scrubbing läuft?

Wenn ich ps -ef im CLI ausführe, kann ich den Scrub-Prozess trotzdem nicht identifizieren.

Mein Ziel ist es, per Skript zu erkennen, ob das Scrubbing aktuell läuft oder nicht.

Viele Grüße

Hi Kumpel. :slight_smile:

Das Scrubbing wird von mdraid verwaltet. Überprüfe /proc/mdstat, um den aktuell ausgeführten Vorgang zu sehen.

Sieht bei mir so aus (etwas langsam, da auch automatisches Tiering stattfindet)

md1 : active raid6 sdf3[10] sdc3[6] sdg3[8] sdh3[9] sde3[7] sdd3[11]
      46835709952 Blöcke super 1.0 Level 6, 512k Chunk, Algorithmus 2 [6/6] [UUUUUU]
      [>....................]  Resync =  0,0% (2455548/11708927488) Fertig=2145,3min Geschwindigkeit=90946K/sec
      Bitmap: 1/88 Seiten [4KB], 65536KB Chunk

@FSC830, falls es hilft, sollte es einfacher sein, den Status des userdata-Arrays mit folgendem Befehl zu extrahieren:

mdadm --detail <array name>

Im resultierenden Bericht gibt es eine Zeile mit dem Namen State :

@dolbyman, kannst du das bitte bei deinem aktuellen Array-Vorgang überprüfen?

mdadm --detail /dev/md1

Die Ausgabe ist

mdadm --detail /dev/md1
/dev/md1:
        Version : 1.0
  Creation Time : Wed Oct  9 15:48:10 2019
     Raid Level : raid6
     Array Size : 46835709952 (44666.01 GiB 47959.77 GB)
  Used Dev Size : 11708927488 (11166.50 GiB 11989.94 GB)
   Raid Devices : 6
  Total Devices : 6
    Persistence : Superblock ist persistent

  Intent Bitmap : Intern

    Update Time : Tue Feb 10 13:48:05 2026
          State : aktiv, Resynchronisierung läuft
 Active Devices : 6
Working Devices : 6
 Failed Devices : 0
  Spare Devices : 0

         Layout : left-symmetric
     Chunk Size : 512K

  Resync Status : 5% abgeschlossen

           Name : 1
           UUID : 2287586a:dd935b28:8f1d0240:2c5627bf
         Events : 3290468

    Number   Major   Minor   RaidDevice State
      10       8       83        0      active sync   /dev/sdf3
      11       8       51        1      active sync   /dev/sdd3
       7       8       67        2      active sync   /dev/sde3
       9       8      115        3      active sync   /dev/sdh3
       8       8       99        4      active sync   /dev/sdg3
       6       8       35        5      active sync   /dev/sdc3

Danke, Kumpel. :+1:

Ja, die Zeile nach „Update Time“ sollte nützlich sein. :nerd_face:

Wenn Sie QuTS Hero verwenden, können Sie auch den Befehl zpool status -v nutzen

[jono@NA9D-NAS ~]$ zpool status -v
  pool: zpool1
 state: ONLINE
  scan: scrub reparierte 0 in 0 Tagen 00:41:45 mit 0 Fehlern am So 1. Feb 2026 00:42:06
 prune: zuletzt 309 Einträge bereinigt, insgesamt wurden 1091 Einträge jemals bereinigt
        gesamte Bereinigungsanzahl #12, durchschnittliche Bereinigungsrate = 1308547 (Eintrag/Sek)
expand: keine angefordert
 renew: keine angefordert
config:

	NAME                                    STATE     READ WRITE CKSUM
	zpool1                                  ONLINE       0     0     0
	  mirror-0                              ONLINE       0     0     0
	    qzfs/enc_0/disk_0x1_24074767F6C0_3  ONLINE       0     0     0
	    qzfs/enc_0/disk_0x2_24534D52401A_3  ONLINE       0     0     0

errors: Keine bekannten Datenfehler

  pool: zpool2
 state: ONLINE
  scan: scrub reparierte 0 in 8 Tagen 03:08:22 mit 0 Fehlern am Mo 9. Feb 2026 03:09:39
 prune: zuletzt 3813445 Einträge bereinigt, insgesamt wurden 65250996 Einträge jemals bereinigt
        gesamte Bereinigungsanzahl #11, durchschnittliche Bereinigungsrate = 3184734 (Eintrag/Sek)
expand: keine angefordert
 renew: keine angefordert
config:

	NAME                                        STATE     READ WRITE CKSUM
	zpool2                                      ONLINE       0     0     0
	  raidz1-0                                  ONLINE       0     0     0
	    qzfs/enc_0/disk_0x3_5000CCA27EC5F5A5_3  ONLINE       0     0     0
	    qzfs/enc_0/disk_0x4_5000CCA267CD00FE_3  ONLINE       0     0     0
	    qzfs/enc_0/disk_0x5_5000CCA273F0B2D9_3  ONLINE       0     0     0
	    qzfs/enc_0/disk_0x6_5000CCA27EC5A850_3  ONLINE       0     0     0

errors: Keine bekannten Datenfehler

  pool: zpool3
 state: ONLINE
  scan: scrub reparierte 0 in 0 Tagen 00:00:22 mit 0 Fehlern am So 1. Feb 2026 00:01:00
 prune: zuletzt 11170 Einträge bereinigt, insgesamt wurden 225866 Einträge jemals bereinigt
        gesamte Bereinigungsanzahl #12, durchschnittliche Bereinigungsrate = 3569426 (Eintrag/Sek)
expand: keine angefordert
 renew: keine angefordert
config:

	NAME                                      STATE     READ WRITE CKSUM
	zpool3                                    ONLINE       0     0     0
	  qzfs/enc_0/disk_0xa_50014EE262CA01AF_3  ONLINE       0     0     0
	  qzfs/enc_0/disk_0x7_50014EE20BE5CA36_3  ONLINE       0     0     0
	  qzfs/enc_0/disk_0x8_50014EE2613A68E3_3  ONLINE       0     0     0
	  qzfs/enc_0/disk_0x9_50014EE20BE5E07E_3  ONLINE       0     0     0

errors: Keine bekannten Datenfehler

Hi,

@OneCD @dolbyman Danke für den Tritt in den A…. :upside_down_face:

Ich schätze, ich beschäftige mich schon zu lange mit QNAP. Beim Lesen eurer Antworten kam eine verborgene Erinnerung hoch, da ich mir dieses mdadm/mdstat-Output vor Jahren selbst mal angeschaut habe :grin: .

Typisches Beispiel dafür, wie FIFO funktioniert. :laughing:

@NA9D Dir auch danke, aber ein Hero ist (noch) nicht im Einsatz.

Viele Grüße

Hallo,

ich habe festgestellt, dass der Prozess [mdX_resync] läuft, wenn ich das Scrubbing auf meinem QTS NAS durchführe.
[admin@abt882br nasadmin]# ps aux | grep resync
23541 admin DWN [md1_resync]

Ja, diesen Prozess gibt es auch auf meinem NAS. Ich habe den falschen String für grep verwendet: „rebuild“ oder „scrub“, aber nicht „resync“.

Jedenfalls liefert /proc/mdstat genau das, was ich brauche.

Ziel war es, ein Skript zu erstellen, das das geplante Herunterfahren verschiebt, wenn ein Scrub-Prozess aktiv ist.

Viele Grüße