Raid 5 故障於舊款 TS-809U

Raid 5 故障於舊 TS-809U

大家好。

硬碟 2 處於警告狀態。
舊款 QNAP 機型正面沒有標示硬碟編號,實際硬碟槽排列如下:
8-7-6-5
4-3-2-1

我們不小心拔錯了 7 號硬碟(原本運作正常),而不是 2 號硬碟。
在新增硬碟前檢查儲存管理員時,發現 7 號硬碟被拔除,所以又將其插回,隨後才拔除了真正的 2 號硬碟。

Raid 5 不再啟用。
在 Volume management(磁碟區管理)中,我可以看到所有硬碟狀態為良好。

透過 ssh 使用 md_checker 檢查時,得到以下結果

RAID metadata found!

Level: raid5

Devices: 6

Name: md0

Chunk Size: 64K

md Version: 1.0

Creation Time: Aug 8 10:58:27 2016

Status: OFFLINE

===============================================================================

Disk | Device | # | Status | Last Update Time | Events | Array State

===============================================================================

1 /dev/sda3 0 Active Feb 6 17:51:53 2026 362103 U_uuu_

-------------- 1 Missing -------------------------------------------

3 /dev/sdc3 2 Active Feb 6 17:51:53 2026 362103 u_Uuu_

4 /dev/sdd3 3 Active Feb 6 17:51:53 2026 362103 u_uUu_

5 /dev/sde3 4 Active Feb 6 17:51:53 2026 362103 u_uuU_

-------------- 5 Missing -------------------------------------------

===============================================================================

我嘗試使用以下指令,因為運作中的硬碟應該是 /dev/sdf3

mdadm -AfR /dev/md0 /dev/sda3 /dev/sda3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3

出現以下錯誤訊息。

mdadm: device /dev/md0 already active - cannot assemble it

當我執行

mdadm --detail /dev/md0

得到以下結果

/dev/md0:

Version : 01.00.03

Creation Time : Mon Aug 8 10:58:27 2016

Raid Level : raid5

Used Dev Size : 3517490240 (3354.54 GiB 3601.91 GB)

Raid Devices : 6

Total Devices : 5

Preferred Minor : 0

Persistence : Superblock is persistent

Update Time : Fri Feb 6 17:51:53 2026

State : active, degraded, Not Started

Active Devices : 4

Working Devices : 5

Failed Devices : 0

Spare Devices : 1

Layout : left-symmetric

Chunk Size : 64K

Name : 0

UUID : a090f234:f014e294:a326c8c3:a3c0de03

Events : 362103

Number Major Minor RaidDevice State

0 8 3 0 active sync /dev/sda3

1 0 0 1 removed

8 8 35 2 active sync /dev/sdc3

6 8 51 3 active sync /dev/sdd3

4 8 67 4 active sync /dev/sde3

5 0 0 5 removed

5 8 83 - spare /dev/sdf3

陣列中的 5 號硬碟原本是正常的,現在已重新插入,但現在被列為備援(spare)。
請問有辦法將它重新掛載為陣列的一部分嗎?因為它之前是正常運作的,還是已經太遲了?

謝謝

強烈建議您在嘗試任何指令之前,先向 QNAP 支援開立服務單。

1個讚

8顆硬碟的RAID5本來就有風險……希望你有備份。

這是一台 TS-809UI,運行作業系統 4.2.6。
自 2020 年 12 月 31 日起已經停止支援,且不再獲得技術支援。

我認為 QNAP 仍然應該提供儲存相關問題的支援

所以這是一個有一顆硬碟故障的 RAID 5,然後你又移除了另一顆硬碟。這樣 RAID 5 就等於有兩顆硬碟故障,出現離線是正常的。

建議關閉 NAS,重新插回所有原本健康的硬碟(除了第 2 顆硬碟)。

如果 RAID 線上且只是降級(degraded),請插入一顆新硬碟來替換故障的那顆。

如果是唯讀(read-only),請先備份資料,然後聯繫客服。

如果是離線(offline),建議直接聯繫 QNAP 客服。

磁碟6已重新插入。這是運作中的磁碟。
磁碟2是損壞的磁碟,已更換為新磁碟。
Qnap 已重新啟動。

陣列中總共有6顆磁碟。

當我通過 ssh 使用 md_checker 檢查時,得到以下結果

找到 RAID 中繼資料!

等級:raid5

裝置數:6

名稱:md0

區塊大小:64K

md 版本:1.0

建立時間:2016年8月8日 10:58:27

狀態:OFFLINE(離線)

===============================================================================

磁碟 | 裝置 | # | 狀態 | 最後更新時間 | 事件 | 陣列狀態

===============================================================================

1 /dev/sda3 0 Active 2026年2月6日 17:51:53 362103 U_uuu_

-------------- 1 缺失 -------------------------------------------

3 /dev/sdc3 2 Active 2026年2月6日 17:51:53 362103 u_Uuu_

4 /dev/sdd3 3 Active 2026年2月6日 17:51:53 362103 u_uUu_

5 /dev/sde3 4 Active 2026年2月6日 17:51:53 362103 u_uuU_

-------------- 5 缺失 -------------------------------------------

===============================================================================

我已經開了一張支援單,希望他們能幫忙。
我已經將大部分資料複製到另一台 NAS(網路儲存伺服器),所以即使資料遺失也不是太大的問題。

好吧,我不確定你是否已經讀過我的回覆。
無論如何,我們還是等客服來協助吧。

情況是這樣的……

每當你從 RAID 中移除一顆硬碟,即使只是一瞬間,整個 RAID 都需要重新重建。

由於你有一顆硬碟故障,然後又移除了第二顆硬碟,現在這個 RAID 已經完全失效了。即使那顆硬碟是「好的」——這也沒有用。RAID 需要因為壞掉的硬碟而重建,現在又移除了第二顆硬碟。由於現在已經有兩個裝置被移除,它無法進行重建。

Drive 2、Drive 7,最新資訊是 Drive 6,……?

無論如何,RAID 5 中有兩顆硬碟損壞通常代表資料已經無法救回。

敬上