Raid 5 gagal pada TS-809U lama

Raid 5 Gagal pada TS-809U Lama

Hai Semua.

Hard drive 2 dalam status peringatan.
QNAP lama tidak memiliki nomor drive yang tertera di bagian depan dan urutan bay-nya adalah sebagai berikut.
8-7-6-5
4-3-2-1

Kami secara tidak sengaja mencabut drive 7 yang masih berfungsi, bukannya drive 2.
Saat kami memeriksa storage manager sebelum menambahkan drive baru, kami menyadari bahwa drive 7 yang terlepas, jadi kami pasang kembali dan tak lama kemudian mencabut drive 2 yang sebenarnya bermasalah.

Raid 5 sudah tidak aktif lagi.
Di manajemen volume saya bisa melihat semua drive dalam kondisi baik.

Saat saya cek via ssh menggunakan md_checker, saya mendapatkan hasil berikut

RAID metadata ditemukan!

Level: raid5

Devices: 6

Nama: md0

Chunk Size: 64K

md Version: 1.0

Waktu Pembuatan: 8 Agustus 10:58:27 2016

Status: OFFLINE

===============================================================================

Disk | Device | # | Status | Last Update Time | Events | Array State

===============================================================================

1 /dev/sda3 0 Aktif 6 Feb 17:51:53 2026 362103 U_uuu_

-------------- 1 Hilang -------------------------------------------

3 /dev/sdc3 2 Aktif 6 Feb 17:51:53 2026 362103 u_Uuu_

4 /dev/sdd3 3 Aktif 6 Feb 17:51:53 2026 362103 u_uUu_

5 /dev/sde3 4 Aktif 6 Feb 17:51:53 2026 362103 u_uuU_

-------------- 5 Hilang -------------------------------------------

===============================================================================

Saya mencoba menggunakan perintah berikut karena drive yang berfungsi seharusnya /dev/sdf3

mdadm -AfR /dev/md0 /dev/sda3 /dev/sda3 /dev/sdc3 /dev/sdd3 /dev/sde3 /dev/sdf3

Mendapatkan error berikut.

mdadm: device /dev/md0 sudah aktif - tidak dapat merakitnya

Saat saya menjalankan

mdadm --detail /dev/md0

Saya mendapatkan hasil berikut

/dev/md0:

Version : 01.00.03

Waktu Pembuatan : Senin 8 Agustus 10:58:27 2016

Raid Level : raid5

Used Dev Size : 3517490240 (3354.54 GiB 3601.91 GB)

Raid Devices : 6

Total Devices : 5

Preferred Minor : 0

Persistence : Superblock is persistent

Update Time : Jumat 6 Feb 17:51:53 2026

State : active, degraded, Not Started

Active Devices : 4

Working Devices : 5

Failed Devices : 0

Spare Devices : 1

Layout : left-symmetric

Chunk Size : 64K

Name : 0

UUID : a090f234:f014e294:a326c8c3:a3c0de03

Events : 362103

Number Major Minor RaidDevice State

0 8 3 0 active sync /dev/sda3

1 0 0 1 removed

8 8 35 2 active sync /dev/sdc3

6 8 51 3 active sync /dev/sdd3

4 8 67 4 active sync /dev/sde3

5 0 0 5 removed

5 8 83 - spare /dev/sdf3

Nomor 5 dalam array adalah drive yang bagus yang telah dipasang kembali. Sekarang terdaftar sebagai spare.
Apakah ada cara untuk memasangnya kembali sebagai bagian dari array seperti sebelumnya atau sudah terlambat?

Terima kasih

Sangat disarankan untuk membuka tiket dengan dukungan QNAP SEBELUM mencoba menjalankan perintah apa pun.

1 Suka

RAID5 dengan 8 drive memang agak berisiko… semoga kamu punya backup.

Ini adalah TS-809UI yang menjalankan OS 4.2.6.
Perangkat ini sudah mencapai akhir masa pakai sejak 31/12/2020 dan tidak lagi menerima dukungan teknis.

Saya percaya QNAP seharusnya tetap memberikan dukungan untuk masalah penyimpanan

Jadi ini adalah RAID 5 dengan satu disk yang gagal. Dan Anda melepas disk lainnya. Jadi Anda mengalami kegagalan 2 disk di RAID 5, wajar jika menjadi offline.

Disarankan untuk mematikan NAS, pasang kembali semua drive asli yang masih sehat (kecuali disk 2).
Jika RAID online dan hanya degraded, pasang drive baru untuk menggantikan yang gagal.
Jika dalam mode read-only, backup data terlebih dahulu, lalu hubungi dukungan.
Jika offline, disarankan untuk langsung menghubungi dukungan QNAP.

Disk 6 telah dimasukkan kembali. Itu adalah disk yang berfungsi.
Disk 2 adalah disk yang rusak. Sudah diganti dengan disk baru.
Qnap telah di-reboot.

Ada total 6 disk dalam array.

Ketika saya cek melalui ssh menggunakan md_checker, saya mendapatkan hasil berikut

RAID metadata ditemukan!

Level: raid5

Devices: 6

Name: md0

Chunk Size: 64K

md Version: 1.0

Creation Time: 8 Agustus 2016 10:58:27

Status: OFFLINE

===============================================================================

Disk | Device | # | Status | Last Update Time | Events | Array State

===============================================================================

1 /dev/sda3 0 Aktif 6 Feb 2026 17:51:53 362103 U_uuu_

-------------- 1 Hilang -------------------------------------------

3 /dev/sdc3 2 Aktif 6 Feb 2026 17:51:53 362103 u_Uuu_

4 /dev/sdd3 3 Aktif 6 Feb 2026 17:51:53 362103 u_uUu_

5 /dev/sde3 4 Aktif 6 Feb 2026 17:51:53 362103 u_uuU_

-------------- 5 Hilang -------------------------------------------

===============================================================================

Saya sudah membuka tiket dukungan jadi semoga mereka bisa membantu.
Sebagian besar data sudah direplikasi ke nas lain jadi tidak masalah besar jika data tersebut hilang.

Oke, saya tidak yakin kamu sudah membaca balasan saya tadi.
Bagaimanapun, mari kita tunggu bantuan dari dukungan.

Jadi, inilah situasinya…

Setiap kali Anda melepas sebuah disk dari RAID, seluruh RAID perlu dibangun ulang bahkan jika Anda hanya melepasnya dalam waktu sangat singkat.

Karena Anda mengalami kegagalan pada satu drive dan kemudian melepas drive kedua, RAID sekarang benar-benar gagal. Meskipun drive itu “baik” - itu tidak berpengaruh. RAID perlu dibangun ulang karena drive yang rusak dan sekarang, drive kedua telah dilepas. RAID tidak dapat dibangun ulang karena dua perangkat telah dilepas.

Drive 2, drive 7, info terbaru adalah drive 6, …?

Bagaimanapun, 2 drive rusak dalam RAID 5 biasanya berarti data hilang total.

Salam