Hari ini saya menerima pelajaran yang sangat menarik sekaligus mendidik dari QNAP tentang mengapa NAS bukanlah backup dan NAS itu sendiri perlu dibackup. Hal ini bisa saja terjadi pada Anda juga.
Baru-baru ini saya menyelesaikan proses RAID scrubbing pada volume saya. Saya belum pernah melakukannya sebelumnya. Karena ada masalah yang saya alami, saya mengirimkan dump log saya ke tiket. Teknisi kemudian memberi tahu saya bahwa ada sejumlah error pada file system ZFS yang tidak dapat diperbaiki dan saya perlu menginisialisasi ulang NAS saya dan memulai dari awal!
Ini bukan karena drive yang rusak (error ini muncul pada drive SSD saya dan HD RAID utama saya). Dia mengatakan bahwa hal ini bisa terjadi pada drive yang bagus, tetapi kadang-kadang data menjadi korup saat sedang ditulis dan tidak ada yang bisa dilakukan untuk mencegahnya. Dia menyarankan agar saya memastikan semua data sudah dibackup dari NAS dan menginisialisasi ulang serta memulai lagi dari awal! Saya benar-benar tidak percaya.
Jadi - peringatan lainnya - NAS itu sendiri bukanlah backup. Anda mungkin membackup PC Anda ke NAS, tetapi backup juga NAS Anda ke tempat lain! Masalah tidak selalu disebabkan oleh disk yang rusak.
Saya sangat menantikan untuk melakukan ini! Setidaknya, saya akan kembali ke h5.2 karena h5.3 sebenarnya belum selesai dan hanya diperlukan untuk aplikasi High Availability…
Inilah alasan saya selalu waspada terhadap Quts dan semua hal yang dilakukannya di latar belakang. Baru-baru ini saya sempat mempertimbangkan untuk beralih ke Quts, tetapi untuk saat ini saya akan tetap menggunakan Qts.
Benar, NAS tidak pernah menjadi cara pasti untuk melakukan backup. RAID juga bukan backup. Karena itu ada aturan 321. Ini mungkin kesalahpahaman nomor satu dalam memiliki NAS dan RAID. Keduanya memang membuat waktu pemulihan menjadi minimal, tetapi jika hanya mengandalkan itu saja, Anda tidak akan terlindungi dari kebakaran atau kegagalan perangkat keras.
Saya membeli TS-464C2 baru pada akhir 2024 dan perangkat itu menghancurkan seluruh storage pool saya dalam waktu 1 bulan. Saya beralih ke QuTS Hero dan segera menemukan beberapa error checksum di semua drive saya, sejak saat itu saya menyadari masalahnya ada pada NAS dan hasil memtest membuktikan dugaan saya.
Lebih parah lagi, saya mendapatkan perangkat baru pengganti dari vendor, dan perangkat itu juga mengalami masalah memori…
Saya memiliki backup harian di cloud jadi saya hanya kehilangan data beberapa jam, tetapi proses pemulihannya memakan waktu berhari-hari.
Bagi Anda yang menjalankan QuTS Hero, saya sarankan untuk secara rutin membuka sesi SSH dan menjalankan perintah berikut:
zpool status -v
Berikut tampilan hasilnya:
[Jono@NA9D-NAS ~]$ zpool status -v
pool: zpool1
state: ONLINE
status: Satu atau lebih perangkat mengalami kesalahan yang mengakibatkan
kerusakan data. Aplikasi mungkin terpengaruh.
action: Pulihkan file yang dimaksud jika memungkinkan. Jika tidak, pulihkan
seluruh pool dari backup.
see: http://illumos.org/msg/ZFS-8000-8A
scan: scrub memperbaiki 0 dalam 0 hari 00:15:53 dengan 2 kesalahan pada Minggu 19 Okt 00:15:58 2025
prune: terakhir memangkas 409 entri, 2392 entri sudah pernah dipangkas
total jumlah pemangkasan #5, rata-rata kecepatan pemangkasan = 2986468 (entri/detik)
expand: tidak ada yang diminta
renew: tidak ada yang diminta
config:
NAME STATE READ WRITE CKSUM
zpool1 ONLINE 0 0 2
mirror-0 ONLINE 0 0 4
qzfs/enc_0/disk_0x1_24074767F6C0_3 ONLINE 0 0 4
qzfs/enc_0/disk_0x2_24534D52401A_3 ONLINE 0 0 4
errors: Kesalahan permanen telah terdeteksi pada file berikut:
zpool1/$SHADOW:<0x1> (181:1:0:5046392)
zpool1/$SHADOW:<0x1> (181:1:0:5046393)
pool: zpool2
state: ONLINE
status: Satu atau lebih perangkat mengalami kesalahan yang mengakibatkan
kerusakan data. Aplikasi mungkin terpengaruh.
action: Pulihkan file yang dimaksud jika memungkinkan. Jika tidak, pulihkan
seluruh pool dari backup.
see: http://illumos.org/msg/ZFS-8000-8A
scan: scrub memperbaiki 0 dalam 5 hari 04:25:26 dengan 16 kesalahan pada Jumat 24 Okt 04:25:37 2025
prune: terakhir memangkas 2637224 entri, 15879437 entri sudah pernah dipangkas
total jumlah pemangkasan #5, rata-rata kecepatan pemangkasan = 3490183 (entri/detik)
expand: tidak ada yang diminta
renew: tidak ada yang diminta
config:
NAME STATE READ WRITE CKSUM
zpool2 ONLINE 0 0 364
raidz1-0 ONLINE 0 0 728
qzfs/enc_0/disk_0x3_5000CCA27EC5F5A5_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x4_5000CCA267CD00FE_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x5_5000CCA273F0B2D9_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x6_5000CCA27EC5A850_3 ONLINE 0 0 0
errors: Kesalahan permanen telah terdeteksi pada file berikut:
zpool2/$SHADOW:<0x1> (181:1:0:29628189)
zpool2/$SHADOW:<0x1> (181:1:0:764458)
zpool2/$SHADOW:<0x1> (181:1:0:12855854)
zpool2/$SHADOW:<0x1> (181:1:0:784706)
zpool2/$SHADOW:<0x1> (181:1:0:57489228)
zpool2/$SHADOW:<0x1> (181:1:0:57232981)
zpool2/$SHADOW:<0x1> (181:1:0:57499738)
zpool2/$SHADOW:<0x1> (181:1:0:5362782)
zpool2/$SHADOW:<0x1> (181:1:0:1036430)
zpool2/$SHADOW:<0x1> (181:1:0:5493137)
zpool2/$SHADOW:<0x1> (181:1:0:5355174)
zpool2/$SHADOW:<0x1> (181:1:0:57241256)
zpool2/$SHADOW:<0x1> (181:1:0:30161860)
zpool2/$SHADOW:<0x1> (181:1:0:5499856)
zpool2/$SHADOW:<0x1> (181:1:0:754404)
zpool2/$SHADOW:<0x1> (181:1:0:13872636)
Saya pernah mengalami error seperti itu sebelumnya, tapi itu sudah lama. Saya tidak ingat persis bagaimana cara memperbaikinya, mungkin dengan menghancurkan dan membuat ulang RAID. Saya merasa error itu muncul ketika UPS saya bermasalah dengan brown out singkat, di mana listrik turun selama satu atau dua detik. Setelah saya mengganti UPS dengan model yang lebih baik, saya tidak pernah mengalami masalah itu lagi, dan beberapa disk saya sudah berjalan selama 8 tahun, lol. Beberapa disk lainnya lebih baru, sekitar 2-3 tahun.
Jika Anda mengalami penurunan daya di mana UPS membutuhkan waktu satu detik untuk memberikan daya ke NAS, itu mungkin yang menyebabkan error tersebut.
Saya telah mendidik pelanggan saya tentang hal ini selama bertahun-tahun, karena saya pernah kehilangan data ketika array RAID di Netgear NAS saya rusak, lalu hal yang sama terjadi pada Synology NAS saya, tetapi untungnya, hal tersebut belum terjadi pada perangkat QNAP NAS saya. Namun, tidak ada yang boleh diremehkan, dan aturan backup 3-2-1 sangat penting, itulah sebabnya semua data dari NAS utama saya dicadangkan ke NAS sekunder.
Ngomong-ngomong, saya sudah mencoba kode Anda dan hasilnya baik.
hasil zpool1 dan zpool2 → errors: Tidak ada error data yang diketahui
@marcoi - Saya tidak mengalami fluktuasi listrik atau hal semacam itu. Siapa yang tahu. NAS hero saya yang lain baik-baik saja. Seperti yang dikatakan oleh Teknisi QNAP kepada saya, tidak diketahui bagaimana itu bisa terjadi. Mungkin saja ada sesuatu yang rusak saat sedang menulis.
oke, saya sudah memeriksa email lama saya dari tiket qnap. Ini terjadi pada tahun 2021 dan sepertinya mereka menemukan masalahnya dan memperbaikinya melalui firmware pada rentang waktu tahun 2022.
Berikut dari tiket
Setelah ditinjau, tim RD mengatakan bahwa error yang kami lihat menunjukkan adanya error pool permanen yang sayangnya tidak dapat diperbaiki, jadi satu-satunya solusi adalah membuat pool baru.
Jika Anda sudah memiliki data di tempat lain, maka Anda cukup menyalin data kembali ke pool baru dari set data asli tersebut. Jika tidak, Anda bisa menyalin data dari pool ini untuk dipindahkan, dan file yang sudah rusak akan dilewati oleh sistem.
Setelah Anda membuat pool baru, tim menyarankan agar Anda menjadwalkan Pool Scrubbing bulanan untuk mencegah masalah ini terjadi (daripada mencoba memperbaiki setelah kejadian).
Sekadar memberikan pembaruan singkat, tim tidak percaya ini adalah masalah hardware, tapi mereka belum sepenuhnya yakin apa penyebab masalahnya.
Ada semacam korupsi yang tidak diketahui terjadi di lapisan “SHADOW” dari sistem file, tapi mereka masih mencoba mencari tahu bagaimana korupsi ini bisa terjadi.
Sepertinya akan ada rilis firmware h5.0.0 baru, dijadwalkan pada 31/3, yang memiliki perbaikan untuk masalah korupsi pool.
Saya masih mencoba mendapatkan sedikit lebih banyak informasi dari mereka tentang hal ini, tapi setidaknya untuk saat ini sepertinya perbaikannya akan segera tersedia.
Maaf atas balasan yang terlambat, saya sedang mencoba mengklarifikasi beberapa informasi dengan tim.
Saya diberitahu bahwa akan ada pembaruan firmware h5.0.0 yang akan dirilis dalam beberapa hari ke depan, dan firmware ini seharusnya menghentikan pool di masa depan agar tidak rusak lagi.
Sepertinya tidak ada cara untuk memperbaiki data yang sudah rusak, jika ada, tapi akan ada versi h5.0.1 di masa depan yang memungkinkan membersihkan error di pool yang sudah ada agar bisa tetap berjalan dengan baik.
Silakan tunggu rilis yang akan datang, tapi jika ada pertanyaan, beri tahu saya.
jadi saya belum pernah mengalami error ini lagi sejak tahun 2022.
Bisa saja. Itu tergantung pada pemahaman Anda tentang istilah backup (cadangan). Jika Anda berpikir satu salinan data Anda atau satu perangkat yang menyimpan data Anda sudah cukup untuk keamanan backup, Murphy akan membuktikan sebaliknya. Prinsip 321 adalah standar minimum.