Я пробовал btrfs и заметил какое-то забавное поведение:
У меня есть два диска в конфигурации raid 1.
sudo btrfs fi show
Label: none uuid: 52b9c6f6-ce5c-4727-861e-e2fd012e475f
Total devices 2 FS bytes used 251.16GiB
devid 1 size 298.09GiB used 252.01GiB path /dev/sdi
devid 2 size 298.09GiB used 252.01GiB path /dev/sdh
Как вы можете видеть, они настроены как mdata=raid1, data=raid1
:
sudo btrfs fi df /btr/.fsroot/
Data, RAID1: total=251.00GiB, used=250.57GiB
System, RAID1: total=8.00MiB, used=64.00KiB
Metadata, RAID1: total=1.00GiB, used=597.47Mi
Теперь, если мне не удается /dev/sdh
(например, вытащить кабель sata), все работает как положено,
sudo btrfs fi show
Label: none uuid: 52b9c6f6-ce5c-4727-861e-e2fd012e475f
Total devices 2 FS bytes used 251.16GiB
devid 1 size 298.09GiB used 252.01GiB path /dev/sdi
*** Some devices missing
файловая система даже не подключена. Но что меня беспокоит, так это то, что происходит, если я терплю неудачу /dev/sdi
:
Label: none uuid: 52b9c6f6-ce5c-4727-861e-e2fd012e475f
Total devices 2 FS bytes used 251.16GiB
devid 1 size 298.09GiB used 252.01GiB path /dev/sdi
devid 2 size 298.09GiB used 252.01GiB path /dev/sdh
Так что в основном неисправный диск вообще не обнаруживается. Это даже нельзя исправить запуском btrfs device scan
. Итак, как я могу обнаружить в производственной среде, что моего рейда больше нет?