Я хотел увеличить Raid0 с 2 дисков до 3 (каждый EBS на 1 ТБ на Amazon AWS), но впоследствии размер не изменился. RAID начинался с двух дисков sdc и sdd, а новый был sdf.
Вот команда grow:
sudo mdadm --grow /dev/md0 --raid-devices=3 --add /dev/xvdf
через несколько часов mdstats показывал следующую информацию (используя cat /proc/mdstat
):
Personalities : [raid0] [raid6] [raid5] [raid4]
md0 : active raid0 xvdf[3] xvdd[1] xvdc[0]
3221223936 blocks super 1.2 512k chunks
так что я надеялся, что это сработало, но df -h
дал мне:
Filesystem Size Used Avail Use% Mounted on
/dev/md0 2.0T 1.6T 297G 85% /mnt/md0
и sudo mdadm --detail /dev/md0
показал:
/dev/md0:
Version : 1.2
Creation Time : Tue Jul 22 16:05:40 2014
Raid Level : raid0
Array Size : 3221223936 (3072.00 GiB 3298.53 GB)
Raid Devices : 3
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Sun Sep 7 01:37:39 2014
State : clean
Active Devices : 3
Working Devices : 3
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Number Major Minor RaidDevice State
0 202 32 0 active sync /dev/sdc
1 202 48 1 active sync /dev/sdd
3 202 80 2 active sync /dev/sdf
таким образом, RAID имеет 3 устройства и правильный размер (3072 ГБ), но df
этого не показывает. Странно, но новый диск (sdf) указан как номер 3, а номер 2 - нет.
Примечание. Я использовал "пустой" EBS без какого-либо форматирования - нужно ли форматировать новые диски RAID перед добавлением (уже отформатированного) RAID?
Что мне не хватает? Должен ли я (частично) отформатировать новый диск RAID (все еще есть данные на RAID, который мне нужен (но у меня есть резервная копия))? df
неправильно читает RAID или RAID еще не завершен?