7

Могу ли я использовать /dev/sda и /dev/sdb для моей конфигурации RADI1?

Или мне сначала нужно разбить оба раздела на один Linux raid?

3 ответа3

9

Да, вы можете сделать это, но это может вызвать раздражающий побочный эффект.

У меня есть система рядом со мной, где я использовал все устройство в качестве членов md RAID. Каждый раз, когда он загружается, он жалуется на сломанные разделы на этих устройствах.

Это связано с тем, что данные будут записываться в самое начало диска, пока он является частью группы RAID. Затем система будет пытаться интерпретировать эти данные как таблицу разделов при загрузке при проверке устройств.

Пока что это не доставило мне проблем. Это просто задерживает процедуру загрузки и выглядит действительно пугающе.


Я просто поднял журналы, чтобы показать, о чем я говорил. Это то, что запускается через мою консоль, когда я загружаю сервер.

Обратите внимание, что все устройства /dev/sda /dev/sdd и /dev/sdf /dev/sdj являются частью RAID-массива. /dev/sde содержит корневой раздел системы.

Nov 24 11:41:52 dump kernel: [   49.717165] sd 0:0:0:0: [sda] 2930277168 512-byte hardware sectors (1500302 MB)
Nov 24 11:41:52 dump kernel: [   49.717172] sd 0:0:0:0: [sda] Write Protect is off
Nov 24 11:41:52 dump kernel: [   49.717173] sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
Nov 24 11:41:52 dump kernel: [   49.717182] sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Nov 24 11:41:52 dump kernel: [   49.717209] sd 0:0:0:0: [sda] 2930277168 512-byte hardware sectors (1500302 MB)
Nov 24 11:41:52 dump kernel: [   49.717213] sd 0:0:0:0: [sda] Write Protect is off
Nov 24 11:41:52 dump kernel: [   49.717214] sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
Nov 24 11:41:52 dump kernel: [   49.717221] sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Nov 24 11:41:52 dump kernel: [   49.717222]  sda: unknown partition table
Nov 24 11:41:52 dump kernel: [   49.724463] sd 0:0:0:0: [sda] Attached SCSI disk
Nov 24 11:41:52 dump kernel: [   49.724504] sd 1:0:0:0: [sdb] 2930277168 512-byte hardware sectors (1500302 MB)
Nov 24 11:41:52 dump kernel: [   49.724510] sd 1:0:0:0: [sdb] Write Protect is off
Nov 24 11:41:52 dump kernel: [   49.724512] sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
Nov 24 11:41:52 dump kernel: [   49.724519] sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Nov 24 11:41:52 dump kernel: [   49.724547] sd 1:0:0:0: [sdb] 2930277168 512-byte hardware sectors (1500302 MB)
Nov 24 11:41:52 dump kernel: [   49.724551] sd 1:0:0:0: [sdb] Write Protect is off
Nov 24 11:41:52 dump kernel: [   49.724552] sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
Nov 24 11:41:52 dump kernel: [   49.724559] sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Nov 24 11:41:52 dump kernel: [   49.724561]  sdb:Driver 'sr' needs updating - please use bus_type methods
Nov 24 11:41:52 dump kernel: [   49.734320]  unknown partition table

Это только первые два диска в массиве RAID. Вы уже можете видеть там неизвестные ошибки unknown partition table . Та же ошибка будет напечатана для всех членов RAID.

Как только это будет сделано. Это начинается:

Nov 24 11:41:52 dump kernel: [   50.145507] attempt to access beyond end of device
Nov 24 11:41:52 dump kernel: [   50.145513] sdc: rw=0, want=7018997372, limit=2930277168
Nov 24 11:41:52 dump kernel: [   50.145515] Buffer I/O error on device sdc3, logical block 4250167552
Nov 24 11:41:52 dump kernel: [   50.145626] attempt to access beyond end of device
Nov 24 11:41:52 dump kernel: [   50.145627] sdc: rw=0, want=7018997373, limit=2930277168
Nov 24 11:41:52 dump kernel: [   50.145628] Buffer I/O error on device sdc3, logical block 4250167553

Вы видите, что он жалуется на sdc3 который на самом деле не существует (потому что все устройство sdc используется в качестве члена RAID.

В следующий раз, когда я загружаю машину, это может быть другой диск, на который он жалуется, или его нет вообще. В зависимости от того, какие данные существуют вместо таблицы разделов на устройствах при следующей загрузке.

И худшая часть об этом? Сейчас я не могу перейти к разделам, потому что мне пришлось бы сжимать каждый диск-член RAID на небольшое количество (чтобы я мог разделить), и для этого потребовалось бы воссоздание всего массива RAID.

5

Да, если вы используете md для RAID, вы можете использовать все блочное устройство, не разбивая его. Смотрите man-страницу mdadm для деталей.

1

Да, но я бы порекомендовал вам вместо этого разметить диск и оставить немного свободного места в конце.

Если вы, например, замените диск объемом 2 ТБ на другой диск объемом 2 ТБ, он может не совпадать по размеру с другим. Поэтому, если диск, которым вы заменяете, меньше исходного диска, вы не сможете добавить его в рейд.

Зарезервировав некоторое свободное пространство, легко создать соответствующий раздел, потому что вы просто делаете свободное пространство меньше или больше (и вы всегда можете назначить "потерянное" пространство для подкачки).

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .