У меня сбой программного RAID5 (3x500GB дисков), который я пытаюсь восстановить. Я не хочу пробовать некоторые из более рискованных шагов на реальных дисках, поэтому я хочу клонировать их в новые разделы на новом диске объемом 3 ТБ. Я создал 3 500GB раздела с помощью gparted, затем использовал:

dd if=/dev/sdc1 of=/dev/sdb1
dd if=/dev/sdd1 of=/dev/sdb2
dd if=/dev/sde1 of=/dev/sdb3

клонировать каждый раздел MD в них. Но mdadm не может видеть суперблок на новых клонированных разделах. Как мне их клонировать, чтобы я мог использовать их в mdadm для восстановления моих данных?

Если я пытаюсь активировать массив, в настоящее время я получаю следующее в /proc /mdstat:

Personalities :
md0 : inactive sdc1[0](S) sde1[2](S) sdd1[1](S)
      1465151808 blocks

unused devices: <none>

Больше информации от fdisk (поскольку я создал их с помощью gparted, я сделал целевые разделы немного больше, чтобы быть безопасными):

Disk /dev/sdc1: 500.1 GB, 500105217024 bytes
Disk /dev/sdd1: 500.1 GB, 500105217024 bytes
Disk /dev/sde1: 500.1 GB, 500105217024 bytes
Disk /dev/sdb1: 500.2 GB, 500170752000 bytes
Disk /dev/sdb2: 500.2 GB, 500170752000 bytes
Disk /dev/sdb3: 500.2 GB, 500170752000 bytes

И, наконец, mdadm --examine для каждого раздела:

$ sudo mdadm --examine /dev/sdb{1,2,3}
mdadm: No md superblock detected on /dev/sdb1.
mdadm: No md superblock detected on /dev/sdb2.
mdadm: No md superblock detected on /dev/sdb3.
$ sudo mdadm --examine /dev/sd{c,d,e}1
/dev/sdc1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f8d0c619:9f54ad08:bd0b98c0:101144a1
  Creation Time : Sun Jul 18 01:56:33 2010
     Raid Level : raid5
  Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 976767872 (931.52 GiB 1000.21 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sat Sep 27 13:59:35 2014
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : cbf4174b - correct
         Events : 5983

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8       17        0      active sync   /dev/sdb1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       0        0        1      faulty removed
   2     2       0        0        2      faulty removed
/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f8d0c619:9f54ad08:bd0b98c0:101144a1
  Creation Time : Sun Jul 18 01:56:33 2010
     Raid Level : raid5
  Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 976767872 (931.52 GiB 1000.21 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sat Sep 27 08:00:42 2014
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0
       Checksum : cbf3c2d6 - correct
         Events : 5940

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       33        1      active sync   /dev/sdc1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1
/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f8d0c619:9f54ad08:bd0b98c0:101144a1
  Creation Time : Sun Jul 18 01:56:33 2010
     Raid Level : raid5
  Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
     Array Size : 976767872 (931.52 GiB 1000.21 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0

    Update Time : Sat Sep 27 08:00:42 2014
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0
       Checksum : cbf3c2e8 - correct
         Events : 5940

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       49        2      active sync   /dev/sdd1

   0     0       8       17        0      active sync   /dev/sdb1
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1

1 ответ1

1

Ах, вы используете метаданные 0,90. Он хранится с заданным смещением от конца устройства, поэтому, если вы скопировали данные на устройство большего размера, mdadm не сможет найти метаданные (так как он находится не в том конце, где ожидается).

Я рекомендую изменить размер новых разделов, чтобы они соответствовали размеру оригиналов, и метаданные должны быть найдены (нет необходимости копировать данные, если вы не перемещаете начало раздела).

Дополнительное примечание: добавление опции bs = 1024k к dd делает все это намного быстрее.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .