Некоторое время назад я настроил RAID0 на нашем сервере Debian X64, и пока он работает нормально, никаких проблем. Однажды я только что проверил df -h , и он показывает, что 62% дискового пространства уже используется.

RAID-массив сконфигурирован с двумя дисками по 2 ТБ, и в настоящее время используется только 20 ГБ, но когда я вижу вывод, он говорит, что размер 34G. Что-то не так с моей настройкой?

вывод df -H:

df -H
Filesystem                                              Size  Used Avail Use% Mounted on
rootfs                                                  456G  7,3G  425G   2% /
udev                                                     11M     0   11M   0% /dev
tmpfs                                                   3,4G  300k  3,4G   1% /run
/dev/disk/by-uuid/ae73679c-c3cd-4a60-bcbb-5b6ddce867f7  456G  7,3G  425G   2% /
tmpfs                                                   5,3M     0  5,3M   0% /run/lock
tmpfs                                                    11G  4,1k   11G   1% /run/shm
/dev/sdc2                                               529M   41M  461M   9% /boot
// This last one   
 /dev/md1                                                 34G   20G   13G  62% /media/attachment

вывод mdadm --detail /dev /md1:

/dev/md1:
        Version : 1.2
  Creation Time : Wed Apr 29 11:12:21 2015
     Raid Level : raid0
     Array Size : 33553408 (32.00 GiB 34.36 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Wed Apr 29 11:12:21 2015
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 512K

           Name : legion03:1  (local to host legion03)
           UUID : 68e853a6:7af46176:d9c147c7:6ff87bb0
         Events : 0

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

Выход из

fdisk -l | grep Disk

fdisk -l | grep Disk
Disk /dev/md1 doesn't contain a valid partition table
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x00089ca4
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
Disk identifier: 0x00047ef7
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x000275d2
Disk /dev/md1: 34.4 GB, 34358689792 bytes
Disk identifier: 0x00000000

Что-то не так с моей настройкой RAID0? Любая помощь будет хорошей. Спасибо.

Обновить

Вывод fdisk -l:

fdisk -l 

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00089ca4

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sdc: 480.1 GB, 480103981056 bytes
255 heads, 63 sectors/track, 58369 cylinders, total 937703088 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00047ef7

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    33556480    16777216+  82  Linux swap / Solaris
/dev/sdc2        33558528    34607104      524288+  83  Linux
/dev/sdc3        34609152   937701040   451545944+  83  Linux

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000275d2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/md1: 34.4 GB, 34358689792 bytes
2 heads, 4 sectors/track, 8388352 cylinders, total 67106816 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table

1 ответ1

3

Ваш /dev/md1 представляется комбинацией двух разделов, каждый размером 16 ГиБ (или, возможно, разных размеров, которые составляют до 32 ГиБ). Вывод fdisk -l добавленный позже, противоречит этому. Без полной истории мы можем только предполагать, что привело к текущему состоянию /dev/md1 , но одна возможность состоит в том, что таблицы разделов изменились после создания устройства RAID (я не проверял, может ли эта последовательность событий привести к этому состояние).

Чтобы сообщить только таблицы разделов на этих двух дисках, используйте команду, подобную этой:

fdisk -l /dev/sd[ab]

Если вы хотите сохранить 20G данных в этом разделе, вам нужно скопировать их в другое место, прежде чем /dev/md1 .

Существующие таблицы разделов в /dev/sda и /dev/sdb подходят для раздела RAID на этих дисках. Я отредактировал свой предыдущий комментарий о том, как (и нужно ли) разбивать эти диски.

Чтобы разобрать и воссоздать /dev/md1 вы можете использовать эту последовательность команд:

mdadm --stop /dev/md1
mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sd[ab]1

Я считаю, что первая команда является неразрушающей, но вы захотите сделать резервную копию существующих данных в /dev/md1 перед запуском второй (и, действительно, перед запуском первой). Я полагаю, что mdadm --assemble позволит вам отменить действие этой первой команды, но это не нужно, если ваши данные будут скопированы.

Я не проверял эту последовательность команд (в последнее время, во всяком случае, недавно), но она согласуется с моими воспоминаниями и чтением документации. Будьте внимательны, чтобы правильно вводить имена устройств. Будет интересно узнать, использует ли mdadm --create полный размер раздела двух компонентных дисков при создании зеркала RAID. Ваш комментарий показал, что вы хотите зеркало RAID; значение параметра для --level было бы другим, если бы вы хотели что-то еще.

Вы также можете проверить содержимое /etc/mdadm.conf или /etc/mdadm/mdadm.conf чтобы убедиться, что они не указывают нежелательные значения по умолчанию.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .