5

Это мой первый вопрос о суперпользователе, поэтому, если я забыл что-то упомянуть, спросите.

Я пытаюсь настроить домашний сервер, который будет использоваться в качестве файлового сервера и медиа-сервера. Я установил Ubuntu Server 14.04 и теперь пытаюсь настроить Raid5, состоящий из 5 дисков, используя mdadm. После создания рейда я могу использовать его и получить доступ к рейду с других компьютеров. После перезагрузки сервера Raid больше не появляется. Я также не смог собрать рейд.

Я сделал следующие шаги:

Создать RAID

mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda /dev/sdc /dev/sdd /dev/sde /dev/sdf

После того, как RAID был завершен (watch cat /proc/mdstat), я сохраняю конфигурации RAID

mdadm --detail --scan >> /etc/mdadm/mdadm.conf

Затем я удалил некоторые части записи в mdadm.conf. Полученный файл выглядит следующим образом:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
#DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Fri, 14 Mar 2014 23:38:10 +0100
# by mkconf $Id$
ARRAY /dev/md0 UUID=b73a8b66:0681239e:2c1dd406:4907f892

Проверка, работает ли RAID (mdadm --detail /dev/md0), возвращает следующее:

/dev/md0:
Version : 1.2
Creation Time : Sat Apr 19 15:49:03 2014
Raid Level : raid5
Array Size : 7813531648 (7451.56 GiB 8001.06 GB)
Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB)
Raid Devices : 5
Total Devices : 5
Persistence : Superblock is persistent

Update Time : Sat Apr 19 22:13:37 2014
State : clean
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0

Layout : left-symmetric
Chunk Size : 512K

Name : roembelHomeserver:0  (local to host roembelHomeserver)
UUID : c29ca6ea:951be1e7:ee0911e9:32b215c8
Events : 67

Number   Major   Minor   RaidDevice State
0       8        0        0      active sync   /dev/sda
1       8       32        1      active sync   /dev/sdc
2       8       48        2      active sync   /dev/sdd
3       8       64        3      active sync   /dev/sde
5       8       80        4      active sync   /dev/sdf

Насколько я могу судить, все это выглядит хорошо. На следующем шаге я создал файловую систему:

mke2fs -t ext4 /dev/md0

Это приводит к следующему выводу:

mke2fs 1.42.8 (20-Jun-2013)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=512 blocks
244174848 inodes, 1953382912 blocks
97669145 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
59613 block groups
32768 blocks per group, 32768 fragments per group
4096 inodes per group
Superblock backups stored on blocks:
    32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
    4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
    102400000, 214990848, 512000000, 550731776, 644972544, 1934917632

Allocating group tables: done
Writing inode tables: done
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

Затем я изменил на fstab, добавив следующую запись в конец файла:

/dev/md0    /data    ext4    defaults,nobootwait,no fail     0    2

После монтирования RAID (mount -a) я мог использовать его, создавать файлы, получать доступ к нему с других компьютеров ...

Теперь возникает проблема:
После перезагрузки сервера (reboot now) RAID больше не существует, т.е.
- Нет /dev /md0
- пусто /proc /mdstat (кроме личностей)
- df -h не показывает рейд
- mdadm --assemble --scan ничего не делает

У кого-нибудь есть предложения? Я сделал что-то неправильно?

4 ответа4

2

Похоже, вы забыли один шаг - сказать initramfs загрузить ваш массив при загрузке. Все ваши шаги были правильными и в хронологическом порядке, но, похоже, вы пропустили этот последний шаг. Но учитывая тот факт, что я не знаю, каково текущее состояние вашего сервера, я предлагаю вам попробовать следующее:

Загрузитесь и введите

mdadm --detail --scan

Вы видите что-нибудь? Если это так, ваш массив есть, и он должен работать (т.е. решение, приведенное ниже, не поможет). Я предполагаю, что при перезагрузке вы вообще не видите свой RAID-накопитель. Если это правда,

Убедитесь, что демон MDADM запущен ps aux | grep mdadm

Это покажет вам, запущены ли какие-либо процессы MDADM (если вы не видите результата, запустите MDADM)

  1. Убедитесь, что массив смонтирован mount -a

  2. Обновить initramfs update-initramfs -u

  3. Убедитесь, что MDADM не выполняет синхронизацию или перестройку watch cat /proc/mdstat

Если что-то обрабатывается, сначала дайте ему закончить, чтобы не испортить массив

Перезагрузите и проверьте

0

Мой RAID-диск также не монтировался после перезагрузки. Однако из dmesg я заметил, что после перезагрузки /dev /md0 был назван /deb /md127. Я исправил fstab соответственно, что решило проблему.

0

Решил проблему на моей машине, используя разделы, а не сырые диски. Так что вместо

 mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda /dev/sdc /dev/sdd /dev/sde /dev/sdf

это было бы

mdadm --create --verbose /dev/md0 --level=5 --raid-devices=5 /dev/sda1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1

Убедитесь, что вы установили флаг рейда (я использовал gparted) на каждом разделе. Насколько я понимаю, это позволяет демону mdadm видеть разделы и повторно инициализировать массив при загрузке.

-1

После перезагрузки mdadm можно собрать с помощью mdadm --assemble --verbose /dev /md0. Я думаю, что что-то сломано на ранних стадиях последовательности загрузки.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .