Я использовал mdadm для создания массива RAID 1, используя два диска по 3 ТБ. После процесса, который занял всю ночь, я обнаружил, что два накопителя на 3 ТБ, /sdb и /sdc, исчезли из проводника файлов. Перезагрузили систему, и они снова появились, а затем снова исчезли после очередной перезагрузки, они, кажется, повреждены с ошибкой, найденной в GParted, где их можно найти:
Corrupt extent header while reading journal super block</i>
<i>Unable to read the contents of this file system!
Because of this, some operations may be unavailable.
The cause might be a missing software package.
The following list of software packages is required for ext4 file system support: e2fsprogs v1.41
Я назвал новый RAID-массив md0, в котором теперь есть папка в /mnt /md0, которая пуста.
В /etc /mdadm есть файл conf, который гласит:
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
# This configuration was auto-generated on Mon, 24 Dec 2018 02:28:48 -0500 by mkconf
ARRAY /dev/md0 metadata=1.2 name=dna-computer:0 UUID=df25e6e6:cccb8138:aa9f4538:31608c33
Не уверен, поможет ли это, но команда cat /proc/mdstat
читает:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>