1

У меня есть шлюз Linux с 2 500 ГБ дисков в программном RAID 1 для системы.

/dev/sda = RAID 1
/dev/sdb = RAID 1
/dev/sdc = RAID 5 (NAS 12 drives iSCSI, /home directories)

При замене sdb произошла странная вещь: NAS при подключении монтировался как /dev /sdb, поэтому процедура восстановления RAID удачно восстановила системный диск RAID 1 на NAS, переписав некоторые данные и таблицу разделов. Процесс был прерван мной, когда я увидел, что происходит.

Теперь у меня есть 1 сломанный раздел 500 ГБ на NAS объемом 20 ТБ.

Конечно, у меня есть пользователи, у которых нет резервных копий, некоторые важные данные объемом 4 ТБ теряются где-то на NAS, другие вещи могут быть сброшены.

Я считаю, что данные все еще там, только разделы потеряны.

Я пробовал testdisk, после 4 дней анализа я получаю только эти "новые" сломанные разделы:

Disk /dev/sdc - 20 TB / 18 TiB - CHS 2431671 255 63
 Partition               Start        End    Size in sectors
 D Linux                    0   1  1 59999 254 63  963899937 [root]
 D Linux RAID               0   1  1 59999 254 63  963899937 [md0]

Я даже могу прочитать некоторые «новые» данные, которые мне не нужны. Никаких признаков реальных данных.

Есть идеи, что можно сделать?

1 ответ1

0

Я видел похожие случаи, когда запуск файловой системы был ошибочно перезаписан. Восстановление иногда возможно путем монтирования файловой системы с резервным суперблоком.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .