У меня есть шлюз Linux с 2 500 ГБ дисков в программном RAID 1 для системы.
/dev/sda = RAID 1
/dev/sdb = RAID 1
/dev/sdc = RAID 5 (NAS 12 drives iSCSI, /home directories)
При замене sdb произошла странная вещь: NAS при подключении монтировался как /dev /sdb, поэтому процедура восстановления RAID удачно восстановила системный диск RAID 1 на NAS, переписав некоторые данные и таблицу разделов. Процесс был прерван мной, когда я увидел, что происходит.
Теперь у меня есть 1 сломанный раздел 500 ГБ на NAS объемом 20 ТБ.
Конечно, у меня есть пользователи, у которых нет резервных копий, некоторые важные данные объемом 4 ТБ теряются где-то на NAS, другие вещи могут быть сброшены.
Я считаю, что данные все еще там, только разделы потеряны.
Я пробовал testdisk, после 4 дней анализа я получаю только эти "новые" сломанные разделы:
Disk /dev/sdc - 20 TB / 18 TiB - CHS 2431671 255 63
Partition Start End Size in sectors
D Linux 0 1 1 59999 254 63 963899937 [root]
D Linux RAID 0 1 1 59999 254 63 963899937 [md0]
Я даже могу прочитать некоторые «новые» данные, которые мне не нужны. Никаких признаков реальных данных.
Есть идеи, что можно сделать?