2

У меня была следующая ситуация:

Я скопировал данные объемом 5.5 TB (всего более 100 000 каталогов и 10 миллионов файлов) со старого диска на вновь приобретенный внешний диск.

Я использовал Ultracopier в Windows 10 чтобы сделать полную копию, и у меня была включена опция Verify checksums , чтобы проверять контрольную сумму каждого файла после копии.

Затем я использовал TreeSize и SpaceSniffer и проверил, что общий размер резервных копий каталогов и количество файлов и каталогов одинаково на старом и новом диске.

Наконец, я использовал Beyond Compare 4 который предположительно сравнивает все атрибуты файлов и папок друг с другом (размер, даты и т.д.). Это также способно к binary comparison . Сообщается, что данные на старом и новом накопителе абсолютно идентичны даже после binary comparison .

Мой вопрос тройной:

  1. Был ли вышеуказанный подход достаточно надежным и всеобъемлющим, чтобы сделать вывод о том, что данные действительно идентичны на обоих дисках и что в процессе копирования не было ошибок / сбоев?
  2. Каков наилучший и самый надежный атрибут файла и / или подход для сравнения двух файлов? Достаточно ли достаточно checksum? Или binary comparison?
  3. Какова вероятность того, что при такой огромной передаче файлов окажется несколько поврежденных или частично скопированных файлов? Особенно, когда Verify checksums была включена. Такой сценарий вероятен вообще, когда-либо?

СВЯЗАННО: Безопасно ли проверять сумму MD5 после копирования 100 ГБ данных?

0