У меня была следующая ситуация:
Я скопировал данные объемом 5.5 TB (всего более 100 000 каталогов и 10 миллионов файлов) со старого диска на вновь приобретенный внешний диск.
Я использовал Ultracopier в Windows 10 чтобы сделать полную копию, и у меня была включена опция Verify checksums , чтобы проверять контрольную сумму каждого файла после копии.
Затем я использовал TreeSize и SpaceSniffer и проверил, что общий размер резервных копий каталогов и количество файлов и каталогов одинаково на старом и новом диске.
Наконец, я использовал Beyond Compare 4 который предположительно сравнивает все атрибуты файлов и папок друг с другом (размер, даты и т.д.). Это также способно к binary comparison . Сообщается, что данные на старом и новом накопителе абсолютно идентичны даже после binary comparison .
Мой вопрос тройной:
- Был ли вышеуказанный подход достаточно надежным и всеобъемлющим, чтобы сделать вывод о том, что данные действительно идентичны на обоих дисках и что в процессе копирования не было ошибок / сбоев?
- Каков наилучший и самый надежный атрибут файла и / или подход для сравнения двух файлов? Достаточно ли достаточно
checksum? Илиbinary comparison? - Какова вероятность того, что при такой огромной передаче файлов окажется несколько поврежденных или частично скопированных файлов? Особенно, когда
Verify checksumsбыла включена. Такой сценарий вероятен вообще, когда-либо?
СВЯЗАННО: Безопасно ли проверять сумму MD5 после копирования 100 ГБ данных?
