У меня в голове всплывает глупый вопрос: если у меня есть файл в C:/test1 и я переместил его в C:/test2, затем в D:/Other и так далее ... снова и снова, может ли файл стать испорчены? Как насчет создания копий файла снова и снова (копия копии копии копии)?
3 ответа
Они не должны; файлы представляют собой шаблоны включения / выключения, и все операции, такие как перемещение и копирование, предназначены для перемещения данных целиком без потери. Это не похоже на человеческую игру "телефон", в которой копирование файла снова и снова делает его более запутанным и запутанным каждый раз, пока все, что остается, - чепуха.
Но каждый раз, когда вы что-то делаете, есть небольшой шанс, что это пойдет не так. Чем больше вещей ты делаешь, тем больше шансов, что ты столкнешься с одним из них. Например, один из них - отключение питания во время движения - чем вы закончите? Частичный файл? Нет файла? Два файла?
Ничто не идеально; здесь, в 2005 году, исследование изучает частоту ошибок дисковода и обнаруживает:
При чтении 1,4 ПБ мы наблюдали 3 события потери. Это 3 потерянных файла. В среде центра обработки данных мы потеряли 2 из 32 000 файлов по 10 ГБ. В офисной настройке (Система 1) мы потеряли один файл по 10 ГБ за 35 000 попыток, а без файлов по 100 ГБ за 7560 попыток.
Это просто ошибки на диске, они также "experienced at least 4 controller firmware or driver errors"
.
Кроме того, есть ошибки памяти - вероятность повреждения между загрузкой информации в память компьютера и последующей ее записью. В печально известном исследовании Google, где они отслеживают ошибки в памяти на тысячах серверов, цитируется здесь , в Википедии, где говорится:
«На конференции SIGMETRICS/Performance'09 было представлено очень крупномасштабное исследование, основанное на очень большом количестве серверов Google. [4] Фактическая частота ошибок [..] от 25 000 до 70 000 ошибок на миллиард часов работы устройства на мегабит […] более 8% модулей памяти DIMM подвержены ошибкам в год ».
И, конечно, есть вероятность ошибки, неправильного прочтения, повреждения из-за скачка мощности или космического луча, недостатка конструкции, который выходит за пределы допустимого отклонения дешевого оборудования, в магнитных носителях на диске, в передаче по кабелям, в материнская плата, чипсеты, процессор, память, прошивка или программное обеспечение, и все снова и снова.
Кстати, вот фантастическая статья, основанная на идее, что, если вычислительное устройство повреждает данные в памяти при поиске интернет-адреса, оно может искать неправильный адрес. Таким образом, автор зарегистрировал несколько "неправильных адресов" (которые вы получили бы, если бы вы испортили немного имени популярного интернет-сайта), чтобы посмотреть, подключены ли к ним какие-либо устройства - у него было 52 000 запросов почти за 6 месяцев.
Изучение того, как сделать вещи / более / надежными в вычислительной технике, является занятой областью. От CRC и контрольных сумм до RAID с контролем четности, файловой системы ZFS на основе контрольных сумм, автоматической репликации, памяти ECC и т.д.
Перемещение файлов в пределах одной и той же файловой системы не должно затрагивать данные файла, а только изменяет каталоги, содержащие файл.
Аппаратное и программное обеспечение может выйти из строя в любое время, мы можем многое сделать, чтобы избежать повреждения данных, но мало что можем сделать, чтобы вообще не повредить данные. Космические лучи и даже атмосфера могут вызвать гниение данных, как большинство пользователей могут этого избежать? Правильно? Повреждение данных может также произойти во время передачи данных, что является самым сложным, поскольку 99% веб-сайтов не предоставляют пользователям файлы контрольных сумм для проверки целостности загруженных копий.
В конце концов, по моему опыту, повреждение данных происходит редко.