Недавно мне было поручено объединить наши данные в нашей сети. У нас есть несколько терабайт данных, которые существовали на нескольких серверах, и я предполагаю, что около 30-40% данных бесполезны. Я бы классифицировал «бесполезные» данные как данные, которые не были затронуты более 7 лет, потому что кто-то переместил их в новое место и никогда не чистил старое или его просто неактуальное и старое.

Мой вопрос ...

Существует ли инструмент, который позволил бы мне сканировать большие объемы данных, чтобы помочь мне определить возможные потерянные каталоги в нашей сети?

1 ответ1

1

Вот предложение по поиску DoubleKiller - я обнаружил, что он действительно полезен для идентификации дубликатов файлов по терабайтам, в нем много вариантов поиска и ограничений, по которым нужно сканировать каталоги. Это полезный инструмент для арсенала, но, как и в случае любого чтения файлов, он сократит время доступа, если оно может понадобиться в будущем.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .