В рамках упражнения по сокращению дублирования файлов руководство хотело бы получить отчет обо всех дублированных двоичных файлах, включая изображения, так как кажется, что они превышают 100 000 и более, и учитывая их размер, это влияет на резервное копирование. Есть ли способ найти дубликаты файлов, выложить отчет, а затем запустить процесс удаления этих или архивирования их. В идеале приложения должны работать с Windows или Linux.

2 ответа2

2

Вы можете использовать fdupes для достижения этого. FDUPES - это программа для идентификации или удаления дубликатов файлов, находящихся в указанных каталогах.

1

Я сделал это под Linux (для моей музыки), выполнив md5sum для всех файлов, затем отсортировав и посчитав количество уникальных строк MD5 и, где их было больше 1, сопоставив их с файлом, связанным с MD5, и распечатав его. , Я должен сказать, что я думаю, что ответ FDUPES выше, вероятно, лучше, но мое решение просто использует то, что доступно при стандартной установке Linux.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .