1

У меня есть четыре аналогичные большие коллекции файлов сайта. Это архивные копии одного и того же дерева каталогов разных времен в прошлом.

Я хочу объединить их в самую последнюю коллекцию archive1. Из-за плохого знания www 15 лет назад некоторые деревья веб-сайтов содержат обязательно идентичные файлы для работы (.css, пустые страницы, метки и т.д.). Кроме того, некоторые файлы были повреждены в 0-байтовые файлы, и я хочу заменить их версиями от archive2 и выше.

$ fdupes archive1/ archive2/ archive3/ archive4/ -rNdn

должен делать в основном правильные вещи, но также обнаруживать дубликаты в самом архиве1.

Каков наилучший способ удалить дубликаты моих файлов, не удаляя дубликаты в архиве1?

PS Мне известен этот вопрос, который частично решает последующую проблему копирования неповторяющихся версий в архив1.

1 ответ1

0

Почему бы не дублировать archive2 , archive3 и archive4 , а затем синхронизировать archive2 с archive1?

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .