У меня есть четыре аналогичные большие коллекции файлов сайта. Это архивные копии одного и того же дерева каталогов разных времен в прошлом.
Я хочу объединить их в самую последнюю коллекцию archive1. Из-за плохого знания www 15 лет назад некоторые деревья веб-сайтов содержат обязательно идентичные файлы для работы (.css, пустые страницы, метки и т.д.). Кроме того, некоторые файлы были повреждены в 0-байтовые файлы, и я хочу заменить их версиями от archive2 и выше.
$ fdupes archive1/ archive2/ archive3/ archive4/ -rNdn
должен делать в основном правильные вещи, но также обнаруживать дубликаты в самом архиве1.
Каков наилучший способ удалить дубликаты моих файлов, не удаляя дубликаты в архиве1?
PS Мне известен этот вопрос, который частично решает последующую проблему копирования неповторяющихся версий в архив1.