У меня был сценарий резервного копирования rsync, запущенный на блоке Centos 6, который синхронизировал ~ 410 ГБ данных с локального (LAN) сервера через гигабитное соединение. Этот сценарий выполняется ежечасно, и если нет новых файлов для копирования, его выполнение обычно занимает около 20 минут.
Я реализовал сценарий очистки, который запускается в окне Centos и удаляет все файлы из локальной резервной копии старше 1 года (после некоторых проверок) и добавляет эти файлы в список исключений для синтаксического анализа rsync. Все работает нормально, но на это уходит около 10 часов (без новых файлов). После первоначальной очистки исходные данные теперь составляют около 80 ГБ, а список исключений - около 90 МБ.
Вот моя строка rsync из скрипта:
rsync -pad $wholefiles --exclude-from=${exclfile}.combined /mnt/${smbdir}/${drive}/${foldername} /backup/rob/${smbdir}/${drive} >> /var/log/rob/robso.log 2>&1
Есть ли у rsync (или bash) ограничения на размер списков файлов? Можете ли вы увидеть что-нибудь в моем синтаксисе, что может вызвать такое огромное количество времени обработки? Заранее спасибо.
РЕДАКТИРОВАТЬ: переменная $ wholefiles в строке rsync выше передает опцию --whole-file в этом случае.