В моих проектах у меня есть работа с 800 ГБ данных (включая данные и коды). Некоторая часть моих данных состоит из довольно больших файлов, ~ 1 ГБ, но у меня также есть папка с тысячами маленьких файлов внутри.
Я скопировал все свои данные на внешний сервер с помощью sftp
, и я использовал lftp
, используя mirror -R <folder>
. Я обнаружил, что такой способ резервного копирования данных может быть не идеальным, потому что sftp
лучше работает с большими файлами, а резервное копирование небольших файлов занимает много времени.
Теперь, когда я скопировал все свои данные на внешний сервер, я хотел бы постепенно сохранять изменения каждый день, учитывая, что я постоянно работаю над своими проектами и обновляю несколько отдельных папок одновременно.
Я использовал для резервного копирования с rsync
, но я считаю, что это не вариант на внешнем сервере, который я в настоящее время использую.
Мне было интересно, есть ли какой-нибудь способ, которым я могу ускорить этот процесс, используя sftp
, либо в lftp
, либо в другом файловом менеджере.