В моих проектах у меня есть работа с 800 ГБ данных (включая данные и коды). Некоторая часть моих данных состоит из довольно больших файлов, ~ 1 ГБ, но у меня также есть папка с тысячами маленьких файлов внутри.

Я скопировал все свои данные на внешний сервер с помощью sftp , и я использовал lftp , используя mirror -R <folder> . Я обнаружил, что такой способ резервного копирования данных может быть не идеальным, потому что sftp лучше работает с большими файлами, а резервное копирование небольших файлов занимает много времени.

Теперь, когда я скопировал все свои данные на внешний сервер, я хотел бы постепенно сохранять изменения каждый день, учитывая, что я постоянно работаю над своими проектами и обновляю несколько отдельных папок одновременно.

Я использовал для резервного копирования с rsync , но я считаю, что это не вариант на внешнем сервере, который я в настоящее время использую.

Мне было интересно, есть ли какой-нибудь способ, которым я могу ускорить этот процесс, используя sftp , либо в lftp , либо в другом файловом менеджере.

0