1

У меня есть выделенный сервер в Германии с данными 120 ГБ, так как я купил новый выделенный сервер в США, я хотел бы перенести все файлы на новый сервер через FTP-соединение, чтобы добиться этого, я могу использовать следующую команду wget в мой новый сервер:

nohup wget -m --user=myusername --password=mypassowrd ftp://ftp.mysite.xyz > wget_backup_transfer_log.log 2>&1 &

Я хотел бы знать, есть ли лучший способ сделать это и является ли указанная выше команда стабильной в отношении этих огромных файлов данных?

Заранее спасибо...

PS Оба сервера работают под CentOS 6.5

1 ответ1

2

Самые лучшие способы сделать это включают в себя не использовать FTP. Вместо этого предпочтительным методом будет rsync:

rsync -avPh mysite.xyz:/home /oldhome

Источник или место назначения могут быть удаленными (host:/path). Передача происходит по SSH, поэтому вам нужен только инструмент rsync на обоих серверах, и передача зашифрована (что целесообразно).

rsync автоматически определяет, какие файлы были изменены / добавлены / отсутствуют, поэтому при необходимости можно безопасно прервать их и перезапустить. Основные параметры: -a -v , но вы также должны добавить -P -h чтобы возобновить передачу большого файла.

(Также возможно -h -H -A -X для сохранения различных дополнительных метаданных, таких как ACL или xattrs.)

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .