1

У нас есть локальный сервер, на котором мы выполняем большую часть нашей веб-разработки, а затем мы продвигаем это в живую среду, чтобы клиенты могли получить к ней доступ.

Мы часто получаем огромные архивы (в частности, 6,6 Гб), которые нам нужно получить с нашего локального сервера на удаленный сервер.

Мы используем putty в качестве терминала и WinSCP.

Выборка данных через wget всегда супер быстрая, но есть ли способ использовать wget на удаленном серверном терминале для получения архива на нашем локальном сервере и, если да, то какую команду нам нужно использовать или что еще нам нужно настроить / установить вверх?

Мы можем загружать через SFTP / FTP, но с огромными файлами, это может занять часы или даже дни!

2 ответа2

2

вам лучше использовать scp (безопасное копирование)

scp yourfile user@example.org:/var/www/

и если вы используете аутентификацию по ключу, вы также избавляетесь от вопроса о пароле (и это также более безопасно)

если ваш tarball (как вы написали в комментарии) называется * .tar, то ваши 6 ГБ не сжимаются, поэтому на вашем локальном ubuntu ´bzip2 tarball.tar and after transfering a файла bunzip2 tarball.tar.bz2` вы сэкономите, вероятно, много время

0

Чтобы было понятно, вы хотите перенести заархивированный файл с локального сервера на удаленный веб-сервер, а не локальный?

Если это так, то при использовании ftp или wget (который похож на прямую загрузку) будет использоваться то же соединение.

Но если вы действительно хотите использовать wget, я бы переместил файл из каталога apache (или эквивалентного, если он установлен) с локального сервера, а затем использовал бы wget с правильной ссылкой на удаленном сервере через терминал SSH. Это означает, что ваш файл будет свободно доступен и не защищен.

EDIT1: я предлагаю вам использовать FTP для чувствительных файлов

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .