Я пытаюсь загрузить любимый веб-сайт с большим количеством картинок размером около 10 гигабайт.

Я использую sitesucker прямо для загрузки, и я заметил, что, хотя у меня скорость загрузки 10 Мбит / с, загрузка занимает около двух дней, и он все еще работает. Мой вопрос заключается в том, является ли загрузка / зеркалирование веб-сайта в большей степени связана со скоростью загрузки или со скоростью программного обеспечения, необходимого для сохранения и компиляции всех ссылок?

Я думаю о переходе на wget, если есть еще улучшение скорости; это будет работать?

1 ответ1

1

Поскольку вы получаете данные с другого хоста, вам необходимо учитывать пропускную способность и пропускную способность хоста. Если сервер веб-страницы имеет хорошую пропускную способность, вы должны загрузить его быстрее, чем если бы он был медленнее.

Кроме того, если файлов много, это также удлиняет весь процесс, так как между загрузкой файлов с помощью wget всегда будут небольшие паузы.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .