Я пытаюсь загрузить любимый веб-сайт с большим количеством картинок размером около 10 гигабайт.
Я использую sitesucker прямо для загрузки, и я заметил, что, хотя у меня скорость загрузки 10 Мбит / с, загрузка занимает около двух дней, и он все еще работает. Мой вопрос заключается в том, является ли загрузка / зеркалирование веб-сайта в большей степени связана со скоростью загрузки или со скоростью программного обеспечения, необходимого для сохранения и компиляции всех ссылок?
Я думаю о переходе на wget, если есть еще улучшение скорости; это будет работать?