У меня есть http://some/page, и я хочу загрузить саму страницу и все остальные страницы под ней, N уровней.

Так что, если я установлю N, например, 2, я буду скачивать:

http://some/page,
http://some/page/a,
http://some/page/a/1,
http://some/page/a/2,
....
..
http://some/page/b,
http://some/page/b/1,
http://some/page/b/2,
....
..
etc.

Затем я хочу иметь возможность просматривать "загруженный" веб-сайт, но я хочу иметь возможность перемещаться по папкам веб-сайтов на моем HD, не беспокоясь о разрыве локальных относительных ссылок. Вот почему я упоминаю localhost в названии, может быть, это не нужно, я не знаю.

Есть ли какая-нибудь команда wget, которую я могу использовать для этого или для некоторого программного обеспечения с графическим интерфейсом?

Я не очень разбираюсь в wget (и я не очень хорошо знаком с терминалом), и я не смог найти никаких дружественных для человека документов по этому поводу, поэтому наличие самой команды с некоторым объяснением ее флагов очень помогло бы.

Спасибо!

2 ответа2

0

Я использую как curl, так и wget для скриптов, но для одноразовой загрузки сайта я нахожу Sitesucker очень простым в использовании:

http://ricks-apps.com/osx/sitesucker/index.html

0

После всего, что я нашел и использую это:

wget -r --level 2 --random-wait --no-clobber --page-requisites --e robots=off --html-extension --convert-links --no-parent http://some/page

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .