1

Итак, у меня есть wget 1.12 на Windows 7, и я могу сделать его базовую загрузку.

Сайт, который я пытаюсь скачать: http://www.minsterfm.co.uk

и все изображения на нем хранятся снаружи по адресу http://cml.sad.ukrd.com/image/

Как я могу скачать сайт, а также внешние изображения и, возможно, разрешить всем файлам сохранять свое исходное расширение, не конвертируя .php файлы в .htm

Буду признателен за любую помощь, так как я новичок в Wget.

2 ответа2

2

Руководство сказало нам:

На самом деле, чтобы загрузить одну страницу и все ее реквизиты (даже если они существуют на отдельных веб-сайтах) и убедиться, что партия отображается правильно локально, этот автор любит использовать несколько опций в дополнение к '-p':

wget -E -H -k -K -p http://the.site.com

Вам придется объединить это с некоторыми вариантами рекурсивной загрузки . Вы бы предпочли использовать --wait=xx , --limit-rate=xxK и -U agent-string чтобы сервер не помещался в черный список…

0

Я использовал BlackWidow для рекурсивной загрузки сайтов в Windows.

Он имеет следующие функции, но не является бесплатным:

  • Скриптовый движок
  • Удобный
  • NetSpy (сетевой шпион)
  • SnapShot (Снимок веб-страницы)
  • Windows Explorer как вид сайта
  • Мощные фильтры сканирования
  • Расходный парсер
  • Подстановочные знаки и регулярные выражения

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .