4

Как я могу получить изображения общедоступного веб-сайта с помощью wget? Это небольшой сайт: около 40 страниц и около трех изображений на страницу.

Я хочу избежать:

  1. Загрузка изображений вручную
  2. Скачивание всего сайта

Есть идеи?

4 ответа4

7

Вы можете использовать wget и сказать ему, что нужно загружать только файлы изображений или использовать http://www.downthemall.net/

С http://www.delorie.com/gnu/docs/wget/wget_31.html

Вы хотите загрузить все GIF-файлы из каталога на HTTP-сервере. Вы пробовали `wget http://www.server.com/dir/ * .gif ', но это не сработало, потому что HTTP-поиск не поддерживает глобализацию. В этом случае используйте:

wget -r -l1 --no-parent -A.gif http://www.server.com/dir/

Более многословно, но эффект тот же. -r -l1' means to retrieve recursively (see section 3. Recursive Retrieval), with maximum depth of 1. --no-parent 'означает, что ссылки на родительский каталог игнорируются (см. Раздел 4.3 Ограничения на основе каталога), а -A.gif' means to download only the GIF files. -А "* .gif" 'тоже бы сработало.

1

Я пишу утилиту с именем ifetch, вы можете попробовать. http://sourceforge.net/p/ifetch/wiki/Home/

0

увидеть это

Второй шаблон - это все картинки сайта. Я думаю, это то, что вы хотели?

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .