1

Я хотел бы загрузить все изображения на веб-странице. Инструмент должен быть достаточно умным, чтобы исследовать файлы CSS и Javascript в исходном коде страницы для поиска изображений.

В идеале, он также должен копировать иерархию папок, сохраняя изображения в правильной папке. Например, веб-страница может иметь несколько изображений для пунктов меню, хранящихся в images/menu/, а для фоновых изображений она может храниться в images/bg/.

Есть ли такой инструмент, о котором вы знаете? (желательно в Windows, но Linux все еще в порядке)

Большое спасибо всем вам.

4 ответа4

3

Если вы используете Firefox, то помогут следующие надстройки:

Сохранить изображения

сохраняет изображения с текущей вкладки, из кэша в указанное место с указанным вами исходным именем файла изображения или именем файла. Размер, размеры и типы сохраненных изображений могут быть выбраны с опциями, если размер файла неизвестен или если найдены дубликаты файлов. Изображения могут быть сохранены либо с текущей вкладки, слева или справа от текущей вкладки, либо со всех вкладок.

DownThemAll!

Это известное дополнение, возможно, используемое вместе с DownThemAll!АнтиКонтейнер.

AntiContainer - это расширение и фреймворк DownThemAll! который позволяет пользователю загружать ресурсы, которые обычно скрыты за страницами контейнера.

Например, почти все так называемые хостеры изображений «одним щелчком», такие как imagevenue, используют такие страницы-контейнеры. АнтиКонтейнер включает DownThemAll! чтобы загрузить реальные изображения, а не просто страницу.

1

Другим вариантом будет использование веб-паука, такого как WebReaper, с фильтром для загрузки только .png, .jpg, .gif и т.д. Однако некоторые сайты блокируют веб-пауков, поэтому имейте это в виду.

1

wGet для windows может рекурсивно скачать сайт. Это должно сохранить вашу структуру папок. Возможно, вам понадобится удалить html-файлы после получения всего, но IMO очень прост в использовании.

http://gnuwin32.sourceforge.net/packages/wget.htm

используйте флаг "-r" для рекурсивной загрузки сайта. например, wget -r http://example.com

Вот краткое руководство по загрузке сайта.

http://linuxreviews.org/quicktips/wget/

1

Проверьте HTTrack Веб-сайт Копир.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .