Вы вряд ли сможете добиться хороших результатов, используя подход грубой силы, который дает большинство однострочных команд (хотя я использую опцию wget, чтобы получить весь сайт).
Я бы посоветовал вам создать сценарий, который использует некоторую форму условного выбора и циклы, чтобы фактически соответствовать и переходить по тем ссылкам, которые ведут вас к нужным изображениям.
Стратегия, которой я обычно придерживаюсь:
- В браузере перейдите на первую интересующую страницу и покажите исходный код;
- Щелкните правой кнопкой мыши изображение -> "Свойства изображения" -> найдите атрибуты 'src =' и теги изображения.
- Получите общий шаблон этих тегов /links /hrefs и используйте некоторое регулярное выражение (
grep -o
) для анализа ссылок;
- Используйте эти ссылки с какой-либо командой для загрузки изображений;
- Получите также ссылки на странице, которые ведут на другие страницы;
- Повторение.
Это действительно намного сложнее, чем однострочник, который берет все это, но опыт является поучительным. Webscraping это искусство само по себе.
Для этого я также рекомендую Python, хотя вполне возможно сделать это с помощью Shell Script (bash), если вы предпочитаете, или любым другим языком сценариев (Ruby, PHP, Perl и т.д.).
Надеюсь это поможет.