По сути, я хочу сканировать весь сайт с помощью Wget, но он мне нужен, чтобы НИКОГДА не загружать другие ресурсы (например, изображения, CSS, JS и т.д.). Я хочу только файлы HTML.
Поиски в Google совершенно бесполезны.
Вот команда, которую я пробовал:
wget --limit-rate=200k --no-clobber --convert-links --random-wait -r -E -e robots=off -U "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/32.0.1700.102 Safari/537.36" -A html --domain=www.example.com http://www.example.com
Наш сайт представляет собой гибридный плоский PHP и CMS. Таким образом, HTML-файлы могут быть /path/to/page
, /path/to/page/
, /path/to/page.php
или /path/to/page.html
.
Я даже включил -R js,css
но он по-прежнему загружает файлы, затем отклоняет их (бессмысленная трата пропускной способности, загрузки процессора и сервера!).