У меня есть веб-сайт, и я хочу загрузить все страницы / ссылки на этом веб-сайте. Я хочу сделать wget -r
для этого URL. Ни одна из ссылок не выходит за пределы этого конкретного каталога, поэтому я не беспокоюсь о загрузке всего Интернета.
Оказывается, нужные мне страницы находятся за защищенным паролем разделом сайта. Хотя я мог использовать wget для ручного согласования файлов cookie, мне было бы намного проще просто "войти" из браузера и использовать какой-нибудь плагин firefox для рекурсивной загрузки всего.
Есть расширение или что-то, что позволит мне сделать это? Многие расширения фокусируются на получении медиа / изображений со страницы (хе-хе-хе), но меня интересует весь контент - HTML и все остальное.
Предложения?
Спасибо!
редактировать
DownThemAll кажется классным предложением. Может ли это сделать рекурсивную загрузку? Как, например, загрузить все ссылки на странице, а затем загрузить все ссылки, содержащиеся на каждой из этих страниц, и т.д.? Чтобы я в основном отражал все дерево каталогов по ссылкам? Вроде как -r
опция wget
?