1

Я хотел бы скачать каталог с веб-страницы. я пытаюсь использовать wget и crawl, но я не могу загрузить весь каталог, как это было на веб-странице или каким-либо другим способом. Предположим, что веб-страница abcd.com/ddd/bbb/A. внутри A есть соответствующая информация, которая начинается с A. Моя цель состоит в том, чтобы загрузить все, что находится в A, т.е. рекурсивно загрузить все подпапки в A, если они есть.

1 ответ1

0

Если все документы доступны через простые HTML-ссылки, то должно работать следующее:

wget -np -r -l0 http://abcd.com/ddd/bbb/A/

Это предполагает, что A является каталогом; если это не так, то вы должны опустить косую черту и принять вместо загрузки все в bbb .

-np опускает родительские каталоги. -r включает рекурсивные загрузки, а -l0 выбирает бесконечную глубину загрузки. Последнее, конечно, рискованно, если есть бесконечные циклы символьных ссылок или подобные конструкции. Поэтому было бы безопаснее включить разумную оценку максимальной цепочки ссылок, необходимой для достижения всех желаемых документов. Я часто использую -l5 сам.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .