На http://www.inf.usi.ch/carzaniga/edu/algo08f/schedule.html я хотел бы загрузить все PDF-файлы с именем *-2up.pdf
, например, http://www.inf. .usi.ch/carzaniga/ Edu / algo08f / интро-2up.pdf
Можно ли это сделать с помощью wget в bash?
Благодарю.
На http://www.inf.usi.ch/carzaniga/edu/algo08f/schedule.html я хотел бы загрузить все PDF-файлы с именем *-2up.pdf
, например, http://www.inf. .usi.ch/carzaniga/ Edu / algo08f / интро-2up.pdf
Можно ли это сделать с помощью wget в bash?
Благодарю.
Чтобы получить файлы рекурсивно, но только те, которые заканчиваются на 2up.pdf
, попробуйте:
wget -r -nd -A 2up.pdf 'http://www.inf.usi.ch/carzaniga/edu/algo08f/schedule.html'
Объяснение:
-r
говорит, что wget
рекурсивно получает файлы
-nd
указывает wget
сохранить все загруженные файлы в текущем каталоге. В противном случае он попытается воссоздать структуру каталогов на сайте www.inf.usi.ch
-A 2up.pdf
ограничивает загрузку именами файлов, заканчивающимися на 2up.pdf
.
Когда сказано, что он рекурсивный, wget
будет искать по всем html-ссылкам в поисках ссылок на файлы, которые могут быть приняты. Если мы знаем, что все файлы, которые нам нужны, связаны напрямую в исходном URL-адресе, то нам не нужно это поведение. Чтобы ограничить глубину поиска wget
, используйте параметр --level
:
wget -r -nd -A th-2up.pdf -A schedule.html --level=1 'http://www.inf.usi.ch/carzaniga/edu/algo08f/schedule.html'
Также демонстрирует, что несколько опций -A
могут использоваться вместе.