-1

Мне часто нужно скачивать наборы ссылок с веб-страницы, и очень неэффективно нажимать все ссылки по одной. Например, на данный момент я хочу скачать конспекты лекций на этой веб-странице. Можно ли как-нибудь загрузить их? Я использую Linux и Firefox на случай, если эта информация будет полезной

1 ответ1

0

Эта строка кода загрузит каждый PDF-файл со страницы.
Он быстрый и грязный и, вероятно, может быть оптимизирован (тем более что я использую как curl, так и wget):

for file in $(curl https://ocw.mit.edu/courses/mathematics/18-102-introduction-to-functional-analysis-spring-2009/lecture-notes/ | grep .pdf | cut -d'"' -f2); do wget https://ocw.mit.edu/$file; done

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .