Есть ли способ загрузить список URL-адресов ... загрузить содержимое в папку, а имя каждой загрузки является именем URL-адреса? У меня есть около 1000 из этих URL, которые можно загрузить в формате PDF.

http://www.swarovski-lighting.com/ws/web/coredatasheetstreamer.html?corepart=1239&region=1

1 ответ1

0

Создайте файл с именем urllist.txt и вставьте в него все свои URL. Все они должны начинаться с новой строки, например:

http://www.swarovski-lighting.com/ws/web/coredatasheetstreamer.html`?corepart=1239&region=1
https://www.dell.com/downloads/global/products/pedge/en/1750_specs.pdf
http://www.pizzahut.com/assets/w/nutrition/BrandStandardNutritionalInformationFINAL111314.pdf

ЕСЛИ ЕСТЬ URL С А? В ЭТОМ ДОБАВЬТЕ АКЦЕНТ МОЖЕТ ДО ЭТОГО. Пример в первом URL выше. Самый простой способ сделать это - вставить все URL-адреса в блокнот, а затем использовать поиск / замену. Найти? Заменить на `? Обратите внимание, что ключ могилы - это не ключ одинарной кавычки, а ключ над клавишей табуляции с тильдой.

Откройте блокнот и вставьте следующий код:

Get-Content urllist.txt | ForEach-Object {Invoke-WebRequest $_ -OutFile $(Split-Path $_.replace('?', ' ').replace('&', ' ').replace('=', ' ') -Leaf)}
Read-Host -Prompt "Press Enter to exit"

Сохраните этот файл как downloadfiles.ps1

Обязательно сохраните этот файл в той же папке, что и urllist.txt

Вы можете щелкнуть правой кнопкой мыши по файлу и запустить с powershell.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .