1

Я пытаюсь загрузить кучу (скажем, TXT-файлов) с веб-сайта, теперь они не очень большие (около 4-10 Кбайт каждый), но их около 70000.

Все, что мне нужно, это .txt, я не хочу клонировать сайт, такой как HTTrack и т. Д ...

Есть ли какие-нибудь программы, которые бы помогли мне с этой проблемой? (и сэкономьте мне кучу времени!)

ура

2 ответа2

0

Если вы согласны с использованием браузера, вы можете использовать Firefox с расширением DownThemAll. Вам нужно будет перейти к корню каталога и запустить DownThemAll - вы можете фильтровать только .txt файлы на экране выбора.

0

Используйте бесплатный копир сайта HTTrack. Он позволяет вам настраивать, например, глубину ссылки, максимальный размер файла, полосу пропускания, включать и исключать ссылки и т.д. "Он позволяет загружать сайты World Wide Web из Интернета в локальный каталог, рекурсивно создавать все каталоги, получать HTML, изображения и другие файлы с сервера на ваш компьютер. HTTrack организует относительную структуру ссылок исходного сайта. "

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .