1

Прежде всего, извините, что спрашиваю об этом, но я не знал другого способа выразить то, что мне нужно. Если кто-то может отредактировать вопрос, я был бы очень рад.

Часто просматривая некоторые материалы через Интернет, я заканчиваю открывать некоторые страницы (репозитории), на которых содержится вся необходимая информация, но я не знаю, как загрузить все эти файлы и папки. Это возможность загружать их один за другим, но сделать это для большого хранилища практически невозможно. Например, эти URL: OpenSusse Repository или Primefaces .

Может кто-нибудь помочь, пожалуйста?

2 ответа2

3

Возможно wget . Есть даже wget для Windows.

А вот wget-mirror curby, которым я пользуюсь:

#
#
#   get prerequisites
# don't get parent   \
#                 \   \
wget -N -l inf -r -np -p $1
#   /   /      /
#  /   |      /
# |    |     recursive get
# |   infinite recursion
#don't get unless newer than local
1

Попробуйте этот инструмент:

http://www.httrack.com/

Это бесплатный инструмент, который позволяет рекурсивно загрузить весь веб-сайт (включая изображения, связанные файлы и т.д.) И сделать локальную копию.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .