Есть тысячи файлов на файловом сервере http://xxxx.com
Я пытался сканировать его с помощью инструмента httrack
Это не работает, есть ли альтернативный инструмент, который может рекурсивно загружать целые файлы по веб-адресу?
Спасибо
Есть тысячи файлов на файловом сервере http://xxxx.com
Я пытался сканировать его с помощью инструмента httrack
Это не работает, есть ли альтернативный инструмент, который может рекурсивно загружать целые файлы по веб-адресу?
Спасибо
Используйте wget:
wget --mirror -p --html-extension --convert-links www.example.com
варианты объяснили:
-p get all images, etc. needed to display HTML page.
--mirror turns on recursion and time-stamping, sets infinite
recursion depth and keeps FTP directory listings
--html-extension save HTML docs with .html extensions
--convert-links make links in downloaded HTML point to local files.