Есть тысячи файлов на файловом сервере http://xxxx.com

Я пытался сканировать его с помощью инструмента httrack

Это не работает, есть ли альтернативный инструмент, который может рекурсивно загружать целые файлы по веб-адресу?

Спасибо

1 ответ1

2

Используйте wget:

wget --mirror -p --html-extension --convert-links www.example.com

варианты объяснили:

-p                  get all images, etc. needed to display HTML page.  
--mirror            turns on recursion and time-stamping, sets infinite 
                      recursion depth and keeps FTP directory listings
--html-extension    save HTML docs with .html extensions  
--convert-links     make links in downloaded HTML point to local files. 

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .