Я пытаюсь скачать сайт с помощью команды:
wget -r -l 0 -p -k -m -e robots=off --restrict-file-names=nocontrol,unix http://example.com
Когда он находит ссылку, например, http://example.com/direction
, он создает файл на диске ./example.com/direction
Затем, например, он находит некоторые другие файлы (ссылки) в «направлении», предположим, что http://example.com/direction/11
И wget
переписать старый файл ./example.com/direction
с некоторым HTML и преобразовать его в каталог. И напишите новый файл ./example.com/direction/11
там.
Если он найдет новый файл внутри /direction/11
, то он также перепишет 11
и преобразует его в каталог.
Так что, похоже, я потерял все файлы каталогов.
Есть ли решение проблемы в самом wget?