Я пытаюсь отразить довольно большой сайт (более 20 000 страниц) до капитального ремонта. По сути, мне нужна резервная копия перед тем, как перейти к новой, на случай, если мы забыли что-то, что нам нужно (при запуске у нас будет около 1000 страниц). Сайт работает на CMS, с которой я не могу легко извлечь полезные данные, поэтому я пытаюсь сделать копию с помощью wget.
Моя проблема в том, что wget, по-видимому, на самом деле не конвертирует ссылки, несмотря на наличие в команде --convert-links или -k. Я пробовал несколько различных комбинаций флагов, но я не смог получить нужный результат. Самая последняя неудачная попытка была:
nohup wget --mirror -k -l10 -PafscSnapshot --html-extension -R *calendar* -o wget.log http://www.example.org &
Я также включил --backup-convert и --convert-links вместо -k (не то чтобы это имело значение). Я сделал это с и без -P и -l, опять же нет, что они должны иметь значение.
Результаты в файлах, которые все еще имеют ссылки, такие как:
http://www.example.org/ht/d/sp/i/17770