6

Я пытаюсь отразить довольно большой сайт (более 20 000 страниц) до капитального ремонта. По сути, мне нужна резервная копия перед тем, как перейти к новой, на случай, если мы забыли что-то, что нам нужно (при запуске у нас будет около 1000 страниц). Сайт работает на CMS, с которой я не могу легко извлечь полезные данные, поэтому я пытаюсь сделать копию с помощью wget.

Моя проблема в том, что wget, по-видимому, на самом деле не конвертирует ссылки, несмотря на наличие в команде --convert-links или -k. Я пробовал несколько различных комбинаций флагов, но я не смог получить нужный результат. Самая последняя неудачная попытка была:

nohup wget --mirror -k -l10 -PafscSnapshot --html-extension -R *calendar* -o wget.log http://www.example.org &

Я также включил --backup-convert и --convert-links вместо -k (не то чтобы это имело значение). Я сделал это с и без -P и -l, опять же нет, что они должны иметь значение.

Результаты в файлах, которые все еще имеют ссылки, такие как:

http://www.example.org/ht/d/sp/i/17770

4 ответа4

8

Это старый пост, но я выкладываю ответ здесь для будущих искателей.

Функция --convert-links только после завершения загрузки сайта. Я предполагаю, что на таком большом сайте вы пытались остановить процесс после завершения нескольких страниц, и поэтому процесс еще не начался.

Смотрите также https://stackoverflow.com/questions/6348289/download-a-working-local-copy-of-a-webpage

Из документов Wget

‘-k’
‘--convert-links’
After the download is complete, convert the links in the document to make them suitable for local viewing. This affects not only the visible hyperlinks, but any part of the document that links to external content, such as embedded images, links to style sheets, hyperlinks to non-html content, etc.

Each link will be changed in one of the two ways:

    The links to files that have been downloaded by Wget will be changed to refer to the file they point to as a relative link.

    Example: if the downloaded file /foo/doc.html links to /bar/img.gif, also downloaded, then the link in doc.html will be modified to point to ‘../bar/img.gif’. This kind of transformation works reliably for arbitrary combinations of directories.
    The links to files that have not been downloaded by Wget will be changed to include host name and absolute path of the location they point to.

    Example: if the downloaded file /foo/doc.html links to /bar/img.gif (or to ../bar/img.gif), then the link in doc.html will be modified to point to http://hostname/bar/img.gif. 

Because of this, local browsing works reliably: if a linked file was downloaded, the link will refer to its local name; if it was not downloaded, the link will refer to its full Internet address rather than presenting a broken link. The fact that the former links are converted to relative links ensures that you can move the downloaded hierarchy to another directory.

Note that only at the end of the download can Wget know which links have been downloaded. Because of that, the work done by ‘-k’ will be performed at the end of all the downloads. 
1

У меня то же самое с сайтом 6Gig я пытаюсь сделать резервную копию. Через несколько дней wget завершает работу без сообщения об ошибке и завершает работу со статусом 0, но без преобразования ссылок. Выполнение меньшего поиска с теми же параметрами работает нормально. Это как если бы внутренняя таблица того, что было загружено, была вымыта или повреждена до того, как wget завершил работу.

Я собираюсь попробовать обновить сайт с помощью -nc (который не должен ничего восстанавливать, потому что он уже загружен, и закончить преобразованием ссылок - см. Раздел «Сделать wget конвертирующим HTML-ссылки в относительные после загрузки, если не указан параметр -k» )

1

Возможно, вы столкнулись с тем, что wget -k по-разному конвертирует файлы в Windows и Linux из-за ограничений имени файла в ОС?

0

-k игнорируется, если у вас также есть -o согласно инструкции:

Обратите внимание, что комбинация с '-k' разрешена только при загрузке одного документа, так как в этом случае она просто преобразует все относительные URI во внешние; «-k» не имеет смысла для нескольких URI, когда все они загружаются в один файл; '-k' может использоваться только тогда, когда вывод является обычным файлом.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .