У меня есть проект Google Code, в котором есть много вики-документации. Я хотел бы создать копию этой документации для просмотра в автономном режиме. Я хотел бы использовать wget или аналогичную утилиту.

Я пробовал следующее:

$ wget --no-parent \
       --recursive \
       --page-requisites \
       --html-extension \
       --base="http://code.google.com/p/myProject/" \
       "http://code.google.com/p/myProject/"

Проблема в том, что ссылки внутри зеркальной копии имеют такие ссылки:

file:///p/myProject/documentName

Такое переименование ссылок таким способом вызывает 404 (не найденных) ошибок, поскольку ссылки указывают на то, что они не действительны в файловой системе.

Какие опции я должен использовать вместо этого с wget , чтобы я мог сделать локальную копию документации сайта и других страниц?

2 ответа2

2

Если URL выглядит так:

https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz

Превратите это в:

$wget https://projectName.googlecode.com/files/yourFILE.tar.gz

Это прекрасно работает для меня.

0

После долгих тренировок мне удалось заставить работать на меня следующее:

$ wget --no-parent \
       --recursive \
       --page-requisites \
       --html-extension \
       --convert-links \ 
       -E -l 3 \
       http://code.google.com/p/myProject/

Результат полностью автономен, сейчас.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .