2

Я хочу отразить сайт, который скоро будет удален, проблема, с которой я сталкиваюсь в данный момент, проста -> отразить весь сайт1 и все ссылки (будут файлы / изображения / аналогичные) на сайт2, так что я получил хорошее объединение "зеркало.

-Поэтому вопрос будет:

Как это сделать с помощью wget? Есть ли другие способы решить эту проблему (если это невозможно с помощью wget)?

-Логический пример:

Веб-сайт http://example.org, и он будет отражен (wget -mk). wget также должен отражать каждый контент, размещенный на http://foo.bar, но не более того.

3 ответа3

1

Что-то вроде этого - то, что вы ищете:

wget -mk -w 20 http://www.example.com/ --exclude-domains sunsite.foo.edu --domains yahoo.com,google.com
  • m Включите параметры, подходящие для зеркалирования; метки времени и бесконечная глубина рекурсии, сохраняющие списки каталогов.
  • k После завершения загрузки преобразуйте ссылки в документе, чтобы сделать их пригодными для локального просмотра.
  • w SECONDS Ввести задержку между обращениями к серверу.
  • --exclude-domains DOMAIN-LIST Домены, за которыми не следует следить.
  • --domains DOMAIN-LIST Набор доменов, которым нужно следовать, список доменов, разделенных запятыми.
0

rysnc отразит файлы

rysnc -auvz source destination

Флаг -u пропустит файлы, которые являются новыми в месте назначения, так что это, вероятно, то, что вы хотите.

0
wget -p -k http://example.org

-P даст вам все необходимые элементы для правильного просмотра сайта (CSS, изображения и т.д.). -K изменит все ссылки (включая ссылки для CSS и изображений), чтобы вы могли просматривать страницу в автономном режиме, как она появилась в Интернете.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .