1

Я хочу взять несколько страниц, чтобы иметь возможность просматривать в автономном режиме. Мне нужно хорошее бесплатное программное обеспечение, которое может сохранить веб-сайт для меня, позволить мне просматривать его в автономном режиме, а также искать на страницах текст.

Кто-нибудь может порекомендовать любое программное обеспечение?

4 ответа4

8

Мне нравится HTTrack. Очень гибкий, но относительно простой в использовании.

Как бы мне не понравился wget, визуальная обратная связь, которую дает HTTrack, помогает вам выяснить проблемы, которые могут возникнуть при работе с зеркалированием, и это экономит много времени и разочарований.

6

Я использую wget, который вы можете получить здесь для Windows, или включенный практически во все * nix. Опция -m позволяет вам зеркалировать веб-сайт, хотя это всегда требует некоторых хлопот.

Teleport Pro - это то, что я всегда рекомендовал для решения подобных проблем в Windows, но я никогда не использовал его сам.

Как только файлы загружены, вы можете искать их содержимое с помощью любого инструмента, похожего на grep.

3

wget - это инструмент командной строки, который может это сделать. Как только вы загрузили файлы, вы можете искать их с помощью любой утилиты поиска файлов.

0

Сайт - это просто HTML-документ. Сохранение полного сайта потребует некоторых автоматов и может потребовать значительного количества места.

Существует несколько плагинов, которые позволяют загружать все ресурсы, используемые одним сайтом. Для сайтов, которые загружают некоторые данные через базы данных, вы можете не получить полный сайт.

Если вы хотите сохранить определенные страницы, используйте правую кнопку мыши -> сохранить страницу как.

Для большинства браузеров это делается так же.

Вот связанный вопрос: Как я могу скачать весь сайт?

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .