2

Как я могу сделать полный веб-сайт / URL и дочерние страницы, связанные с URL, доступными в автономном режиме?

Например, я хочу, чтобы Android SDK на Javadoc был доступен в автономном режиме, чтобы я мог пройти через него в любое время, даже без Интернета

3 ответа3

2

Javadocs - это просто сгенерированные простые HTML-страницы.
Таким образом, вам ничего не нужно, даже локальный браузер достаточно, если вы хотите просмотреть его самостоятельно.

Если вы хотите разместить его, подойдет любой веб-сервер, способный обслуживать статические страницы.

Где вы можете скачать его?
Менеджер SDK будет иметь его в разделе «Документация».

В качестве альтернативы вы можете получить их с URL:
Такие как:
https://dl-ssl.google.com/android/repository/docs-18_r02.zip

Заменить цифры. (То же соглашение об именах, поэтому сначала попробуйте docs-19_r02.zip, затем -19_r01.zip и т. д.)
Я уверен, что где-то есть список, я просто не смог его найти.

1

Самый простой способ заставить URL работать в автономном режиме - это локально настроить веб-сервер и разместить там файлы / ресурсы.

Таким образом, ваш компьютер будет выступать в качестве веб-сервера для обслуживания этого содержимого.

1

Почему бы не использовать Wget? Цитирование со страницы:

GNU Wget - это бесплатный программный пакет для извлечения файлов с использованием HTTP, HTTPS и FTP, наиболее широко используемых интернет-протоколов. Это неинтерактивный инструмент командной строки, поэтому его легко вызывать из сценариев, заданий cron, терминалов без поддержки X-Windows и т.д.

GNU Wget обладает множеством функций, облегчающих получение больших файлов или зеркалирование всего веб- или FTP-сайтов, в том числе:

  • Может возобновить прерванные загрузки, используя REST и RANGE
  • Может использовать шаблоны имени файла и рекурсивно отражать каталоги
  • Файлы сообщений на основе NLS для разных языков
  • При желании преобразует абсолютные ссылки в загруженных документах в относительные, так что загруженные документы могут ссылаться друг на друга локально
  • Работает в большинстве UNIX-подобных операционных систем, а также в Microsoft Windows
  • Поддерживает HTTP прокси
  • Поддерживает HTTP куки
  • Поддерживает постоянные соединения HTTP
  • Автоматическая / фоновая операция
  • Использует локальные временные метки файлов, чтобы определить, нужно ли повторно загружать документы при зеркалировании.
  • GNU Wget распространяется под лицензией GNU General Public License.

Я лично использовал его для хранения нескольких сайтов для просмотра oflline. У него небольшая крутая кривая обучения (из-за аргументов и тому подобного), но у него есть возможность делать все, что вы хотите.

Существует также порт Wget для Windows, если у вас нет UNIX-машины.

Возможные аргументы, которые я бы использовал для вашей задачи, были бы примерно такими:

wget -r -p -k -np -w 1 http://developer.android.com/reference/

Объясняя команды:

  • -r - устанавливает рекурсивный поиск (т.е. он получит любую ссылку, существующую на этой странице и т. д.)
  • -p - загружает все необходимое для правильного просмотра страницы
  • -k - преобразует ссылки в документах, чтобы сделать их пригодными для локального просмотра
  • -np - никогда не подниматься в родительский каталог при рекурсивном извлечении (т.е. не возвращаться)
  • -w 1 - ждет 1 секунду между каждым поиском. Это полезно для того, чтобы не перегружать сервер запросами, которые могут вызвать ошибки 404 и другие вещи.

Использование аргумента взято из руководства. Я не запускал это, поэтому я не могу точно сказать, что он будет сканироваться соответствующим образом, но с некоторыми корректировками это поможет.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .