Есть ли способ / инструмент, чтобы получить все ссылки на сайте? Просто ссылки, не смотря на создание локальной копии / загрузки сайта. Пример - ссылки на все вопросы, размещенные на Superuser. Платформа Windows 7, Ubuntu 14.04

1 ответ1

0

Извините, что заставил вас ждать. Я загрузил свою программу здесь.

Программа все еще находится на очень-очень ранней стадии, поэтому большинство функций не работают, но, тем не менее, она захватывает все ссылки на другие страницы сайта.

Для запуска требуется Java, и вы должны иметь возможность дважды щелкнуть файл, и пользовательский интерфейс должен загрузиться. Введите в поле SearchW (в графическом интерфейсе) адрес веб-сайта, т.е. http://google.com, http://bbc.co.uk

Затем вы можете скопировать и вставить все ссылки по мере их печати (мне все еще нужно реализовать функцию экспорта, но вы сможете скопировать ссылки на данный момент)

Дайте мне знать, если у вас есть какие-либо проблемы! И если вам это нравится, я (когда он будет в приличном состоянии) опубликую ссылку на мой репозиторий, где вы сможете скачать более новые версии.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .