Как извлечь все внешние ссылки веб-страницы и сохранить их в файл?
Если есть какие-либо инструменты командной строки, это было бы здорово.
Это был совершенно тот же вопрос здесь, и ответ работал корректно для google.com, но по какой - то причине он не работает, например , с YouTube. Я объясню: давайте возьмем для примера эту страницу. Если я попытаюсь бежать
lynx -dump http://www.youtube.com/playlist?list=PLAA9A2EFA0E3A2039&feature=plcp | awk '/http/{print $2}' | grep watch > links.txt
затем он, в отличие от его использования на google.com, сначала выполняет дамп lynx, затем передает управление awk (по какой-то причине с пустым вводом) и, наконец, ничего не записывает в файл links.txt. Только после этого он отображает нефильтрованный дамп lynx, без возможности перенести его в другое место.
Заранее спасибо!