Существует ли какой-либо сценарий или служба, которая посещает указанный веб-сайт каждые X минут?
6 ответов
Чтобы ударить его каждые две минуты:
while true; do curl yourwebsite.com >/dev/null; sleep 120; done
Если вы хотите, чтобы это работало весь день и ночь, воспользуйтесь какой-либо службой планирования заданий, такой как cron (но, конечно, без цикла while).
import time
import urllib
while True:
time.sleep(60)
place = urllib.urlopen('http://www.google.com')
print place.code
place.read()
Мне кажется, что керл не собирается этого делать. В конце концов, зачем вам постоянно получать данные, если они не меняются?
Я написал граббер спутниковых фотографий на Java, потому что хотел получать спутниковые фотографии каждые 15 минут.
Псевдокод выглядит так:
- скачать файл
- сравнить с последним файлом (это можно сделать, сравнив длину, поскольку почти всегда, если длина одинакова, файл не изменился. Вам все равно придется сравнивать байты, но только когда длина файла не изменилась)
- если файлы одинаковые, спите и вернитесь к 1
- если они отличаются, запишите новый под новым порядковым номером (sat1.jpg, sat2.jpg и т. д., сохраните новый как старое изображение для следующего сна, затем вернитесь к 1.
Хотя эта часть вашего вопроса не по теме, для полноты: на сайте onlinecronservices.com перечислены некоторые веб-сервисы, которые могут выполнять удаленные вызовы за вас. Полагаю, бесплатные услуги не слишком надежны или допускают только один вызов в день.
Используйте wget с заданием cron. по крайней мере, под Linux. Вот так я запускаю свои скрипты резервного копирования и db-syncs на своих сайтах