Существует ли какой-либо сценарий или служба, которая посещает указанный веб-сайт каждые X минут?

6 ответов6

7

Чтобы ударить его каждые две минуты:

while true; do curl yourwebsite.com >/dev/null; sleep 120; done

Если вы хотите, чтобы это работало весь день и ночь, воспользуйтесь какой-либо службой планирования заданий, такой как cron (но, конечно, без цикла while).

1
import time
import urllib

while True:
    time.sleep(60)
    place = urllib.urlopen('http://www.google.com')
    print place.code
    place.read()
0

Вы смотрели на curl или wget и использовали его в сценарии оболочки или другом виде сценария?

0

Мне кажется, что керл не собирается этого делать. В конце концов, зачем вам постоянно получать данные, если они не меняются?

Я написал граббер спутниковых фотографий на Java, потому что хотел получать спутниковые фотографии каждые 15 минут.

Псевдокод выглядит так:

  1. скачать файл
  2. сравнить с последним файлом (это можно сделать, сравнив длину, поскольку почти всегда, если длина одинакова, файл не изменился. Вам все равно придется сравнивать байты, но только когда длина файла не изменилась)
  3. если файлы одинаковые, спите и вернитесь к 1
  4. если они отличаются, запишите новый под новым порядковым номером (sat1.jpg, sat2.jpg и т. д., сохраните новый как старое изображение для следующего сна, затем вернитесь к 1.
0

Хотя эта часть вашего вопроса не по теме, для полноты: на сайте onlinecronservices.com перечислены некоторые веб-сервисы, которые могут выполнять удаленные вызовы за вас. Полагаю, бесплатные услуги не слишком надежны или допускают только один вызов в день.

0

Используйте wget с заданием cron. по крайней мере, под Linux. Вот так я запускаю свои скрипты резервного копирования и db-syncs на своих сайтах

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .