Можно ли написать робота который с переодичной точностью копирует контент с ряда сайтов, чистит его от "мусора" и складывает в базу с заданными полями?
Написать скрипт который будет загружать переодически страницу, например, при помощи функции file_get_contents(), затем можно постепенно начинать её разбирать.
После того, как разбор будет проходить корректно - следует наладить cron-задание, которое будет запускать скрипт в назначенное время.
>Написать скрипт который будет загружать переодически
>страницу, например, при помощи функции file_get_contents(),
>затем можно постепенно начинать её разбирать.
А поконкретнее можно!
Я хотел бы со страницы забирать некототые параметры(типа температура).
Я знаю после чего она идет, а как забрать значение?
И можно ли будет все это организовать для работы через проксю?
Я имел в виду поконкретнее в вопросе как загрузить и что это вообще будет представлять изи себя?
Насчет разбора я справлюсь, главное мне сейчас как то получить эту страницу!