|
|
|
|
|
для: ASK_EL
(11.01.2006 в 08:00)
| |
$text=file_get_contents("http://ya.ru");
|
| |
|
|
|
|
|
|
|
для: cheops
(10.01.2006 в 14:31)
| | Я имел в виду поконкретнее в вопросе как загрузить и что это вообще будет представлять изи себя?
Насчет разбора я справлюсь, главное мне сейчас как то получить эту страницу! | |
|
|
|
|
|
|
|
|
для: cheops
(09.01.2006 в 22:34)
| | >Написать скрипт который будет загружать переодически
>страницу, например, при помощи функции file_get_contents(),
>затем можно постепенно начинать её разбирать.
А поконкретнее можно!
Я хотел бы со страницы забирать некототые параметры(типа температура).
Я знаю после чего она идет, а как забрать значение?
И можно ли будет все это организовать для работы через проксю? | |
|
|
|
|
|
|
|
для: Boss
(09.01.2006 в 14:46)
| | Написать скрипт который будет загружать переодически страницу, например, при помощи функции file_get_contents(), затем можно постепенно начинать её разбирать.
После того, как разбор будет проходить корректно - следует наладить cron-задание, которое будет запускать скрипт в назначенное время. | |
|
|
|
|
|
|
|
для: cheops
(08.01.2006 в 22:15)
| | И с чего лучше начать? | |
|
|
|
|
|
|
|
для: WebTech
(08.01.2006 в 21:58)
| | Всякие ненужные ссылки и тому подобное.... Может уже кто нить пробывал сделать такое? | |
|
|
|
|
|
|
|
для: Boss
(08.01.2006 в 18:14)
| | Можно. | |
|
|
|
|
|
|
|
для: Boss
(08.01.2006 в 18:14)
| | Наверное возможно, если есть cron.
А что вы понимаете под "контентом" и "мусором"? | |
|
|
|
|
|
|
| Можно ли написать робота который с переодичной точностью копирует контент с ряда сайтов, чистит его от "мусора" и складывает в базу с заданными полями? | |
|
|
|
|