|
|
|
| Здравствуйте. Передо мной стоит задача парсинга некоторых социальных ресурсов, такие как facebook, twitter и др. по определенным тегам. С этим все понятно, все эти сервисы предоставляют гибкое api, по которым можно получить интересующие результаты.
Далее всю эту информацию выводить на сайте. Первая мысль пришедшая в голову, сделать все на JS. Здесь сталкиваюсь с первыми трудностями, запросы должны быть асихронные, дабы получать информацию со всех ресурсов одновременно. Думаю, это можно сделать, но у меня они постоянно собачились друг с другом и работал в итоге только один.
Но реализация всего на JS, мне показалось несколько грубой, т.к. все будет происходить на стороне клиента, а это достаточно большой трафик.
Поэтому на данном этапе развития, у меня есть мысль сделать бэкенд который будет собирать (парсить) всю необходимую информацию с данных ресурсов. Например раз в 5 минут и заливать в базу. Из которой уже будет выводится информация на сайт. Попутно подгружая новые записи через ajax. Получается парсер должен работать намного чаще чем раз в 5 пять, а скорее раз в 5 секунд, дабы постоянно проверять обновления на ресурсах.
Правильны ли мои рассуждения? | |
|
|
|
|
|
|
|
для: Бамси
(12.12.2011 в 17:43)
| | Ну 5 секунд не факт что вам удасться реализовать, учитывая, что кроны меньше 1 минуты не позволяют использовать, вам придется еще и свой планировщик писать или искать готовый и интегрировать. Лучше задачи разделить, что можно тащите и разбирайте сервером, если этой информации нет, полагайтесь на JS, т.е. пусть сервер помогает, но без строгих временных ограничений - есть информация, хорошо, нет - пусть клиент сам работает. | |
|
|
|