|
|
|
| Здравствуйте!
1)Вопрос про ответственность за несанкционированное скачивание информации, к примеру сайт погоды я сдираю подробную инфу за три дня, и вставляю уже в свой погодный информер, который занимает пространство 650 на 500 пикселей, и который может быть расположен на множестве сайтов.
2) механизм. создавать под каждый город отдельную страницу граббера или созать одну страницу и пропускать file_get_contents () через массив?, нужно ли разносить по времени "подключение", чтоб бы защита сайта если она есть не могла высчитать по "интенсивности" , того что сайт грабят? | |
|
|
|
|
|
|
|
для: ronin
(06.03.2009 в 10:45)
| | 1) Не очень понятно в чем вопрос?
2) Скорее всего если вы попытаетесь в режиме нон-стоп обращаться к сервису, причем с IP-адреса принадлежащему хост-провайдеру - этот IP-адрес быстро заблокируют. | |
|
|
|
|
|
|
|
для: cheops
(07.03.2009 в 03:27)
| | а крон решает проблему? т.е. при использовании одного ай-пи - ничего не получиться? | |
|
|
|
|
|
|
|
для: ronin
(08.03.2009 в 14:12)
| | а если использовать джава-скриптный парсер xml файла? К примеру я с помощью JS считываю xml и закидываю данные в БД, а оттуда формирую свой xml. Может меня сайт "донор" высчитать, к примеру имеется множество xml файлов и забанить, или на клиентскую часть возможности контроля и блокировки нет? | |
|
|
|