| |
|
|
| | Здравствуйте)
у меня вот вопрос общего характера) Сейчас появляются роботы которые лазиют по сайтам интернет-магазинов и ищут минимальную цену для данного товара) Вот хотел спросить, какие основные принципы работы таких роботов, и как защитить свой магазин от этого, с минимальными неудобствами для пользователей?)) может, какую-нибудь статейку подкинете или еще чего))
спасибо) | |
| |
|
|
| |
|
|
| |
для: ~Тор4ок~
(22.03.2007 в 23:13)
| | | Собственно, практически никак - попробуйте проверять содержимое переменной $_SERVER['HTTP_USER_AGENT'] - возможно кому-то будет лень подделывать его... можно анализировать IP-адреса посетителей, которые наиболее интенсивно обращаются к страницам - если IP-адреса принадлежат не обычным провайдерам, а хост-провайдерам - блокировать таких посетителей. | |
| |
|
|
| |
|
|
| |
для: cheops
(23.03.2007 в 01:31)
| | | Скажите, а как отличить хост-провайдера от обычного провайдера? | |
| |
|
|
| |
|
|
| |
для: tauruz
(19.05.2007 в 23:21)
| | | У провайдеров обычно не бывает сайтов на IP-адресах, с которых осуществляется доступ в сеть клиентами, у хост-провайдеров они обязательно присутствуют. | |
| |
|
|
| |
|
|
| |
для: ~Тор4ок~
(22.03.2007 в 23:13)
| | | Так как все-таки это робот, а не браузер клиента он не может выполнять скрипты на стороне клиента(скрипты javascript, например). Выход - выводить цены не через РНР а так, например,
<script>
var cena;
document.write('Минимальная цена' + cena);
</script>
|
http://www.klax.tula.ru/~mihdan | |
| |
|
|
| |
|
|
| |
для: mihdan
(23.03.2007 в 13:16)
| | | а по поводу выводить через скрипты - эт зря... если у меня они отключены, то я вообще ничего не увижу или увижу неактуальные цены... типа меня накололи получится =) | |
| |
|
|
| |
|
|
| |
для: ~Тор4ок~
(22.03.2007 в 23:13)
| | | А чем они Вам мешают? | |
| |
|
|
| |
|
|
| |
для: Trianon
(23.03.2007 в 16:04)
| | | стопудово не мешают, а помогают, но для них (для роботов) - СПЕЦ ПРАЙС... все товары по 1 копейке =))))) | |
| |
|
|
| |
|
|
| |
для: ~Тор4ок~
(22.03.2007 в 23:13)
| | | Мда, если роботы Вам совсем мешают (интересно чем?), то помимо определения IP и проверки данных в $_SERVER['HTTP_USER_AGENT'] можно придумать что-то вроде механизма анализа принадлежности данного посетителя к роботу или человеку. Роботы скачивают страницы в определенной последовательности и с определенным интервалом времени, скорее всего человек не успеет за этот промежуток времени прогладеть столько, сколько сможет выкачать робот, попробуйте анализировать время между просмотрами страниц, а также последовательность просмотра страниц, наверняка найдете какую-нибудь закономерность... ;-)
Подобный механизм я как-то делал, но не для защиты от роботов, а для борьбы с компьютерными вандалами, давно как-то поддерживал сайт крупной мебельной компании РФ, сайт находился на 1 месте в Яндексе по запросу 'мебель', да и вообще по многим ключевым словам семантического ядра, как водится конкуренты не дремлют...
А чем все-таки Вам роботы не нравятся?
Если они еще и ссылки ставят на Ваши товары в сети, так они получается полезны... | |
| |
|
|
| |
|
|
| |
для: mefestofel
(19.05.2007 в 23:44)
| | | У меня например иногда тормозит сервер, возможно это хостстеры что то крутят. но я предпологаю, это работа робота.
Может конечно и другие варианты есть?
p.s. Траф у сайта не большой, одновременно не больше 4 юзеров сидит. | |
| |
|
|
| |
|
|
| |
для: tauruz
(20.05.2007 в 00:03)
| | | > У меня например иногда тормозит сервер
Вы наверное имели в виду сайт? | |
| |
|
|
| |
|
|
| |
для: mefestofel
(20.05.2007 в 00:11)
| | | Да | |
| |
|
|