|
| |
|
|
| |
для: Loki
(02.12.2006 в 21:30)
| | | :) | |
| |
|
|
| |
|
|
| |
для: wemd
(01.12.2006 в 23:08)
| | | А Волга впадает в Каспийское море... | |
| |
|
|
| |
|
|
| |
для: Loki
(01.12.2006 в 17:55)
| | | трех сотен юзерагентов= u menea site bil 450 тиц.. это все юзерагенты которые собрал... | |
| |
|
|
| |
|
|
| |
для: cheops
(01.12.2006 в 18:05)
| | | Если честно, то я так и не понял, как решить проблему!
Нужно что ли выбирать? либо юзеры, либо роботы! либо нагрузка на сервер! | |
| |
|
|
| |
|
|
| |
для: Loki
(01.12.2006 в 17:55)
| | | Среди роботов, кстати, попадаются проверщики, которые смотрят не обманывают ли поисковый робот - если такой робот не найдёт страницы, которые нашёл поисковый робот, то поисковый движок будет считать, что роботам выдаётся одна информация, а людям другая. | |
| |
|
|
| |
|
|
| |
для: wemd
(01.12.2006 в 17:41)
| | | У меня накопилось уже больше трех сотен юзерагентов, которых трудно однозначно идентифицировать... процентов 80 из них - различного рода роботы. Всех будем в массив вносить?:)
Да и опять же: качалки наверняка позволяют ставить любой юзерагент. | |
| |
|
|
| |
|
|
| |
для: Diablo_
(01.12.2006 в 16:12)
| | | v logah smotri6i i vse | |
| |
|
|
| |
|
|
| |
для: wemd
(01.12.2006 в 12:08)
| | | ну боты то обновляются! ещё головная боль, что бы следить за их обновлениями! | |
| |
|
|
| |
|
|
| |
для: XPraptor
(01.12.2006 в 04:09)
| | | $agent_ip= $_SERVER['HTTP_USER_AGENT'];
//PROVERITI NA POISKOVIH BOTOV
$poiskovoi_bot = array("StackRambler", "Googlebot", "Yandex", "Aport", "msnbot", "FAST-WebCrawler", "Slurp/cat", "ASPseek/1.2.10", "CNSearch", "Yahoo", "psbot/0.1", "Rambler", "Mail", "MJ12bot", "TurnitinBot", "Snapbot", "Accoona-AI-Agent", "Jayde Crawler");
for ($i=0;$i<count($poiskovoi_bot);$i++) if (strpos($agent_ip,$poiskovoi_bot[$i])) $actionx=1;
ну и если $actionx=0, то баните..
|
| |
| |
|
|
| |
|
|
| |
для: wemd
(01.12.2006 в 00:38)
| | | http://php.spb.ru/other/_dima_noflood.php вот держи и не мучайся.
Я когда то тоже пробывал это, но потом догнал, что как бы не защитил сайт, а роботов поисковых пускать надо. Поэтому нужно в обход защите хранить свежие базы роботовских айпишников и пропускать их, а так сайт навсегда зависнет в конце списка выдачи при поиске. | |
| |
|
|
|