|
|
|
| Как защитить свой сайт от обычных download менеджеров? То есть я имею сайт на http://somwhere.com/index.php я набираю в своем Reget http://somwhere.com/index.php и он без проблем закачивает нужную страницу. Как это предотвратить. | |
|
|
|
|
|
|
|
для: shurc-c
(06.10.2005 в 21:54)
| | Да практически никак - USER_AGENT такими менедржерами подделывается. Одним из выходов - является фиксация IP-адресов пользователей. Если пользователь обращается к страницам сайта чаще чем 1 раз в 1 или 2 секунды - это робот, пользователь с такой скоростью не работает. При такой частоте следует посылать нотацию вместо страницы. Если случается более 10 частых обращений в секунду - IP-адрес следует забанить на полчаса.
PS Такие приёмы плохо отражаются на роботах поисковых систем и вы можете здорово подорвать раскрутку собственного сайта. | |
|
|
|
|
|
|
|
для: cheops
(06.10.2005 в 23:18)
| | а можно сделать скрытую ссылку которая будет ссылаться на скрипт бана... отфильтровать там всех известных роботов... и добавить в бан айпи адресс тех кто хочет скачать сайт | |
|
|
|
|
|
|
|
для: hiper
(15.10.2005 в 13:55)
| | хм, в принципе вполне реально! для этого необходимо создать небольшой админ центр, и базу данных, ставим вычисление ip-шников в базу плюс распознание - откуда пришёл, выот и в админке смотрим кто откуда заходил, далее отсортировываем известных ботов отдельню группу с правом доступа к страницам сайта а остальных в другую группу и банить их к чертям :)) | |
|
|
|
|
|
|
|
для: 10100100
(15.10.2005 в 14:29)
| | Ага, особенно если ip динамический, забанить всю серию, пусть все пользователи от этого провайдера лапу сосут ;)
Что плохого в том, что у вас скачают сайт качалкой, а не браузером? Ну не будет нескольких хитов....не секреты же там!! | |
|
|
|
|
|
|
|
для: shurc-c
(06.10.2005 в 21:54)
| | Или вы о том, что пользователь может скачать php код вашей страницы?? Не может. | |
|
|
|