Форум: Форум PHPФорум ApacheФорум Регулярные ВыраженияФорум MySQLHTML+CSS+JavaScriptФорум FlashРазное
Новые темы: 0000000
Социальная инженерия и социальные хакеры. Авторы: Кузнецов М.В., Симдянов И.В. Программирование. Ступени успешной карьеры. Авторы: Кузнецов М.В., Симдянов И.В. PHP. Практика создания Web-сайтов (второе издание). Авторы: Кузнецов М.В., Симдянов И.В. PHP 5. На примерах. Авторы: Кузнецов М.В., Симдянов И.В., Голышев С.В. PHP на примерах (2 издание). Авторы: Кузнецов М.В., Симдянов И.В.
ВСЕ НАШИ КНИГИ
Консультационный центр SoftTime

Разное

Выбрать другой форум

 

Здравствуйте, Посетитель!

вид форума:
Линейный форум Структурный форум

тема: Crawl-delay в robots.txt
 
 автор: Владимир55   (04.03.2009 в 18:53)   письмо автору
 
 

Какую функцию выполняет на сервере Crawl-delay, помещенный в robots.txt?

Именно с позиции сервера, а не как директива поисковика. Есть у нее серверная функция?

  Ответить  
 
 автор: ddhvvn   (04.03.2009 в 20:45)   письмо автору
 
   для: Владимир55   (04.03.2009 в 18:53)
 

>Именно с позиции сервера, а не как директива поисковика. Есть у нее серверная функция?
Ммм... что Вы имеете ввиду?
Но если я Вас правильно понял, то никакую.
Ведь это ж не конфиг сервера и ему пофиг есть robots.txt или нету его.
Он его по идее не трогает.

  Ответить  
 
 автор: AcidTrash   (04.03.2009 в 21:42)   письмо автору
 
   для: Владимир55   (04.03.2009 в 18:53)
 

Ответ здесь
http://webmaster.ya.ru/replies.xml?item_no=1338&ncrnd=1816

  Ответить  
 
 автор: Владимир55   (04.03.2009 в 23:53)   письмо автору
 
   для: AcidTrash   (04.03.2009 в 21:42)
 

Это я знаю.

Но вот встретилась статеечка, в которой сказано о методе защиты сайта от повреждения с использованием Crawl-delay в роботсе.

Я и сам в недоумении: может, и было бы возможно что-то сделать, если бы сам сервер понимал Crawl-delay. Подумал, что может серверное программирование так далеко ушло... Вот и решил спросить.

  Ответить  
 
 автор: cheops   (05.03.2009 в 00:08)   письмо автору
 
   для: Владимир55   (04.03.2009 в 23:53)
 

Сервер можно на многое запрограммировать, однако, я не слышал, чтобы штатное серверное ПО как-то реагировало на robots.txt. Обычно этот файл для внешних роботов предназначен поэтому он и текстовый - серверные директивы стараются наоборот от посторонних глаз скрыть.

  Ответить  
 
 автор: GeorgeIV   (05.03.2009 в 10:16)   письмо автору
 
   для: Владимир55   (04.03.2009 в 23:53)
 

Дело не в том, понимает это сервер или нет. А дело в снижении нагрузки на сервер от роботов, если сервер и так работает на пределе то эта директива позволит ему отмахнуться от назойливости поисковика.

  Ответить  
 
 автор: Владимир55   (05.03.2009 в 11:48)   письмо автору
 
   для: GeorgeIV   (05.03.2009 в 10:16)
 

Это основное применение.
Но люди нашли и другое - защиту от скачивания.

  Ответить  
 
 автор: GeorgeIV   (05.03.2009 в 14:52)   письмо автору
 
   для: Владимир55   (05.03.2009 в 11:48)
 

А причем тут robots.txt и защита от скачивания?

  Ответить  
 
 автор: Владимир55   (05.03.2009 в 20:15)   письмо автору
 
   для: GeorgeIV   (05.03.2009 в 14:52)
 

Может, какое-то ноу-хау.

Но как-то делается, это точно.

  Ответить  
 
 автор: GeorgeIV   (06.03.2009 в 10:07)   письмо автору
 
   для: Владимир55   (05.03.2009 в 20:15)
 

А где информация об этом есть? или это так, по слухам?

  Ответить  
 
 автор: Владимир55   (06.03.2009 в 12:54)   письмо автору
 
   для: GeorgeIV   (06.03.2009 в 10:07)
 

Была бы точная информация - я бы уже попробовал. На одном из форумов был пост на сей счет. Типа, Гугль давно имеет эту опцию, но толку от этого нет, поскольку яндекс отстает. А теперь нет преград для создания защиты, поскольку два основных поисковика эту директиву используют.

Я с автором в личку связался, но он от конкретного ответа ушел: общие слова, "А как с роботсом, ты и сам знаешь".

Вот ищу, где могу, но пока что нет результатов.

  Ответить  
 
 автор: GeorgeIV   (06.03.2009 в 17:10)   письмо автору
 
   для: Владимир55   (06.03.2009 в 12:54)
 

фигня все это, вот и нет конкретной информации.

  Ответить  
 
 автор: Владимир55   (06.03.2009 в 21:44)   письмо автору
 
   для: GeorgeIV   (06.03.2009 в 17:10)
 

Может быть и так.

А с другой стороны, из seo-шников фиг что вытянешь... Они делают парсеры, которые таскают абсолютно всё, а потому средства противодействия раскрывать им невыгодно.

  Ответить  
Rambler's Top100
вверх

Rambler's Top100 Яндекс.Метрика Яндекс цитирования