|
|
|
| Сайт содержит редко обновляемые статические файлы. Редко - это значит, что вообще неизвестно когда. Но уж точно не чаще раза в неделю. А если так, то представляется целесообразным задать Cache-Control и Expires на неделю, а то и больше.
Смущает политический вопрос - делают ли такую настройку на практике?
Судя по статьям, что-то всё больше бьются за противодействие кеширования, а тут я, как бы, против течения... | |
|
|
|
|
|
|
|
для: Владимир55
(05.02.2012 в 11:18)
| | >Смущает политический вопрос - делают ли такую настройку на практике?
Конечно и протокол это довольно настойчиво рекомендует.
>Судя по статьям, что-то всё больше бьются за противодействие кеширования, а тут я, как бы,
>против течения...
Так борятся на сайтах, где контент добавляют сами пользователи и им важно увидеть реакцию сервера и где важна посещаемость (баннерная активность).
Тут вот как произошло, дело в том, что когда лет 10 назад люди массово стали прибывать в Интернет, провайдеры, хостеры, держатели сайтов схватились за голову, так как посещаемость и нагрузка стали расти постоянно. Поэтому они на промежуточных хостах стали закручивать все гайки в области кэширования (в первую голову изображений, CSS и JS-файлов)... т.е. чтобы если уж есть возможность пользователю отдать страницу, не лазя на сервер - отдать из кэша. Т.е. на практике, когда ваша страница ляжет на кэширующем сервере провайдера (а то и в браузере), а пользователь захочет дня через три почитать ту же самую страницу, до вашего сервера запрос может вообще не дойдет (кстати, говоря не обновится и статистика по посещаемости и не посмотрится рекламный баннер, если он там есть). Провайдеру от этого очень хорошо, хостеру - замечательно, а вот вам - сами смотрите, если для вас потеря посещения не критична и вообще не волнует - все вам только спасибо скажут (нагрузка на сеть падает), а если важно держать руку на пульсе в плане статистики, нужна баннерная активность, то вместо выставления недельных кэшей, лучше тоже подавлять кэширование. | |
|
|
|
|
|
|
|
для: cheops
(05.02.2012 в 11:27)
| | В дальнейшем было бы любопытно запротоколировать поведение роботов на каждой странице и посмотреть, как они себя ведут, но и уже сейчас в PhpMyAdmin можно наблюдать некоторые особенности.
1. При просмотре главной страницы роботы Яндекс и Гугл никогда не запрашивают даты её создания. При этом Яндекс смотрит один раз и уходит, а Гугл «тюкает» главную страницу три раза подряд в течение одной секунды.
Интересно, зачем это ему надо?
2. Некоторые внутренние страницы Яндекс смотрит четыре раза.
Первый раз без запроса даты создания.
Второй раз через 200 секунд тоже без запроса даты создания.
Третий раз через 300 секунд с запросом даты создания.
Четвертый раз через 30 секунд с запросом даты создания.
Словно проверяет, не обманывают ли его… | |
|
|
|
|
|
|
|
для: Владимир55
(05.02.2012 в 12:16)
| | >Словно проверяет, не обманывают ли его…
Ну это они постоянно делают... я думаю, там спустя некоторое время приходит еще и теневой робот (с другого IP-адреса), который выглядит как обычный посетитель. Если трафик перехода пользователей со страниц Яндекса на сайт превышает определенный уровень, я думаю туда и живой проверяющий подтягивается (ну если руки доходят, конечно, сейчас то наверное это уже редкость). | |
|
|
|
|
|
|
|
для: cheops
(05.02.2012 в 12:19)
| | Почему то не сработал код:
<?php
header("Expires: " . gmdate("D, d M Y H:i:s \G\M\T", time() + 604800);
|
| |
|
|
|
|
|
|
|
для: Владимир55
(05.02.2012 в 12:46)
| | А в чем "не работа" заключается? | |
|
|
|
|
|
|
|
для: cheops
(05.02.2012 в 12:52)
| | Без этой строки в отклике Expires с датой 1981 года.
А при наличии этой строки, Expires в списке выданных заголовков вообще отсутствует. | |
|
|
|
|
|
|
|
для: Владимир55
(05.02.2012 в 13:06)
| | Ошибку удалось отловить, спасибо! | |
|
|
|