|
|
|
| Я не силен в пхп, но мне интересен и больше по душе именно он.
У меня вопрос такого хар-ра: как защитить свой сайт или отдельные его элементы от копирования программами типа "Telepor Pro" или аналогами написанными опять же на php.
В Java есть пару приемов (открытие ссылки в новом окне и пр), но не всегда это удобно, и повторюсь мне нравитсья пхп.
Подскажите пожалуста что можно придумать, например для каталога фотографий или файлов, чтобы человек мог сохранить картинку, только из браузера, а программы по скачиванию сайтов пропускали такие ссылки
Заранее благодарен | |
|
|
|
|
|
|
|
для: napTu3aH
(24.07.2005 в 12:53)
| | Можно по USER_AGENT
<?php
if(strpos($HTTP_USER_AGENT,"Teleport Pro")!==false) exit();
?>
|
только его подделывают часто... можно отслеживать чтобы с одного IP-адреса качали не чаще чем одну страницу за одну секунду. | |
|
|
|
|
|
|
|
для: cheops
(24.07.2005 в 13:03)
| | этот код проверяет какой брайзер подключаеться к странице?
в самом Телепорте есть функция
идентифицировать его не как программу, а например как Нетскейп или Эксплорер
, что делать в таков случае.
>с одного IP-адреса качали не чаще чем одну страницу за одну
>секунду.
если в Телепорте поставить-качать по 1 файлу, он медленно но уверенно скачает весь сайт.
можно сделать, чтобы файлы или картинки лежали в недоступном месте для броузера, а когда его хотят скачать он копировался в папку "темп" и уже оттуда происходила загрузка.?
Это может решить данную проблему?
Заранее благодарен | |
|
|
|
|
|
|
|
для: napTu3aH
(24.07.2005 в 13:14)
| | Тут ничего не поделаешь, когда содавали протоколы, которые лежат в основе Интернет о таких вещах не задумывались... а сейчас так просто уже оборудование и софт во всем мире не заменишь... Отсечёте по крайней мере часть, кому будет лень разбираться в настройках Телепорта. Это хороший компромис - всех всё равно не отсечёте - есть ещё извращенцы типа меня которые любят монотонную работу - т.е. сохранение каждой страницы в ручную, а потом расстановки гиперссылок между страницами при помощи регулярных выражений... Если вы предоставляете пользователям доступ к информации - единственный способ надёжно защитить его - вообще закрыть доступ. | |
|
|
|
|
|
|
|
для: cheops
(24.07.2005 в 18:47)
| | >всех всё равно не отсечёте - есть ещё извращенцы типа меня
>которые любят монотонную работу - т.е. сохранение каждой
>страницы в ручную, а потом расстановки гиперссылок между
>страницами при помощи регулярных выражений...
:) это надо ООЧень любить монотонную работу :)
на днях попросили скачать сайт
[url]www.dic.academic.ru[/url]
после пары часов за компом я решил найти и скачать все словари отдельно по 1 файлу. :)
большое спасибо за понятные ответы | |
|
|
|
|
|
|
|
для: napTu3aH
(24.07.2005 в 19:10)
| | Меня хватает на 2 дня по 12 часов :))) | |
|
|
|
|
|
|
|
для: cheops
(24.07.2005 в 21:53)
| | А у меня стоит связка CoolProxy2+Proxomitron.
Все кэшируеться для просмотра в оффлайне и режеться реклама :))
Да мне даже делать не чего не надо :) Пути такие же как и на сайте. | |
|
|
|
|
|
|
|
для: Akira
(24.07.2005 в 22:12)
| | У меня к концу марафона обычно тоже возникает желание чего-нибудь поставить... но уже ни сил, ни желания не остаётся :))) | |
|
|
|
|
|
|
|
для: cheops
(24.07.2005 в 22:26)
| | А я не для этого ставил :) У меня траффик дорогой, а с этим экономия 50%. | |
|
|
|
|
|
|
|
для: cheops
(24.07.2005 в 13:03)
| | что касаетсья картинок, можно ли делать так:
www\somesite.ru\img\
лежат все картинки но доступ к каталогу закрыт через браузер
php берет оттуда нужную картинку, когда к ней обращаеться пользователь, создает копию и выводит ее в браузер, без сохранения на диск, когда страница закрывается память очищаеться.
Насколько я понимаю если в браузере сохранить такую страницу с, картинки с таким скриптом не сохраняться, т.к. будут ссылатсья на несуществующий файл.
это может помочь?
спасибо | |
|
|
|
|
|
|
|
для: napTu3aH
(24.07.2005 в 13:37)
| | Все что пришло на машину пользователя можно считать потерянным. И картинки тоже. Раз они отобразились в браузере – значит они уже сохранены на диск пользователя во временных файлах. У них могут быть чудные имена (по имени скрипта с прибавлением каких-либо символов), но тем не менее их копия уже есть у пользователя. | |
|
|
|
|
|
|
|
для: glsv (Дизайнер)
(24.07.2005 в 15:47)
| | в браузере пускай копирую, я только ЗА!
проблема заключаетсья в том что-бы пользователи не делали полную копию сайта
через программы типа "Телепорт Про, Офлайн Експлорер и тд"
например [url] zoneofgames.narod.ru[/url]
с сайта нельзя программами скачать НоСД
в то время как через любой браузер с вкл. java их можно скачать
как такой метод реализовать в пхп? | |
|
|
|
|
автор: Никоза (25.07.2005 в 19:31) |
|
|
для: napTu3aH
(24.07.2005 в 17:49)
| | Ври придёт ночью дядка Телепорт, и поукрадёт у Вас все сайты!!! | |
|
|
|
|
автор: Никоза (25.07.2005 в 19:32) |
|
|
для: Никоза
(25.07.2005 в 19:31)
| | Вот придёт ночью дядька Телепорт, и поукрадёт у Вас все сайты!!! | |
|
|
|
|
|
|
|
для: Никоза
(25.07.2005 в 19:32)
| | Есть еще прием. Можно сделать ссылку типа <a href=stop.php></a> И если запустился stop.php, значит, это качалка. Что делать - зависит от воображения=) Или не ссылку, а <img src=stop.php width=1 height=1> | |
|
|
|
|
|
|
|
для: Киналь
(25.07.2005 в 20:58)
| | Ребята защититься нельзя не от чего можно простми ыункциями ПХП просто взять и слить все под ноль к себе и никакая ссылка stop етого не заметит ! | |
|
|
|
|
|
|
|
для: Spalax
(26.07.2005 в 02:07)
| | 100% защититься, конечно, нельзя, но можно значительно усложнить задачу скачивания сайта программами качалками. 80-90% людей остановятся после первого же препятствия и пойдут качать другой – более лояльный сайт. | |
|
|
|
|
|
|
|
для: Киналь
(25.07.2005 в 20:58)
| | Расширю ответ Киналя.
Задача - определить кто скачивает сайт: качалка или человек. Один из приемов это сделать – разместить на странице не видимые пользователю ссылки. Либо пустые ссылки, либо ссылки на прозрачные изображения размера 1 на 1 пиксель.
<a href=stop.php></a>
<a href=stop.php><img src=img.gif width=1 height=1></a>
|
Пользователь такие ссылки не сможет найти, а вот программа-качалка с большой степенью вероятности по ним пройдется.
В скрипте stop.php можно разместить сигнализатор, который будет определять IP адрес, с которого происходит и закачка и заносить его в стоп-лист.
И на всех страницах сайта проверять стоп-лист : если IP-адрес посетителя занесен туда, то не отдавать страницу.
> Или не ссылку, а <img src=stop.php width=1 height=1>
А вот так сделать не получится, т.к. скрипт stop.php будет выполняться всегда при просмотре страницы браузером. | |
|
|
|
|
|
|
|
для: glsv (Дизайнер)
(26.07.2005 в 05:43)
| | По моему, тема постепенно сказывается "как не допустить индексирования сайта поисковиками":)
Собственно, я не вижу проблемы в том, чтобы кто-то выкачивал сайт: многие сидят на модеме, и им значительно удобнее читать в оффлайне. | |
|
|
|
|
|
|
|
для: Loki
(26.07.2005 в 09:25)
| | Да мы тоже отказались от такой защиты в своё время. | |
|
|
|
|
|
|
|
для: napTu3aH
(24.07.2005 в 12:53)
| | Можно попробовать неэффективный, но до ужаса параноидальный способ зажиты от качалок: все ссылки сделать с конфирмом. | |
|
|
|