Форум: Форум PHPФорум ApacheФорум Регулярные ВыраженияФорум MySQLHTML+CSS+JavaScriptФорум FlashРазное
Новые темы: 0000000
MySQL на примерах. Авторы: Кузнецов М.В., Симдянов И.В. PHP Puzzles. Авторы: Кузнецов М.В., Симдянов И.В. C++. Мастер-класс в задачах и примерах. Авторы: Кузнецов М.В., Симдянов И.В. Социальная инженерия и социальные хакеры. Авторы: Кузнецов М.В., Симдянов И.В. Самоучитель PHP 5 / 6 (3 издание). Авторы: Кузнецов М.В., Симдянов И.В.
ВСЕ НАШИ КНИГИ
Консультационный центр SoftTime

Форум PHP

Выбрать другой форум

 

Здравствуйте, Посетитель!

вид форума:
Линейный форум Структурный форум

тема: Сканирование директорий удалённого сайта
 
 автор: dima2207   (08.03.2007 в 17:48)   письмо автору
 
 

подскажите как реализовать сканирование всех (заранее не известных директорий удаленного сайта) при помощи функции file_get_content !!!Если это возможно конечно !!! или - же при помощи сокетов !!!
Нужно что-бы цыкл проходил по всем , начиная от корневой !!!

   
 
 автор: ddhvvn   (08.03.2007 в 17:51)   письмо автору
 
   для: dima2207   (08.03.2007 в 17:48)
 

может лучше scandir ?

   
 
 автор: dima2207   (08.03.2007 в 17:53)   письмо автору
 
   для: ddhvvn   (08.03.2007 в 17:51)
 

а она запишет содержимое страницы в переменную ??

   
 
 автор: Poison   (08.03.2007 в 17:55)   письмо автору
 
   для: dima2207   (08.03.2007 в 17:53)
 

Дык тебе нужно содержимое страниц или сканить директории?

   
 
 автор: Poison   (08.03.2007 в 17:54)   письмо автору
 
   для: ddhvvn   (08.03.2007 в 17:51)
 

Вабчето на удаленном хосте нельзя трогать директории:))

   
 
 автор: dima2207   (08.03.2007 в 17:57)   письмо автору
 
   для: Poison   (08.03.2007 в 17:54)
 

Да не трогать , а пройтись по всем и записать все страницы !!!

   
 
 автор: Poison   (08.03.2007 в 18:08)   письмо автору
 
   для: dima2207   (08.03.2007 в 17:57)
 

тоесть ходить будешь по сылкам как бот?
Тогдатебе надо регулярные, вытаскивать все сылки и потом по ним гулять и закачивать

   
 
 автор: dima2207   (08.03.2007 в 18:17)   письмо автору
 
   для: Poison   (08.03.2007 в 18:08)
 

да нет , я уже понял , я буду сначала получать список дерикторий , а потом уже в цыкле качать !!!! главное что-бы скандир работала на удаленном хосте !!!

   
 
 автор: Киналь   (08.03.2007 в 18:34)   письмо автору
 
   для: dima2207   (08.03.2007 в 17:48)
 

Хотите сайты целиком выкачивать? Не получится. Удаленную директорию сканировать нельзя никак - это противоречило бы всем канонам безопасности. Вы можете только ходить по ссылкам, как "качалка" типа Reget'а.

   
 
 автор: ddhvvn   (08.03.2007 в 18:51)   письмо автору
 
   для: Киналь   (08.03.2007 в 18:34)
 

Для скачивания всего сайта используйте старую, но проверенную программу Teleport

   
 
 автор: dima2207   (08.03.2007 в 19:21)   письмо автору
 
   для: ddhvvn   (08.03.2007 в 18:51)
 

да нет , телепорт мне не подойдет , мне нужно что-бы скриптом все делалось !!!! да , а ксьати как это делает телепорт ?? неужели ходит по всем ссывлкам , так -же и запутатся не долго !!!!

   
 
 автор: Киналь   (08.03.2007 в 19:23)   письмо автору
 
   для: dima2207   (08.03.2007 в 19:21)
 

Именно так и делает. А запутаться может только программист - ибо "машина дура - она делает только то, что ей говорит человек" (с)

   
 
 автор: dima2207   (08.03.2007 в 19:36)   письмо автору
 
   для: Киналь   (08.03.2007 в 19:23)
 

базара нема !!!!

   
 
 автор: ddhvvn   (08.03.2007 в 20:08)   письмо автору
 
   для: Киналь   (08.03.2007 в 19:23)
 

Согласен с Киналь ;-D

   
 
 автор: Unkind   (08.03.2007 в 21:59)   письмо автору
 
   для: dima2207   (08.03.2007 в 19:21)
 

Запутаться недолго? А как вы хотели? И почему вы постоянно кричите?

   
 
 автор: dima2207   (09.03.2007 в 01:31)   письмо автору
 
   для: Unkind   (08.03.2007 в 21:59)
 

а я не кричу , это у меня манера выражать свои мысли такая , но не все ее правельно воспринимают !!!

   
 
 автор: cheops   (09.03.2007 в 12:24)   письмо автору
 
   для: dima2207   (08.03.2007 в 17:48)
 

Сканировать содержимое директорий удалённого сайта нельзя - поисковики, системы загрузки сайтов, следуют по ссылкам.

   
 
 автор: ZuArt   (09.03.2007 в 12:51)   письмо автору
 
   для: cheops   (09.03.2007 в 12:24)
 

1) узнать структуру директорий и файлов на удаленном хосте нельзя - такой возможность просто отключается админами WEB-сервака
2) ходить можно максимум по ссылкам, которые дают НЕ физическую структуру папок и файлов, а ЛОГИЧЕСКУЮ структуру адресов
3) телепорт не запутывается по одной простой причине - он ведет 2 основных массива: обнаруженных адресов + "запрошенных" адресов.. и перед тем как вносить новый адрес в массив 1 проверяет его (адреса) наличие в массиве 2 (ну и естессно в массиве 1 адреса не повторяются)...

   
Rambler's Top100
вверх

Rambler's Top100 Яндекс.Метрика Яндекс цитирования