|
|
|
| Ситуация следующая - после запроса типа http://хххх/catalog/?city=5&full=all - выводится результат поиска по сайту - по 10 результатов на каждой странице, всего страниц, к примеру 5 - можно ли написать граббер для сбора информации с этих 5-ти страниц. Тот же вопрос, но кол-во результатов неизвестно (страниц). С чего лучше начать и сам принцип работы такого парсера. Зарание спасибо. | |
|
|
|
|
|
|
|
для: strug
(23.01.2006 в 19:34)
| | Необходимо сгенерировать URL - т.е. восстановить алгоритм его генерации и научить скрипт останавливаться когда заканчиваются страницы. | |
|
|
|
|
|
|
|
для: cheops
(23.01.2006 в 21:35)
| | Грубо говоря нужно вычислить переменную которая отвечает за максимальное кол-во результатов при запросе или как ...? Не совсем понял Ваш комментарий. Чайник он и в Африке чайник. Нельзя ли привести хоть какой-нибудь простенький пример. | |
|
|
|