|
|
|
| Есть PHP скрипт который загружает содержимое странички с другого сайта, парсит ее, и получает информацию - например цену товара. И так последовательно для одного, для второго, .... для десятого товара. Каждое обращение к другому сайту, разбор отданной странички - занимает 1-2 секунды. Если надо проанализировать 30- 40 страничек - соответственно время увеличивается пропорционально - что не устраивает.
Можно ли как то распараллелить эту работу. То есть запустить одновременно необходимое количество обращений к другому сайту и получить сразу информацию, от каждого такого обращения по мере его готовности. Если да, подскажите - в каком направлении двигаться, что почитать. Может быть есть где примеры решения аналогичных задач. | |
|
|