|
|
|
| Возникла такая проблема:
Я пишу скрипт, который должен получать HTML-содержимое определенной указаной страницы в интернете. Я использую для этого функции библиотеки CURL (либо fopen - неважно).
Однако попадаются страницы, содержимое которых отдается веб-серверами в сжатом виде (gzip. Это когда на веб-сервере установлен модуль modgzip (или что-то подобное)).
я пытался записывать эти получаемые бинарные данные в файл и потом распаковывать этот файл с помощью библиотеки PclZip. Однако при распаковке выдает ошибку. При использовании других либ - то же самое.
Может кто-то подскажет, в чем может быть проблема?
И как получить HTML-содержимое страницы в интернете, если она передается в сжатом види.
Заранее благодарен за ответы. | |
|
|
|
|
|
|
|
для: eldorado
(02.10.2006 в 18:28)
| | А если не распаковывать, что происходит? Может и не надо вовсе распаковывать?! =) | |
|
|
|