|
|
|
|
|
для: Eugene77
(14.01.2010 в 14:57)
| | Никто не мешает отключить компрессию вообще.
Но и без того - крайне маловероятно. | |
|
|
|
|
|
|
|
для: Trianon
(13.01.2010 в 17:53)
| | А может случиться так, что из-за различия в версиях, заархивировать удастся, а разархивировать на сервере - уже нет. | |
|
|
|
|
|
|
|
для: .heed
(13.01.2010 в 17:10)
| | Спасибо!
Но это как раз самая простая часть.
Я как раз боялся с архивацией запутаться. С обработкой ошибок при архивации и проверкой целостности архивов после передачи их на сервер.
Я посмотрел РНР инфо:
zipZip enabled
Extension Version $Id: php_zip.c 287723 2009-08-26 02:16:41Z guenter $
Zip version 1.8.11
Libzip version 0.9.0
zlibZLib Support enabled
Stream Wrapper support compress.zlib://
Stream Filter support zlib.inflate, zlib.deflate
Compiled Version 1.2.3
Linked Version 1.2.3
Directive Local Value Master Value
zlib.output_compression Off Off
zlib.output_compression_level -1 -1
zlib.output_handler no value no value
|
Это, кажется, значит, что скриптом можно архивировать, но никогда этого не делал и
как это правильно делают не знаю. | |
|
|
|
|
|
|
|
для: .heed
(13.01.2010 в 17:10)
| | unrar обычно есть.
А если нет, его незазорно попросить... | |
|
|
|
|
автор: .heed (13.01.2010 в 17:10) |
|
|
для: Eugene77
(13.01.2010 в 11:28)
| | редко читаю форум
, так особо и нечего придумывать
, просто функциями fopen() fread() fwrite()
, как-то делал что-то такое , но не помню где осталось
, всё просто , что-то вроде
<?php
$fp = fopen('big_f.txt', 'rb');
for(i=0; !feof($fp); i++) {
$txt = fread($fp, 4096); //например
file_put_contents('small.' . $i, $txt);
}
fclose($fp);
?>
| разделение
и для записи частей в файл нужны будут права доступа
<? //забыл правильный синтаксис glob() , но например так
$arr = glob("small.*");
$fp = fopen('new_big.txt', 'wb');
foreach(sort ($arr) AS $x) {
fwrite($fp, file_get_contents($x));
}
fclose($fp);
|
А насчёт архивировать пока ещё даже не пробовал, сделать архив в несколько частей впринципе любым архиватором в виндовс можно
, но чем потом распаковывать на сервере даже не скажу, хотя как и просто большой zip например , если такими скриптами просто его порезать | |
|
|
|
|
|
|
|
для: Eugene77
(13.01.2010 в 11:28)
| | Каким временем Вы располагаете? | |
|
|
|
|
|
|
|
для: heed
(12.01.2010 в 19:17)
| | Вы имеете в виду резать скриптом, потом архивировать каждую часть скриптом же, потом на сервере разархивировать каждую часть опять скриптом, и соединить.
Не похоже, чтобы я всё это быстро и без ошибок смог написать даже за день.
В целях экономии времени хотелось бы "коробочное" или почти "коробочное" решение.
Может быть у вас есть готовое?
Или кто-то писал уже что-то в этом роде и может черкнуть пару строк кода, чтобы мне от них оттолкнуться.
Или хотя бы перечислить функции, которыми следует мне пользоваться. | |
|
|
|
|
|
|
|
для: Eugene77
(12.01.2010 в 16:50)
| | если на php , то например переменные
memory_limit или post_max_size
могут повлиять
Обходить это например добавлением в .htaccess строк типа
php_value post_max_size .......
как-то не очень
, лучше мне кажется резать файл, и потом собирать его на сервере | |
|
|
|
|
|
|
| Может ли хостинг выставить ограничение на объём информации передаваемой методом POST?
Если да, то как его обойти?
Хочется закачать большой архив таблицы.
Собрался уже попробовать через CURL, но ведь метод передачи все равно будет либо POST илбо GET.
Не оборвётся ли процесс передачи на полпути?
Ещё вопрос: как-то по phpinfo или ещё иначе можно выяснить наличе такого ограничения. | |
|
|
|
|