Добрый день! Есть скрипт, который вытаскивает информацию с определенной страницы, допустим example.com/page.xml, и обрабатывает ее. PHP: <?php $txt = join("", file("http://example.com/page.xml")); // Записываем информацию в файл на сервере $open= fopen("file.xml", "w+"); fwrite = ($open, $txt); fclose($open); ?> Все хорошо работает, до тех пор, пока не встречаются страницы размером в 200-300 мб и больше. В этом случае сервер ложится или пишет, что превышена память и завершает скирпт с ошибкой... На сколько я понимаю, то скрипт всю информацию, полученную со страницы заносит в оперативную память, которой собственно и не хватает... Вопрос в следующем, как сделать скачку файла на сервер в обход оперативной памяти, возможно ли вообще такое? Или в моем случае поможет только увеличение оперативки с последующим изменением лимитов в php.ini?
Во-первых весь написанный выше скрипт можно уместить в одну единственную строчку. PHP: <?php file_put_contents("file.xml", file_get_contents("http://example.com/page.xml")); ?> Касательно вопроса смотрим XmlReader и обращаем внимание на аргументы!