Вот скажем есть файл около 500 мб. file_get_contents не успевает скачать его и отдать ответ браузеру соотвественно сайт ложится. Я подумал как загружать файл по частям файлом может быть как картинка так и gif анимация. знаю в file_get_content можно указывать максимальный размер считаемых данных и отступ. Но получится ли таким образом собрать туже картинку и сохранить ее потом на сервере? больше волнует вопрос с gif-ками так как картинки не очень тяжелые.
Откуда скачать? Проксирование что ли? Если отдаете с собственного сервера, то достаточно вывести осн. заголовки, а далее – спец. заголовок для собственного Web-сервера, чтобы он закончил это дело самостоятельно.