На том, что мысль программиста экономит деньги заказчика. А Вы откуда сумму взяли? Что за трепология???
Да, на первый - не ответил. Не знаю. Но обратное не доказано. Вы будете реализовывать это два месяца? Весело
я говорю что вы экономите суммы, которые по-вашему важны, а они не важны =) и вы столько бреда несете, что жуть прямо. =) еще будут вопросы? конкретные? или вы так и будете теоретизировать о том, что мысль программиста должна там что-то кому-то?
Я уже сто лет назад написал, что я получил ответы на других форумах, а тут все стесняются. А Вы все тормозите. Суммы важны все. Если ты готов потратить силы на ее сохранение, и экономия не повлечет за собой ощутимый урон. Факт очевидный. Тема закрыта.
вы уж снизойдите до нашего убого форума и скажите какое решение-то? ответ-то какой? мы, сироты, будем учиться у великих.
Да нет, великого тут ничего, вопрос действительно не заслуживает обсуждение, гы. Напомню вопрос: Есть файлы на диске. Надо их "скачать из браузера". Ну, обычно мы делаем tar-архив, и его отдаем. Но это удвоение места на диске! А не делают этот tar "на лету", отдавая нужный кусочек, потом следующий... А? Ответ: Не делают, хотя бы потому, что винда не читает tar (эт понятно). Но, если говорить возможности (о чем я и спрашивал), то да, это возможно, и просто. Можно перенаправить поток или, зафиксируя порядок и размер файлов, генерировать только нужные блоки tar-файла (это возможно, так как они (блоки) абсолютно независимы). Ценок.
А под "смешными вариантами" я понимал различные оптимизации этого процесса, но пока ничего конкретного.
Ну по времени это оптимизация совсем чуть-чуть, очевидно, зато диск тратится. Как уже говорилось. Оптимизируем мы же не свои усилия, здесь.
У вас в бошке бардак. Процессорное время стоит дороже хардового объема, т.к. харды проще наращиваются.
Полагаю что в случае реализации многопоточной закачки на php и генерации архива "на лету", будет занято ОЗУ объем_архива X количество_потоков
Врятли. Зипы и тары вродь как не требуют много памяти. Точно не знаю, но они совсем не привиредливые. Думаю даже сжимаемый файл не потребуется читать целиком. По сути вопрос не в компрессии и отдаваться может архив потоком с нулевым сжатием. Ташто схема вполне реализуемая. Было бы желание.
можно вообще отдельный сервер выделить, который будет на себя качать данные, потом тарить/зиповать, потом отдавать хоть сколько раз и скажем через 1-2 дня удалять. я бы сделал так.
Так отдавать сколько раз и не надо, иначе это впрямь напряг. Я же стал обсуждать на примере скачивания фотографий. А их каждый раз по разному выбираешь. И заметьте, в соц. сетях пока это редкая фича...
О! Ура. Поздравляю. А то мы уже две страницы рассуждаем о чем-то, что даже не понятно что и когда. В каком-то случае потоком отдавать предпочтительнее. Например странички так отдаются. Экономия трафика раза в два может быть. В каком-то - файлом с харда. Но я считаю что реализация с хардом проще масштабируется - можно дотыкаь харды, можно отвести пару-тройку серверов под создание архива и все тот же один сервес сможет эти архивы раздавать. А в случае маленькой нагрузки то вобще не стоит об этом думать. Так что давайте следующий вопрос.
igordata Это Вы на который пост? Одно другому не мешает. Я холливарю с третьего сообщения, и лишь по одной причине - мне противно, что "программисты так не делают". Мне интересно, к чему Вас приведет Ваши же рассуждения. Мне про архивацию уже давно все ясно... А про пример скачивания фото я писал еще незнамо когда...
На тот который kuraga Тут уже под конкретную задачу сопоставлять нужно Т.к. это отправная точка всех здравых рассуждений. С этого надо начинать. (Это намек)