Кто-нибудь опытен в парсинге сайтов? Пытаюсь получить файл от стандартного сервиса стандартным образом. От других подобных сервисов файлы исправно получаются аналогичным образом без какого-либо шаманства. Здесь -- в браузере файл успешно получается, а file_get_contents сервер файла не отдаёт, говорит 302. Разница с браузером -- в куке. Куку для file_get_contents передаю через context, но не помогает. cURL'м из командной строки с указанием куки в параметре тоже не получается. Очевидно, я что-то упускаю, но я довольно плохо знаю детали http, и не понимаю, куда копать.
Нет, никаких скриптов не загружается. Ещё раз, для невнимательных: я скачиваю _ФАЙЛ_. Не страницу, не сайт -- файл. Картинку, если быть конкретным.
Я понимаю -- приятно считать собеседника идиотом. Но прикинь, чувак: я посылаю правильное значение User-Agent. Ты офигеешь, когда узнаешь, что с каждым запросом -- другое.
О! Борец за права! Типа, воровать контент нехорошо, я правильно понял? Но ты отлично умеешь это делать, и готов обучить за деньги, так? Чувак, ты же не знаешь, ворую я контент, или нет. А если ворую -- тебе то какое дело?
@Satger, нет API -- воруешь. Умею, грешен, приходилось, когда ты без кнопочных мобильных телефонов обходился. Обучить не готов, предоставить работающий код -- да.
Я смотрю у автора поста- принято лезть со своим уставом в чужой монастырь? Дерзить и посылать? Ну-ну отличный способ получить помощь...