Каждый день регится несколько страниц, на каждой сканируются ссылки. Если какая будет пропущена, то об этом сразу станет известно. А ошибки во время работы неизбежны. Я согласен с тем, что пропустил баг и он уже исправлен.
Решил не открывать новую тtму - у меня похожая задача: парсить удаленный урл, выдергивать ссылки и сохранять их в файле. Вот код, но он не работает в последней части - запись в файл: PHP: <?php $html = file_get_contents("http://урл.com/файл.shtml"); preg_match_all('|<a.*href="(.*)".*>(.*)</a>|Uis', $html, $out); $file = fopen ("1.txt", "w"); fwrite($file, $out); fclose($file); echo 'Данные записаны в файл'; ?> Вопросы: 1. Считывается все вроде бы правильно, проверял через print_r($out); Но как сохранить результат, который является массивом? 2. Где можно подробнее почитать про составление шаблонов? (например я хочу записывать в файл чистую гиперссылку, без тегов, а рядом ее описание, вытащенное из того же самого удаленного файла.
Здравствуйте, уважаемы формучане, подскажите пжл как собрать все ссылки с этой страницы сайта obmenvse.ru/sitemap не хочется сидеть целый день и сохранять.