В первый раз пишу парсер ..столкнулся с такой проблемой ..(использую curl и simple html dom) Вот http://joxi.ru/Y2L9NyoT9xR3PA функция для парсинка стр по url заданному . Дело в том , что парсить надо все стр пагинации , я пока добился того что только те ссылки(на стр пагинации 2 , 3 , 4 ,5) которые есть на первой стр http://joxi.ru/Q2K98VoT4Oz9br можно парсить ...как парсить пагинацию дальше ...т е в цикле нужно опять curl_get делать на след стр пагинации..мне кажется у меня быстрее скрипт ляжет чем все спарсится? и может есть лучше библиотека для построения dom дерева? потому что пока даже с 4 стр ( в них мы еще парсим вложенные данные http://joxi.ru/Q2K98VoT4Oz4br т е к url прибавляем ссылки на основную инфу о компаниии и тащим телефон email и тд).. Подскажите как все это реализовать по человечески или имеет смысл продолжать с моим набором библиотек и подходом?