На днях пришла в голову идея сделать скрипт для себя которому можно было бы отдать адрес сайта или демки шаблона в ответ получить архив содержащий в себе все ресурсы используемые на странице. Поле двух дней работы представляю вам то что получилось. http://mpak.su/themes:grab Скрипт делает следующее. Получает главную страницу из полученной ссылки. Регулярным выражением проходит по содержимому документа выбирает все css файлы. Скачивает их заменяя в тексте ссылки на ксс файл локальными. Проходит по сожержимому каждого ксс файла в поисках ссылок на графические файлы. Также скачивает их в локальную директорию. В ксс заменяет глобальную ссылку на графический файл локальной. Помимо этого проходит по основному документу в поисках яваскриптов и ссылок на грфиечкие файлы, складывает их локально заменяя ссылки в документе на локальные. В итоге на выходе должен получиться архив с index.html и всеми ресурсами доступными локально по локальным же ссылкам. Мне эта штука позволяет экономить кучу времени помогая прикручивать демки шаблонов к своему двиглу. Подумал что подобная штука может пригодится не только мне. Скрипт еще в стадии беттатестирования. О найденных ошибках просьба отписывать в ветку. На момент написания скрипта не все адреса удается корректно сграбить, но работа продолжается. Кому интересно предлагаю принять участие. Скрипт принимает только http:// ссылки.
tommyangelo После сохранения нужно немного шаманить: весь контент сохранняется в Index_files, и приходится пути исправлять. Хотя особо не запарно, благо "заменить" есть в каждом редакторе
Ensiferum А, т.е вся разница в том, что через браузер всё лежит в одной папке, а будет лежать например в папках img, css, js ?