Раньше создавал sitemap для сайта на онлайн сервисах.. Последний раз были проиндексированы все 300 с чем то страниц. Собрался тут сгенерировать новый. Уже на сайте около 400 страниц. Но проблема в том, что сейчас все онлайн сервисы видят чуть более 100 страниц выборочно со всех уровней вложенности. Так и не понял в чем причина. Хотя гугл и яндекс проблем не обнаружили и добавляют в индекс новые страницы. Меня интересует как отнесутся поисковики, если sitemap.xml будет генерироваться динамически с помощью самописного php скрипта + modrewrite?
Разобрался в чем причина почему так мало страниц находят онлайн сервисы. Вопрос про динамический sitemap остается в силе.
Воспользуйтесь регулярным выражением и рекурсией и перебором и открытием "ссылки<>ссылке", отследите, если хотите писать свой, есть же уже подобающе генерации "sitemap". Попробуйте разные сервисы.