ссылки которые ведут из поисковиков вот сайт который определяет бэклинки как мне надо http://www.smartpagerank.com
bubailo Этот сайт пользуется данными, собранными из гугла. http://www.pageranktool.net/ + alexa.com и еще нескольких сайтов. Делает он это, просто обращаясь к этим сайтам, указывая в урл адрес страницы, которую Вы ввели на smartpagerank.com Далее, из полученных данных он делает выводы о стоимости сайта и предлагает установить всякие кнопочки, показывающие рейтинги. Кстати, если вы планируете сделать подобное, будет неплохо, если там будет яндекс, рамблер, аппорт и мэил.
Да. Только это неправильный подход. Информацию, чтобы она была правильной, надо брать из первоисточников. То есть - из самих поисковиков. Код будет примерно одинаковый, что ты будешь из этой страницы выдирать, что у поисковиков выдирать. Алгоритм простой - грузишь страницу в переменную, с помощью fopen, либо file_get_content, да хоть curl'ом - как тебе проще, так и грузишь. Потом с помощью регулярных выражений выдираешь из загруженного нужную тебе информацию. Hint: волшебная строчка в гугле, выводящая бэки, выглядит так: link:www.site.ru яндекс бэки теперь не отдаёт, на остальных поисковиках сам вычислишь. Как правило, работает либо info:www.site.ru либо site:www.site.ru, либо link:www.site.ru
гыыы а можно свои логи шерстить на предмет рефероров ... ненадежно ... зато заставлять яндекс делать то что он нехочет - непридется а вообще Код (Text): Алгоритм простой - грузишь страницу в переменную, с помощью fopen, либо file_get_content, да хоть curl'ом - как тебе проще, так и грузишь. Потом с помощью регулярных выражений выдираешь из загруженного нужную тебе информацию. разве это не попадает под правило этого форума , о краже контента?
Для нормального анализа это должно быть услугой поисковика, и отдаваться в универсальной форме, а не на страничке. Вообще, это да, кража контента, но "законные" альтернативы в конкретном этом случае гораздо накладней как и автору, так и остальным (кому еще не рубили аккаунт от повышенной нагрузки индексирующих ботов?)
А оно вообще-то так и есть. Есть специальные команды, понимаемые поисковиками в ихней поисковой строке. И вывод результатов идёт в универсальной, html форме. Дизайн этой формы у каждого поисковика свой. И, если ты хочешь автоматизировать процесс анализа этих данных, то тебе придётся их переконвертировать в тот вид, который будет удобен тебе. А для этого их надо скачать к себе. А если ты хочешь сказать, что скачивание к себе и является "кражей контента", то тогда надо закрывать все поисковые машины - они именно "кражей контента" целыми днями занимаются.
RomanBush - ... а сними и ругаются по этому поводу ... у них даже есть правила на этот счет ... типа нехотите - робот ткст такойт-то иначе - негласное согласие на анализ вашего текста ... да, а по поводу взятия контента у них , так же обычно прописывают правила .. ;-) (насамо деле я скорее пытался пошутить своим постом! - ибо модера оговаривать черевато! )