За последние 24 часа нас посетили 16840 программистов и 1615 роботов. Сейчас ищут 1327 программистов ...

Защита вызываемой ссылки AJAX

Тема в разделе "JavaScript и AJAX", создана пользователем Ruark2507, 18 сен 2008.

  1. Ruark2507

    Ruark2507 Активный пользователь

    С нами с:
    18 июн 2008
    Сообщения:
    8
    Симпатии:
    0
    Начал разбираться в AJAX. Возник такого плана вопрос.
    Сохранив страницу полностью(либо же просмотрев источник) можно увидеть, какую именно ссылку вызывает ajax. И так же можно самому эту ссылку вызвать.
    Возник чисто теоретический вопрос - возможно ли сделать так, чтобы эту ссылку вызывало только ajax-приложение, чтобы юзер, набрав ее в адресной строке, вызвать не мог?
    Что можете посоветовать? Или не стоит и заморачиваться на эту тему?
     
  2. Kreker

    Kreker Старожил

    С нами с:
    8 апр 2007
    Сообщения:
    5.433
    Симпатии:
    0
    Аналогично можно посмотреть исходный код страницы этого форума и выяснить, куда отсылаются эти сообщения, а потом...
    Рефер проверять, который подделать можно :)
     
  3. Anonymous

    Anonymous Guest

    можно смотреть XHTTP_REQUESTED_WITH но и их можно подделать. 100% защиты нет, и не будет никогда.
     
  4. decoder

    decoder Активный пользователь

    С нами с:
    11 фев 2006
    Сообщения:
    469
    Симпатии:
    0
    Ruark2507
    А какой смысл это скрывать? У пользователя же так и так есть возможность отправить запрос.
    "А если нет разницы, зачем платить больше?" (с)
     
  5. Danilka

    Danilka Активный пользователь

    С нами с:
    8 ноя 2007
    Сообщения:
    192
    Симпатии:
    0
    Я тоже думал на эту тему. Ибо не хотелось бы отдавать свои данные роботам в открытом виде. Подумал что можно замутить что-то с переменными сессии и куками, мол какой-нибудь случайный код делать и выдавать только при совпадении.
     
  6. mmaavv

    mmaavv Активный пользователь

    С нами с:
    25 мар 2007
    Сообщения:
    59
    Симпатии:
    0
    против обычных поисковых роботов в большинстве случаев помогает robots.txt
    против специально написанных роботов не помогает ничего, так что смысла заморачиваться с крутой защитой не вижу.