хочу реализовать на тестовом сайте такую штуку, по сути микро APi =) есть сайт, состоит из одного скрипта. скрипт выводит, например, список ссылок, причем список этот берет с другого моего хоста (!парсинг) при клике по ссылке (переходе) открывается страница с другим контентом и т.д. т.е. сайт клиента и не сайт вовсе, а скрипт, который контент берет с другого моего сайта например в формате xml. запрос думаю отправлять курлом, а адрес страницы, точнее ее id, брать из гета. хожу вокруг да около, не знаю с чего начать и стоит ли смотреть в сторону xml и cURL?
в принципе все получилось, даже сам не ожидал. курлом отправляю запрос с 1-го своего сайта на 2-ой. обработав запрос возвращаю результат 1-му сайту вывожу результат на страницу. вся работа (выборка из бд, формирование страницы и т.д. и т.п. происходит на сайте 2), а как будто бы на сайте №1 как-то так.
с soap не знаком, с curl еще встречался, так что буду юзать его, хочется уже поскорее сделать, а то опять охладею и заброшу... пока писал возник вопрос, а если таких сайтов 10 будет, и каждый по 1000 просмотров в сутки, не загнется ли мой сервер (тот который сайт №2). или тут надо считать количество одновременных подключений?