Сообщение от DjDiablo
|
Всем хорош этот способ, вот только данные для клиентских плагинов, поисковики учитывать не будут
|
Ксать забавные тут идейки проскакивали - IP типовых Поисковиков не так уж и много
Вот почти весь перечень
Yandex,95.108.,77.88.,93.158.
Google,66.249.
Mail,94.100.,217.69.134.,217.69.136.
Rambler,81.19.
Yahoo!,67.195.,72.30.,74.6.,202.160.
Bing,207.46.,65.52.,65.55.,157.55.
Baidu,119.63.,123.125.,220.181.
Ask,66.235.
Ezooms,208.115.111.
Aport,194.67.
Ну дык вот - посколь как то делали многоаяксовый сайт, хотелось индексирование сохранить
Дык для поисковиков
Селектировали по IP и выделяли для них отдельный серв, цепляемый , как клиент/render к общему, который рендил и проксировал уже отренденное взятое от пользовательского серва для данных IP