sergiocharm,
Смотрите, если поисковик захочет зайти на страницу - сайт/товар/отзывы. А такой страницы реально не существует... То могут быть проблемы.
Соответственно как делают. Сначала создают страницы отдельные нормального вида. Отзывы, характеристики и т. д. Это отдельные страницы. На них поисковик может нормально зайти и все прочитать и проиндексировать.
Затем с помощью JS меняют ссылки на эти страницы (отзывы, характеристики и т.п.) так, чтоб они подгружали нужное аяксом и заодно меняли с помощью History API УРЛ + мета-тэги.
Теперь, если у пользователя включен JS, все будет работать без перезагрузки страницы, в том числе и меняются УРЛЫ, тайтлы и все остальное. Если же JS отключен или это робот пытается зайти, то ему отдаются обычные страницы без аякса, тоже с нормальными урлами и тайтлами.
Вроде бы так все делают.
P.S. Наверно можно еще что-то мутить с Реактом и серверным пререндером, но это такое - на любителя)
|