Несмотря на то, что GoogleBot действительно обрабатывает сайты, написанные на js. Большая проблема с сайтами ajax заключается в том, что даже если GoogleBot может выполнять js и обрабатывать запросы ajax.
Веб-сканер не может точно знать, когда страница закончила загрузку. По этой причине поисковый робот может загрузить страницу и проиндексировать ее до того, как начнет выполнять запросы ajax. Допустим, скрипт будет выполняться при прокрутке страницы. Очень вероятно, что бот Google не будет запускать все возможные события.
Другая проблема — навигация.
Поскольку навигация может выполняться без перезагрузки страницы, один URL-адрес может сопоставляться с несколькими «результатами просмотра». По этой причине Google просит разработчиков сохранять копии страниц, использующих статические страницы, для поддержки тех страниц, которые в противном случае были бы недоступны. Они будут проиндексированы.
Если на вашем сайте каждая страница может быть доступна через полный URL-адрес. Тогда у вас не должно возникнуть проблем с индексацией вашего сайта.
Тем не менее, сценарии будут запущены. Но не факт, что сканер проиндексирует страницу после того, как закончит обработку всех скриптов.
Вот ссылка:
GoogleBot стал умнее: он был написан в 2010 году, и мы можем ожидать, что с тех пор веб-сканеры стали намного умнее.
person
Loïc Faure-Lacroix
schedule
10.10.2013