Запретить роботу Google из robots.txt и вместо этого указать карту сайта

Я использую платный скрипт геолокации, чтобы направлять пользователей на определенные сайты в зависимости от страны. Однако с меня много платят, потому что роботы продолжают сканировать каждую страницу моего большого сайта.

Если бы я запретил Google в файле robots.txt и предоставил карту сайта в файле robots.txt, мог бы Google по-прежнему индексировать мою страницу без сканирования?

Пример

User-agent: *
Disallow: /
Sitemap: sitemap.xml

person user1177227    schedule 04.12.2014    source источник


Ответы (1)


Индекс Google только со сканированием ...

Лучшее, что вы можете сделать для вас, - это отключить скрипт геолокации при обнаружении робота Google (или другого). Вы можете распознать их разными способами: HTTP_USER_AGENT или HTTP_FROM, или IP.

person Croises    schedule 04.12.2014