Google Sitemap – Трябва ли да осигуря контрол на натоварването/кеширане?

Имам сайт на общността, който има около 10 000 обяви в момента. Приемам нова стратегия за url нещо подобно

example.com/products/category/some-product-name

Като част от стратегията прилагам карта на сайта. Google вече има добър индекс на моя сайт, но URL адресите ще се променят. Използвам php рамка, която има достъп до DB за всеки списък с продукти.

Загрижен съм за ефектите върху ефективността от предоставянето на 10 000 нови URL адреса на Google, трябва ли да съм?

Възможно решение, което разглеждам, е изобразяването на изведените от php страници в статични HTML страници. Вече имам тази функционалност другаде в сайта. По този начин google ще индексира 10 000 html страници. Красотата на тази система е, че ако потребител стигне чрез Google до тази HTML страница, веднага щом започне да навигира из сайта, той се връща направо в PHP версията.

Проблемът ми с този метод е, че ще трябва да добавя .html към моите хубави чисти URL адреси...

example.com/products/category/some-product-name.html

Погрешно ли правя това?

Редактиране 1: Искам да намаля разходите за PHP и MySQL. Създаването на HTML страници е просто метод за кеширане в подготовка за пик на натоварване, докато търсачките обхождат тези страници. Има ли по-добри начини?


person ed209    schedule 08.12.2008    source източник


Отговори (4)


Освен ако не пропускам нещо, мисля, че няма нужда да се тревожите за това. Предполагам, че вашият списък с имена на продукти не се променя това често – в рамките на около ден, а не всяка секунда. Картата на сайта на Google трябва да бъде прочетена за секунда или по-малко и роботът няма да ви обходи незабавно след като актуализирате. Бих го пробвал без никакви усложнения и бих измерил ефекта преди да си счупиш врата оптимизирайки.

person Charlie Martin    schedule 08.12.2008
comment
форматът на URL адреса на продукта няма да се промени отново. URL адресът на продукта може да се промени, ако се промени името на продукта. - person ed209; 09.12.2008

Не трябва да се притеснявате за 10 000 нови връзки, но може да искате да анализирате текущия си трафик в Google, за да видите колко бързо Google ще ги обходи. Кеширането винаги е добра идея (вижте: Memcache или дори генериране на статични файлове?).

Например, в момента имам около 5 заявки в секунда от googlebot, което би означавало, че Google ще обходи тези 10 000 страници за половин час, но помислете за това:

  1. Пренасочете всички съществуващи връзки към нови местоположения

    Правейки това, вие гарантирате, че връзките, вече индексирани от google и други търсачки, почти незабавно се пренаписват. Текущият ранг в Google е мигриран към новата връзка (допълнителните връзки започват с резултат 0).

  2. Google Analytics

    Забелязахме, че Google използва данни от Анализ, за ​​да обхожда страници, които обикновено не би намерил при нормално обхождане (пренасочвания на JavaScript, връзки към съдържанието на влезли потребители). Вероятно Google ще разпознае промяната на URL адреса ви много бързо, но вижте 1).

  3. Карта на сайта

    Основното правило за файловете на картата на сайта в нашия случай е само да ги поддържаме актуализирани с най-новото съдържание. Поддържането на 10 000 връзки или дори всичките ви връзки там е доста безсмислено. Как ще актуализирате този файл?


Това е връзка на любов и омраза с мен и Google crawler тези дни, тъй като повечето използвани връзки от потребителите са доста добре кеширани, но нещото, което Google crawler обикновено не е. Това е причината google да причинява 6x натоварване в 1/6 от заявките.

person Community    schedule 08.12.2008
comment
Как ще актуализирате този файл? cron job и PHP рамката (Seagull PHP), която използвам, има функция за карта на сайта. - person ed209; 09.12.2008

Не е отговор на основния ви въпрос.

Не е нужно да добавяте .html. Можете да оставите URL адресите такива, каквито са. Ако не можете да намерите по-добър начин за пренасочване към html файла (който няма или има суфикс .html), можете да го изведете чрез PHP с readfile.

person OIS    schedule 08.12.2008
comment
Благодаря на OIS. Основната причина за HTML подхода беше да няма излишни разходи за обработка на php на сървъра. Интересен подход обаче, ще го имам предвид. - person ed209; 09.12.2008

Трябва ли да съм загрижен за ефектите върху ефективността от предоставянето на 10 000 нови URL адреса на Google?

Ефекти върху производителността на сървърите на Google? Не бих се тревожил за това.

Ефекти върху производителността на собствените ви сървъри? Аз също не бих се тревожил за това. Съмнявам се, че ще получите много повече трафик от преди, просто ще го изпращате на различни URL адреси.

person Max Lybbert    schedule 08.12.2008
comment
да, производителност на моя сървър (сигурен съм, че Google може да се справи!). Очаквам начален скок, тъй като новите страници се индексират - но не мислите, че това ще се случи? Благодаря :) - person ed209; 09.12.2008
comment
Вашият сайт вече се обхожда от Google и се справя добре с натоварването. Не трябва да получавате повече трафик от Googlebot, отколкото вече получавате. - person Max Lybbert; 10.12.2008