Google Proxy Cache
Google připravoval aktualizaci vyhledávání s kódovým označením Big Daddy. Nyní je již nová infrastruktura v provozu a s ní i několik změn, které můžou být pozorovatelné i zvenčí. Jednou z vlastností je i Crawl caching proxy.
Nová infrastruktura pro úsporu peněz
Hlavním záměrem vytvoření této proxy byla úspora peněz. Kromě toho, že se nyní již Googlebot bude snažit stahovat všechny stránky za pomocí gzip kódování, je další optimalizací tato Crawl caching proxy.
Veškeré požadavky, které jsou směrovány na webové stránky jdou přes jednu proxy cache. Jedná se nejen o požadavky Googlebotů, ale také robotů sbírajících stránky pro reklamu AdSense (roboti Mediapartner).
V případě, že je stránka požadovaná několikrát za den, tak se místo opakovaného stahování z webu použije obsah stránky stažený ve vyrovnávací paměti této proxy cache.
Gzip kódování
V minulosti se mohlo stát, že Googlebot s UserAgentem "Googlebot/2.1 (+http://www.google.com/bot.html)" mohl použít komprimované stažení stránek. U nového bota s UserAgentem "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" by to již mělo být pravidlem.
Úspora peněz
V obou případech jedná o malé úspory datového provozu. Nicméně z pohledu velkých objemů dat, které Google při indexaci více než 8 miliard stránek dělá, je to již vidět znatelně.
Podvodníci budou mít problémy
V případě, že se někdo snaží předhazovat různým robotům Google jiný obsah stránek, tak může zaplakat. Stránky předhozené robotům Mediapartners se klidně objeví ve vyhledávání a nebo se naopak stránky stažené pro vyhledávač použijí pro vkládání AdSense reklam.
Matt Cutts - Crawl caching proxy
Inside Google - Google Crawl Caching Proxy
Tip: Nevíte čím obdarovat nejbližší? Nechte je napsat Ježíškovi.
Související
- Odkryjte masku a staňte se na chvilku vyhledávačem (01. 09. 2004 23:03)
- Googlebot mění identitu, aby byl blíž uživatelům (09. 03. 2004 00:50)