Frissítve: 2025. szeptember 21.
A Google-kiszivárgás: betekintés a színfalak mögé
A SEO szakmát időről időre megrázzák nagyobb események, de kevés volt akkora hatással a közösségre, mint a nemrégiben napvilágot látott, belső Google dokumentumok kiszivárgása. Éveken át tartó találgatások, teóriák és viták után hirtelen betekintést nyerhettünk a világ legösszetettebb keresőmotorjának belső működésébe.
A mi tapasztalatunk az, hogy ilyenkor két tipikus reakció létezik. Az egyik a pánik és a kapkodás, a másik pedig a higgadt, stratégiai elemzés. Sokan a „szent grált” keresték a fájlokban, a titkos összetevőt, amivel egy csapásra a találati lista élére lehet kerülni. A valóság azonban – mint mindig – ennél sokkal árnyaltabb.
A kiszivárgott dokumentumok nem adtak egy varázslatos receptet a kezünkbe. Sokkal inkább megerősítettek olyan, régóta sejtett elméleteket, amiket a Google képviselői nyilvánosan gyakran tagadtak vagy kisebbítettek. Számunkra ez a botrány nem a SEO végét jelenti, hanem éppen ellenkezőleg: a tudatos, felhasználó-központú és technikailag megalapozott keresőoptimalizálás győzelmét.
A legfontosabb tanulságok a mi szemszögünkből
A több ezer oldalnyi dokumentáció elemzése során mi azokra a pontokra fókuszáltunk, amelyek a leginkább befolyásolják a napi stratégiai munkánkat.
-
A kattintások igenis számítanak: Évekig tartó vita végére tett pontot a dokumentum. A felhasználói viselkedés, a kattintások, és az, hogy a látogató mennyi ideig marad egy oldalon (NavBoost rendszer), kulcsfontosságú rangsorolási tényező. Ez megerősíti, hogy a jó SEO nem ér véget a magas pozíciónál; a cél az, hogy a felhasználó ránk kattintson és nálunk is maradjon. A jó tartalom és a kiváló felhasználói élmény (UX) tehát fontosabb, mint valaha.
-
A szerzői szakértelem (Author E-E-A-T): A Google nem csak a weboldal, hanem a tartalmat létrehozó szerzők hitelességét is figyeli. Egy cikk szerzőjének szakértelme, a neve és a hozzá köthető entitás igenis számít. Ez egyértelmű jelzés arra, hogy a jövőben még nagyobb hangsúlyt kell fektetni a szakértői, megbízható tartalmakra és a szerzők személyes brandjének építésére.
-
A teljes webhely tekintélye (siteAuthority): A dokumentumok egyértelműsítik, hogy a Google egy, az egész domainre vonatkozó „tekintély” mutatót használ. Ez azt jelenti, hogy a gyenge minőségű, irreleváns aloldalak negatívan befolyásolhatják a teljes webhely megítélését. A tartalommarketing és a technikai SEO során tehát nem elég csak az új tartalmakra koncentrálni, a meglévő állomány folyamatos minőségbiztosítása és a „digitális szemét” eltakarítása is kulcsfontosságú.
A következőkben részletesebben is kibontjuk ezeket a pontokat, és megmutatjuk, hogy a kiszivárgott információk fényében hogyan érdemes alakítani egy modern, eredményorientált SEO stratégiát.
Évek óta megy a találgatás, mérés, excel táblák, diagramok készítése, de senki sem tudta pontosan hogyan működik a Google és mi alapján rangsorolja az oldalakat. Ugyan USA-ban a tröszt ellenes per kapcsán kénytelen volt a Google sok mindent feltárni, ahogyan az orosz kereső a Yandex működésének is egy része kiszivárgott már, de ez most viszi a pálmát és alapvetően megváltoztathatja a SEO szakmát.
Hol, mikor, hogyan szivárgott ki az infó és mennyire hiteles?
Nemrég 2500 (14.014 attribútum) oldalnyi Google dokumentum (Google API Content Warehouse) látott napvilágot (2023 augusztusi anyagokról van szó). 2014 március és május között a GitHub fejlesztői oldalra kerültek fel a dokumentumok, melyet a Google bot-ja publikált (yoshi-code-bot).
Nincs mindenhez magyarázat, így sok elemzés segítségével tudhatjuk meg, hogy konkrétan miről van szó. A jó hír, hogy több SEO specialista és ex Google alkalmazott is megerősítette az adatok valódiságát.
Ezekből egyértelműen kiderült, hogy a Google eddig sok esetben félrevezette a honlap tulajdonosokat és a nagyobb márkák abszolút előnyt élveznek a rangsorolás kapcsán. Az is felmerült, hogy ezek az információk egy külső tároló felépítéséhez lettek létrehozva és nem feltétlen a belsős Google működését hívatott leírni. Sajnos a súlyozásról nincs benne információ.
Mi az, ami eddig kiderült?
A lényeg, hogy a Google óriási hangsúlyt fektet arra, hogy a rangsorolás során megfigyelje, hogy a user mikor, hova kattint és ezután mi történik (lásd goodClicks, badClicks, lastLongestClicks stb.). Megtalálta a keresett infót vagy visszatér a találati listára? Nyilván a nagy márkák azonnal nagy átkattintási arányt fognak kapni a kisebb webshopokkal ellentétben. Azonban a kisebb, személyes oldalakat külön díjazza a Google (smallPersonalSite). Egyes oldalak előnyt élveznek, például COVID járvány alatt felbukkanó website-ok, de ebbe a kategóriába tartoznak példának okáért a hotelek oldalai (GoodTravel Site).
Emellett, ha egy oldal nagy linkerőt kap sok-sok linknek köszönhetően, akkor a Pingvin algoritmus kapcsán védelmet kap. Eddig a SEO szakmában az volt a cél, hogy ne ugyanazzal a horgonyszöveggel erősítsünk meg folyton más-más weboldalakról egy aloldalt. Téves információ volt.
A meta leírások is fontos szerepet játszanak a rangsorolásban a felhasználók viselkedése miatt. A Google megfigyeli az URL-ek dátumát és tárolja a weboldalak régebbi verzióját, de csak az utolsó 20 változatot használja fel.
A Google közlésével ellentétesen úgy tűnik a kevésbé megbízható vagy új oldalakat sandbox-ban elkülöníti a Google. Emellett a user negatív visszajelzése vagy nem oda illő linkek, megtévesztő helyszín stb. mentén a Google visszasorolhat egyes oldalakat.
A széles körű linkprofil még mindig fontos lehet, de talán a sok kattintás az egyik fő szempont releváns kulcsszavakra. Ez azonban nyilván attól is függ, hogy hol jelenünk meg a rangsorolási listán. Lezajlottak olyan kísérletek, mely során a lista „végén” megjelenő URL-re sok-sok klikkelésnek hála, estére már a lista elején szerepelt adott kulcsszóra a weblap.
Nagyon fontos a megfelelő címek, meta leírások alkalmazása a jó CTR (átkattintási) eredmény érdekében és az érdeklődő aktivitás a userek részéről. Ez nagyon sokat számít.