A keresőoptimalizálás napjainkban az online marketing egyik legfontosabb szegmense. Alapját pedig a crawlerek, azaz az úgynevezett keresőrobotok jelentik. A „robot” szó hallatán sokan azonnal valamiféle testtel rendelkező mesterséges intelligenciára gondolnak, ez az elképzelés azonban meglehetősen távol áll a valóságtól.
De mik is azok a keresőrobotok, milyen elv alapján működnek és miért annyira fontosak saját weboldalad szempontjából? Ebben a cikkben megmutatunk mindent, amit a crawlerekről tudni érdemes és kitérünk arra is, hogyan teheted honlapodat vonzóbbá a keresőrobotok számára.
Ha keresőrobotokról beszélünk, a név ellenére nem kell olyasfajta, testtel rendelkező mesterséges intelligenciára gondolnunk, melyet a tudományos-fantasztikus filmekből ismerünk. Sokkal inkább test nélküli algoritmusokról, melyeket abból a célból programoztak, hogy feltérképezzék és indexeljék a weben fellelhető honlapok tartalmát.
A keresőrobotok (másnéven crawlerek) általában hivatkozásokon keresztül vándorolva járják a webet, az adott oldalakon található linkek segítségével jutnak el további, korábban még nem feltérképezett honlapokra. Ilyen módon lépésről lépésre, lassan, de biztosan bejárják a teljes világhálót. És hogy mindezt miért?
A crawlerek azért térképezik fel az internetet, hogy információkat gyűjtsenek a nagy keresőmotorok, például a Google számára. Ilyen módon a keresők el tudják helyezni a tartalmakat bizonyos kategóriákon belül, és egy releváns keresés esetén egyszerűen előránthatják őket onnan és felajánlhatják a felhasználók számára. A keresőrobotok tehát afféle adatgyűjtő programok. Folyamatosan kutatják a friss információkat, ezáltal hatékonyabbá téve a keresőmotorok munkáját és segítve a bizonyos tartalmakra rákereső felhasználók életét.
A tartalom feltérképezése során a crawlerek a szöveges tartalmat, a metainformációkat és a hivatkozásokat egyaránt feltérképezik, majd a keresőmotorok ezek közül kiszűrik azokat az adatokat, melyek SEO szempontból meghatározóak lehetnek. Minél több az ilyen információ, annál nagyobb az esélye annak, hogy egy bizonyos kulcsszóra vagy kifejezésre történő keresés során a találati listán megjelenik az adott weboldal.
Összességében tehát azt mondhatjuk, hogy az a honlap, melyet a keresőrobotok nem fedeznek fel, olyan, mintha nem is létezne. Legalábbis egy egyszerű keresés során egész biztos, hogy a célközönség nem fog rátalálni, ami a tulajdonosnak egész biztosan nem jó.
Fontos tehát, hogy honlapunk megfelelően optimalizált legyen, minőségi hivatkozásokat, valamint megfelelő minőségű és mennyiségű kulcsszót tartalmazzon. Ilyen módon sokkal nagyobb az esély arra, hogy fizetett hirdetések nélkül is előkelő helyen végezhetünk a nagy keresőmotorok, például a Google találati listáján.
A különböző keresőrobotok változó intenzitással térképezik fel a világhálón található honlapok tartalmát. Ez azt jelenti, hogy a nagy keresőmotorok adatbázisa sem frissül naponta, azonban, ha egy weboldal bekerült az indexbe, akkor a robotok időről időre visszatérnek oda és feltérképezik az elmúlt időszakban kikerült kontentet.
Ez azt jelenti, hogy minden esetben érdemes a tartalmainkat megfelelően optimalizálni, hiszen annál nagyobb a találati listán történő megjelenés esélye, minél jobban odafigyelünk a megfelelő SEO megoldások használatára.
Persze, ha nem szeretnénk, hogy honlapunk megjelenjen a keresőben, erre is van lehetőség. A crawler botokat blokkolhatjuk is, ennek azonban egy üzleti oldal vagy egy webáruház esetében nincs értelme, hiszen csak potenciális ügyfelektől, feliratkozóktól és vásárlóktól fogunk elesni általa.