Kapcsolat a keresőkkel
1997-re a keresőcégek realizálták, hogy a webmesterek felismerték a jobb helyezés szükségességét a találati listákon és a cél érdekében, akár a keresőrobotok manipulálásával. Ezért a korai keresők, például az Altavista az algoritmusaik módosításával próbáltak ez ellen küzdeni.[27]
A jó céltalálatok magas marketing értéke miatt a SEO-sok és a keresőmotorok között potenciális érdekellentétes viszony áll fent. 2005-ben egy konferenciát, az, AIRWeb-et (Adversarial Information Retrieval on the Web,)[28] hozták létre az agresszív tartalomszolgáltatók hatásának megvitatására és minimalizálására. A túlzottan agresszív módszereket alkalmazó cégeket kitiltják a keresési találatok közül. 2005-ben a Wall Street Journal egy céget, a Traffic Power-t, miszerint az kockázatos eljárásokat használ és ezt partnereinek nem adja tudomására.[29] A Wired magazin pedig azt jelentette, hogy ugyanez a cég beperelte a SEO-st és bloggert, Aaron Cutts-ot, mivel az a kitiltásról írt.[30] Matt Cutts a Google-től később megerősítette, hogy a Google kitiltotta a Traffic Power-t és néhány ügyfelét.[31]
Némely kereső megszólítja a SEO-ipart és szemináriumokat, előadásokat vagy épp beszélgetéseket szponzorál a témában, továbbá segítséget nyújt a weboldal minél jobb optimalizálásában. A Googlenek van egy Sitemaps (Oldaltérképek) programja, amely megmutatja, ha a Google-nek problémája van a weblap indexelésével.[32] A Bing Toolbox pedig olyan eszközt nyújt, amellyel oldaltérkép és feed küldhető be, továbbá megtekinthető az indexelt lapok száma.
Jogi precedensek
2002. október 17-én a SearchKing internetes cég beperelte a Google-t, mivel szerintük szándékosan úgy hangolták a PageRank algoritmusukat, hogy az hátrébb rangsorolja a weboldalukat, mint azt kellene. A SearchKing kiesése 75 ezer dollárra becsült. 2003. május 27-én a bíróság helyt adott a Google indítványának, a SearchKing elvesztette a pert.[33][34][35][36]
2006 márciusában a KinderStart pert indított a Google ellen. A benyújtott indítványuk szerint a Google mindennemű értesítés nélkül leminősítette a weboldalukat a keresőjükben, ezzel előnytelen helyzetbe hozva őket a találati listában. Ezáltal 70%-kal csökkent a látogatottságuk, 80%-kal pedig a bevételük száma. A KinderStart a pert elvesztette
Indexelés
A Google, a Bing és a Yahoo, azaz a vezető keresőszolgáltatások úgynevezett keresőrobotokat használnak az algoritmikus keresőtalálatok megtalálásához. Az olyan oldalakat, melyeket átlinkel egy másik, már a találati listákban szereplő oldalra, nem kell manuálisan ajánlani, ugyanis automatikusan megtalálják a kereső robotok. Némely keresők, így például a Yahoo! fizetett beküldőrendszereket üzemeltetnek, amely garantálja az indexbe kerülést vagy egy előre meghatározott áron vagy pedig kattintásonkénti áron.[41] Ezen programok garantálják ugyan az adatbázisba kerülést, ám nem garantálják a megadott hely elérését.[42] Két fő linkgyűjtemény, a Yahoo Directory és az Open Directory Project személyes beküldést és emberi elbírálást kívánnak meg.[43] A Google a Google Webmaster Tools nevű eszközzel lehetővé teszi egy XML oldaltérkép létrehozását és ingyenes beküldését, amely biztosítja az összes aloldal megtalálását, így legfőképp azokét, amelyeket az automatikus feltérképezés nem fedezne fel.[44]
A keresőrobotok egy weblap feltérképezésekor sok különböző faktort vehetnek figyelembe. Nem minden lapot indexelnek a keresőmotorok. Az oldalak távolsága a főlaptól meghatározó szerepet játszhat abban, hogy bekerül-e a lap az indexbe.
ű
A feltérképezés megakadályozása
A nem kívánt tartalom keresőkben való elrejtése érdekében a webmesterek a keresőrobotokat a robots.txt fájl segítségével egyes lapok vagy könyvtárak kihagyására utasíthatják. Mindemellett egy kifejezetten robotok számára szóló meta taggal expliciten kihagyhatók az oldalak. Amikor egy kereső meglátogat egy oldalt, a gyökérkönyvtárban található robots.txt az első általa letöltött lap. A robots.txt-t értelmezi és az abban található lapokat kihagyja az indexelésből. Mivel a kereső tárolhat egy helyi fájlt, így lehetséges, hogy az elrejteni kívánt lapok is megjelennek ha nem ad meg tiltást a weblap készítő. Az elrejteni kívánt tartalmak között általánosságban a, személyes könyvtárak, login-oldalak, login-specifikus oldalak, például bevásárlókosár és felhasználó által generált oldalak, például a saját belső keresési találatokat adó oldalak szerepelnek. 2007-ben a Google figyelmeztette a webmestereket, hogy a saját weblapjuk belső keresőlapja által adott keresési eredmény indexelését meg kell akadályozniuk, mert spamnek minősülnek.[46]
A robots.txt azonban nem csak teljes oldal korlátozásokat, hanem részletes korlátozásokat tartalmazhat. A kereső robotok annál gyakrabban látogatnak egy oldalt minél fontosabb a saját ranglistájuk szerint. Népszerű oldalak esetén előfordulhat az a probléma, hogy már a túl gyakori kereső motorok általi feltérképezés is feleslegesen terheli az oldalt, így meghatározható egy időkorlát, ami megadja a két feltérképezés közti minimális időt. Így járnak el például a Fehér ház hivatalos weboldalánál is.
Helyezés javítása
Több módszer is javíthatja egy weboldal helyezését a keresés találati listáján. A weboldal akadálymentes feltérképezésének egyik fontos alap eszköze a webes szabványok betartása. A saját weblapon belüli linkelések az allapok között javíthatja a rangsorolást.[47] A gyakran keresett kulcsszavakat optimális mértékben magukban foglaló tartalmak írása növelheti ezek relevanciáját, ezáltal a keresésszámot és így a forgalmat is.[47] A tartalom rendszeres frissítése is extra súlyt adhat az oldalnak, hiszen ezáltal a keresőrobotok gyakrabban térnek vissza a lapra. A releváns kulcsszavak hozzáadása a head-ben található a title tag szintén a weboldal forgalmának növelését tudja eredményezni, akár csak a többi keresők által támogatott taggal[48] Ezzel szemben a kulcsszó meta tagot a legnagyobb keresők már figyelmen kívül hagyják a korábbi visszaélések (black hat módszerek) miatt.[49][50] A 301 redirect-ekkel való átirányítással biztossá teszi, hogy a különböző URL-változatokra való linkek mind beleszámítanak az oldal népszerűségi pontjaiba.
A Google algoritmusa figyelembe veszi az oldal betöltési sebességét a rangsorolás során. Az elemzéshez a Lighthouse riportja alapján számítja ki az oldal Pagespeed értékét. A Pagespeed elnevezés félrevezető lehet, ugyanis még számtalan tényezőtől függ a kapott érték. [51]Ezek:
felhasználói élmény
hálózati adatforgalom
biztonsági rések
hozzáférhetőség
Egyes kényelmi és dizájn eljárások is nehezíthetik a kereső robotok munkáját. Ilyenek például a képként kezelt szövegek, vagy egyes kliensoldali vezérlőszkriptek, melyek teljesen feltérképezhetetlenek, míg a Flash-re épülő oldalakból mára már lehetséges adatokat (linkszerkezet, szövegek) kinyerni. Mindamellett SEO szempontból a Flash messze alulmarad más megoldásokkal szemben.
Képkeresés-optimalizáció
A képkeresések optimalizálása (image search optimization, ISO) az oldalak bizonyos kulcsszavakra való átstrukturálását jelenti, amely így a képkeresők számára optimalizált lesz. A keresőmotorokhoz hasonlóan a képkereső-optimalizáció lényege a SEO-hoz hasonlóan a képkeresők találati listájában való előrébb jutás, ezáltal a forgalom növelése.
Az ISO-technikák a SEO egyik altípusaként is tekinthetők, ahol kifejezettek a képkeresőkre optimalizálnak.
A normális SEO folyamatokhoz hasonlóan a képeket is lehet keresőre optimalizálni. Régebben ez a folyamat kimerült az ALT attributumok megírásával, viszont ma már ez nem elég. Legalább 20 olyan kép SEO trükk[53] létezik, amivel javítható a képek rangsorolása.
A bejegyzés trackback címe:
Kommentek:
A hozzászólások a vonatkozó jogszabályok értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a Felhasználási feltételekben és az adatvédelmi tájékoztatóban.