Képzeld el, hogy hónapokat, sőt éveket fektetsz egy fantasztikus weboldal építésébe, értékes tartalmak létrehozásába, alapos kulcsszókutatásba, csak azért, hogy aztán szembesülj a ténnyel: a Google – vagy bármely más keresőmotor – egyszerűen nem is tud róla. Vagy még rosszabb: tud róla, de nem hajlandó megjeleníteni a találatok között. Ez nem egy rémálom, hanem a valóság, ha a weboldalad indexelési hibáktól szenved. Az indexelés az a folyamat, amely során a keresőmotorok feltérképezik, elemzik és adatbázisukba rögzítik a weboldalad tartalmát, hogy az aztán releváns keresésekre megjelenhessen. Enélkül a legbrilliánsabb tartalom is láthatatlan marad. Ebben a cikkben bemutatjuk a 10 legkritikusabb indexelési hibát, amelyek azonnali beavatkozást igényelnek, és lépésről lépésre elmondjuk, hogyan orvosolhatod őket.
Miért annyira kritikus az indexelés?
Az indexelés a keresőoptimalizálás (SEO) alapköve. Ha egy oldal nincs indexelve, az olyan, mintha nem is létezne a keresőmotorok számára. Hiába a kiváló tartalom, a remek felhasználói élmény, ha a Googlebot nem tudja feltérképezni és felvenni az adatbázisába. Az indexelési hibák közvetlenül befolyásolják a forgalmat, a rangsorolást és végső soron a weboldalad online sikerét. Ezeket a hibákat nem szabad félvállról venni; a lehető leggyorsabban fel kell őket deríteni és javítani.
A 10 legrosszabb indexelési hiba és azok azonnali javítása
1. Véletlenül beállított „noindex” vagy „nofollow” tag
Ez az egyik leggyakoribb és legpusztítóbb hiba. Egy apró, rosszul elhelyezett <meta name="robots" content="noindex">
tag a weboldalad fejlécrészében, vagy egy X-Robots-Tag: noindex
HTTP fejléc elég ahhoz, hogy a Google teljesen kizárja az adott oldalt a találatok közül. Hasonlóan káros lehet, ha fontos belső linkeket a rel="nofollow"
attribútummal jelölsz, ami megakadályozza a PageRank áramlását az oldalaid között.
Hogyan azonosítsd:
- Használd a Google Search Console (GSC) „Indexelés” jelentését. Keresd a „kizárva a robots.txt által”, „noindex tag” vagy „kanonikus URL” (ha rosszul mutat) státuszú oldalakat.
- Ellenőrizd az oldal forráskódját: keress rá a „noindex” vagy „nofollow” kifejezésekre a
<head>
szekcióban. - A legtöbb CMS (pl. WordPress) rendelkezik SEO bővítménnyel (Yoast, Rank Math), amelyek lehetővé teszik a „noindex” beállítását. Győződj meg róla, hogy csak a szándékosan kizárt oldalakon aktív.
Hogyan javítsd:
- Távolítsd el a
noindex
meta taget vagy azX-Robots-Tag
HTTP fejlécet azokról az oldalakról, amelyeket indexelni szeretnél. - Ha a
nofollow
attribútumot tévedésből használtad belső linkeken, távolítsd el azokat is. - Mentsd el a változásokat, és a GSC-ben kérd az oldalak újraindexelését.
2. Hibás robots.txt fájl blokkolja a fontos tartalmakat
A robots.txt fájl a weboldalad gyökérkönyvtárában található, és utasításokat ad a keresőmotorok robotjainak, hogy mely oldalakat vagy könyvtárakat ne térképezzék fel. Egy rosszul konfigurált robots.txt fájl blokkolhatja a teljes weboldaladat, vagy annak létfontosságú részeit, beleértve a CSS vagy JavaScript fájlokat is, amelyek a vizuális megjelenéshez és a funkcionalitáshoz szükségesek.
Hogyan azonosítsd:
- Ellenőrizd a
/robots.txt
fájlt a böngésződben (pl.yourdomain.com/robots.txt
). - Használd a Google Search Console „Robots.txt tesztelő” eszközét, amely megmutatja, mely URL-eket blokkolja a robots.txt.
- Keresd a
Disallow: /
vagyDisallow: /wp-admin/
(ha nem szeretnéd indexelni az admin felületet, de véletlenül másra is hatással van) sorokat. Gyakori hiba, hogy egy fejlesztői környezetből származó robots.txt kerül élesbe.
Hogyan javítsd:
- Szerkeszd a robots.txt fájlt, és távolítsd el azokat a
Disallow
utasításokat, amelyek nem kívánt blokkolást okoznak. - Győződj meg róla, hogy a fontos CSS és JS fájlokat nem tiltod le, mivel ezek nélkül a Google nem tudja megfelelően renderelni az oldaladat, ami negatívan befolyásolhatja a rangsorolást.
- Töltsd fel az új robots.txt fájlt a szerveredre, és a GSC-ben teszteld újra.
3. Hibás kanonikus URL (canonical tag) használata
A kanonikus URL (<link rel="canonical" href="...">
) a keresőmotoroknak azt súgja, hogy ha több hasonló tartalmú oldal is létezik (pl. paraméteres URL-ek, nyomtatható verziók, HTTP/HTTPS változatok), akkor melyik az eredeti, preferált verzió. Egy hibás kanonikus tag rossz oldalra mutathat, egy nem létező oldalra, vagy akár egy olyan oldalra, amelyet nem is szeretnél indexelni, ezzel „ellopva” a relevanciát az eredeti tartalomtól.
Hogyan azonosítsd:
- Használd a GSC „Indexelés” jelentését, ahol a Google jelzi a kanonikus problémákat.
- Vizsgáld meg az oldalak forráskódját: minden releváns oldal
<head>
szekciójában ellenőrizd arel="canonical"
taget. - Keresd a hibásan beállított kanonikus URL-eket, amelyek nem az adott oldalra vagy a tartalom eredeti forrására mutatnak.
Hogyan javítsd:
- Győződj meg róla, hogy minden oldal kanonikus tagje a megfelelő, preferált URL-re mutat (önmagára, ha az az eredeti, vagy a „master” verzióra).
- Fixáld a hibásan megadott URL-eket, és ügyelj arra, hogy a kanonikus URL mindig abszolút URL legyen (pl.
https://yourdomain.com/oldal
, nem/oldal
). - Ha vannak paraméteres URL-ek (pl.
/termek?szin=piros
), akkor a kanonikus tag mutasson a paraméter nélküli alap URL-re (/termek
).
4. Hibás átirányítások (redirects)
Az átirányítások létfontosságúak a felhasználói élmény és a SEO szempontjából, különösen, ha weboldalad struktúrája változik, vagy tartalmakat mozgatsz. Azonban a hibás átirányítások komoly indexelési problémákhoz vezethetnek:
- Végtelen átirányítási láncok: Amikor az A oldal átirányít B-re, B C-re, C pedig vissza A-ra, vagy egy nem létező oldalra. Ez a felhasználók és a keresőrobotok számára is csúnya hibaüzenetet eredményez.
- Hibás átirányítások (404-re vagy irreleváns oldalra): Egy régi, értékes URL-ről egy nem létező oldalra (404) vagy egy teljesen irreleváns, gyenge minőségű oldalra történő átirányítás pazarolja a „link juice”-t és rontja a felhasználói élményt.
- 302-es (ideiglenes) átirányítás 301-es (állandó) helyett: Ha egy tartalom véglegesen átkerült, mindig 301-es átirányítást használj, hogy a PageRank és a relevancia átadódjon az új URL-nek. A 302-es átirányítások nem adják át a rangsoroló értéket.
Hogyan azonosítsd:
- Használj crawler eszközöket (pl. Screaming Frog, Sitebulb) a weboldalad átvizsgálására, ezek jelzik az átirányítási láncokat és a hibás átirányításokat.
- A Google Search Console „Indexelés” jelentésében láthatod a „Hibás átirányítás” vagy „404-es hiba” üzeneteket.
- A böngésző fejlesztői eszközei (Network fül) segítségével ellenőrizheted az egyes URL-ek átirányításait.
Hogyan javítsd:
- Rendszeresen ellenőrizd az átirányítási láncaidat, és távolítsd el a felesleges lépcsőket.
- Győződj meg róla, hogy minden átirányítás 301-es (állandó) legyen, ha a tartalom véglegesen átkerült.
- Mindig releváns oldalra irányíts át; ha nincs releváns oldal, akkor fontold meg az oldal tartalmának frissítését vagy egy egyedi 404-es oldal készítését, ami segít a felhasználónak.
5. Duplikált tartalom és a „HTTP vs HTTPS” vagy „www vs non-www” problémák
A duplikált tartalom az, amikor ugyanaz a tartalom több URL-en is elérhető. Bár a Google azt mondja, hogy nem bünteti ezt expliciten, a crawl budget pazarlása és a PageRank hígulása miatt komoly rangsorolási problémákat okozhat. Gyakori forrásai:
- Paraméteres URL-ek (pl.
/termek?szin=piros
és/termek?meret=L
ugyanazt a terméket mutatja). - HTTP és HTTPS változatok, vagy www és non-www változatok (pl.
http://yourdomain.com
,https://yourdomain.com
,http://www.yourdomain.com
,https://www.yourdomain.com
mind él). - Staging vagy teszt oldalak indexelése.
Hogyan azonosítsd:
- A Google Search Console „Indexelés” jelentésében a „duplikált tartalom” figyelmeztetések.
- Használj a
site:yourdomain.com
keresést a Google-ben, és keress rá a duplikált címekre vagy szövegrészletekre. - Nézd meg, hogy az oldalad elérhető-e mind HTTP és HTTPS, valamint www és non-www előtaggal.
Hogyan javítsd:
- Válaszd ki az egyik verziót (pl. HTTPS és www), és állandó 301-es átirányítással terelj át minden más verziót erre a preferált URL-re. Ezt a webszerver beállításaiban (pl.
.htaccess
fájl Apache esetén) vagy CMS-specifikus beállításokkal teheted meg. - Használj kanonikus taget a duplikált oldalakon, hogy a preferált URL-re mutasson.
- A paraméteres URL-ek kezelésére is használd a kanonikus taget, vagy a GSC „URL paraméterek” eszközét.
- Győződj meg róla, hogy a fejlesztői, staging környezeteket jelszóval véded vagy
noindex
,Disallow
utasításokkal kizárod az indexelésből.
6. Lassú betöltődési sebesség és mobil optimalizálás hiánya
Bár ezek nem közvetlen indexelési hibák, jelentősen befolyásolják a Googlebot crawl budgetjét és az oldal rangsorolását. A Google a felhasználói élményt előtérbe helyezi, és egy lassú, vagy mobilon rosszul használható oldal kevésbé valószínű, hogy jól rangsorol, sőt, a robotok is ritkábban látogatják meg.
Hogyan azonosítsd:
- Használd a Google PageSpeed Insights eszközt a betöltődési sebesség és a Core Web Vitals metrikák ellenőrzésére.
- A Google Search Console „Core Web Vitals” és „Mobil használhatóság” jelentései részletes információkat nyújtanak.
- Teszteld az oldalad különböző mobil eszközökön.
Hogyan javítsd:
- Optimalizáld a képeket (méret, formátum, kompresszió).
- Használj böngésző gyorsítótárazást (caching) és CDN-t (Content Delivery Network).
- Minimalizáld a CSS és JavaScript fájlokat.
- Válaszd ki a megfelelő tárhelyet.
- Gondoskodj a reszponzív (mobilbarát) designról, hogy az oldalad minden eszközön jól jelenjen meg.
7. Szerverhibák és állásidő
Ha a weboldalad gyakran elérhetetlen (5xx szerverhibák, állásidő), a Google robotok nem tudják feltérképezni, és ez negatívan befolyásolja az indexelést és a rangsorolást. A Google azt feltételezi, hogy az oldalad nem megbízható, és ezért ritkábban tér vissza.
Hogyan azonosítsd:
- A Google Search Console „Indexelés” jelentésében ellenőrizd a szerverhibákat.
- Használj uptime monitoring szolgáltatásokat, amelyek értesítenek, ha az oldalad elérhetetlenné válik.
Hogyan javítsd:
- Válassz megbízható tárhelyszolgáltatót, aki garantálja a magas rendelkezésre állást.
- Rendszeresen ellenőrizd a szerver naplókat a hibák feltárására.
- Optimalizáld a weboldalad kódját és adatbázisát a szerverterhelés csökkentése érdekében.
8. Hibás vagy elavult XML sitemap
Az XML sitemap egy lista a weboldalad összes olyan URL-jéről, amelyet indexelni szeretnél. Ez egy segítő kéz a Googlebot számára, különösen a nagy, bonyolult oldalak vagy a frissen indított webhelyek esetében. Egy hibás sitemap:
- Olyan URL-eket tartalmaz, amelyek
noindex
taggel rendelkeznek vagy blokkolva vannak a robots.txt-ben. - Olyan URL-eket tartalmaz, amelyek 404-es hibát eredményeznek.
- Elavult, nem tartalmazza az új oldalakat, vagy nem frissül.
Hogyan azonosítsd:
- A Google Search Console „Indexelés” > „Sitemaps” jelentése megmutatja a sitemap állapotát, a feltérképezett URL-ek számát és az esetleges hibákat.
- Ellenőrizd a sitemap fájlt manuálisan a böngésződben (pl.
yourdomain.com/sitemap.xml
).
Hogyan javítsd:
- Győződj meg róla, hogy a sitemap csak azokat az URL-eket tartalmazza, amelyeket szeretnél indexelni és amelyek elérhetőek.
- Rendszeresen frissítsd a sitemap fájlt, különösen új tartalmak hozzáadása vagy régi tartalmak törlése után. A legtöbb CMS rendszer automatikusan generál és frissít sitemap-et (pl. Yoast SEO, Rank Math).
- Add le a frissített sitemap-et a Google Search Console-ban.
9. Belső linkelési problémák (árva oldalak, hibás linkek)
A belső linkek kulcsfontosságúak az indexelés és a PageRank áramlása szempontjából. Ha egy oldalra nem mutat elegendő belső link, az „árva oldal” lesz, és a Googlebot nehezen találja meg, vagy alulértékeli a fontosságát. A hibás belső linkek (404-re mutató linkek) pedig rontják a felhasználói élményt és a crawl budgetet pazarolják.
Hogyan azonosítsd:
- Használj crawler eszközöket (pl. Screaming Frog) az árva oldalak és a hibás belső linkek azonosítására.
- A Google Search Console „Linkek” jelentése segíthet áttekinteni a belső linkstruktúrát.
Hogyan javítsd:
- Építs erős belső linkstruktúrát, hogy minden fontos oldal elérhető legyen néhány kattintással a főoldalról.
- Használj releváns és leíró anchor szövegeket a belső linkeknél.
- Rendszeresen ellenőrizd és javítsd a hibás belső linkeket.
10. Manuális akciók és biztonsági problémák
Ez a legdrámaibb forgatókönyv: a Google egy manuális akcióval (például spam, rossz minőségű tartalom, rejtett szöveg, vagy malware miatt) teljesen kizárja az oldaladat az indexéből. Ebben az esetben a weboldalad teljesen eltűnik a keresőtalálatok közül.
Hogyan azonosítsd:
- A Google Search Console „Biztonsági és manuális műveletek” > „Manuális műveletek” menüpontja azonnal jelzi, ha ilyen probléma van.
- A „Biztonsági problémák” menüpont figyelmeztet a malware vagy más biztonsági résekre.
Hogyan javítsd:
- Ha manuális akciót kaptál, azonnal olvasd el a Google üzenetét, és szüntesd meg a problémát (pl. távolítsd el a spam linkeket, rossz minőségű tartalmat, rejtett szöveget).
- Ha malware okozza a problémát, azonnal távolítsd el a kártevőt, tisztítsd meg az oldaladat, és erősítsd meg a biztonsági intézkedéseket.
- A probléma megoldása után küldj felülvizsgálati kérelmet a GSC-n keresztül, magyarázd el a megtett lépéseket.
Összefoglalás és a rendszeres audit fontossága
Az indexelési hibák végzetesek lehetnek a SEO szempontjából, és ahogy láttad, sokféle formában jelentkezhetnek. A legfontosabb, hogy tisztában legyél velük, és proaktívan kezeld őket. A Google Search Console a legjobb barátod ebben a folyamatban, hiszen ez a Google hivatalos kommunikációs csatornája a webmesterek felé, és itt láthatod a legtöbb problémát. Egy rendszeres technikai SEO audit elengedhetetlen a weboldalad egészségének fenntartásához.
Ne várd meg, amíg a forgalmad drasztikusan csökken! Kezdd el még ma felülvizsgálni a weboldalad indexelési státuszát, és javítsd ki azonnal a felfedezett hibákat. Egy jól indexelt weboldal az első lépés a láthatóság és a siker felé a digitális térben.
Leave a Reply