7 jednoduchých ale prehliadaných SEO audit tipov

SEO audity. Milujeme ich, ale zároveň nenávidíme. Nie je nič potešujúcejšie ako odhalenie, že problém udržania stránky klienta je na výbornej ceste. Nevýhodou je časová náročnosť. Každý má vlastné metódy a zoznam na vykonanie SEO auditu.

Niekedy sa dostaneme do rytmu a vôbec sa nemusíme zaoberať ničím mimo kontrolného zoznamu. Pridávanie do kontrolného zoznamu je kľúčom k efektívnemu auditu. Obzvlášť, keď nové technológie a pokrok v hľadaní sú samozrejmosťou. Pred troma rokmi ste museli skontrolovať a verifikovať Google autorstvo, aby ste sa presvedčili, že máte správne nastavenie, dnes to tak už nie je. Ak pracujete s klientom, ktorý má problémy so zobrazovaním príbehov v Google news – váš kontrolný zoznam sa bude líšiť od štandardného zoznamu na audit SEO.

V niektorých prípadoch môže niečo veľmi jednoduché vyriešiť veľký problém. Máme tu pre vás zoznam siedmych najčastejších problémov, s ktorými pomáhame firmám s nepresvedčivými výsledkami auditu.

Aký je váš status?

Kód statusu sa dá ľahko prehliadnuť. Skontrolovali ste, že vaše 404 stránky vracajú status 404? Máte presmerovanie 301? Máte viacnásobné presmerovanie? Môžete použiť tento Chrome plugin a uvidíte stavový kód a zároveň aj cestu presmerovania. Sme prekvapení počtom stránok, ktoré majú 404 stránky, ale nemajú 404 status.

Duplicitné stránky

Máte 2 domáce stránky? Rozdelenie vašich PR na 2 domovské stránky môže byť dvojaké – duplicitné a problém s hodnotením stránky. Najčastejšie sa s tým stretávate na stránkach, ktoré majú HOME link. Toto je bežná chyba, tak to určite skontrolujte.

Mnoho SEO auditov sa pozerá na obsah webu. Ako kontrolujete duplicitný obsah stránky? Niektoré SEO vyhľadávania sledujú duplicitné názvy, meta popis a štítky, ale nie samotný obsah. Áno, duplicitné štítky môžu byť známkou duplicitného obsahu, ale nie je to pravidlo.

Aká je vaša preferovaná doména?

www vs. bez-www. Pozeráte sa na toto? Potom predpokladáme, že tiež kontrolujete https:// a www.https://. Narazili sme na niektoré z týchto otázok, hlavne odkedy Google oznámil benefity prechodu na SSL. Narazili sme dokonca na jednu stránku, ktorá mala každú z týchto verzií – štvornásobne zvýšené indexovanie stránok vo výsledkoch vyhľadávania. Ak narazíte na tento problém, použite nástroj Moz na určenie stránky, ktorá má najlepšie odkazové signály. Presmerujte verziu s vyšším PR na verziu s nižším, čo môže dočasne zmeniť rebríček.

Konverzné stránky vo výsledkoch vyhľadávania

Pozrite sa na výsledky vyhľadávania pre „nepárne“ stránky. Nie je nezvyčajné, že vo výsledkoch nájdete plávať staré stránky. Konverzné stránky sú vo výsledkoch vyhľadávania bežné, obzvlásť na stránkach používajúcich WordPress. Presvedčte sa, že tieto stránky nie sú indexované, aby na nich používatelia nemohli naraziť a odviezť vás z vášho sledovania cieľa. Alebo ešte horšie, prístup k sťahovateľnému obsahu zdarma.

Opustené stránky

Dávajte pozor na opustené stránky. Jedná sa o stránky, ktoré nie sú pripojené, alebo predtým boli pripojené. V niektorých prípadoch bol web redizajnovaný a na tieto stránky sa zabudlo. Videli sme vytvorené prípadové štúdie, ktoré potom neboli prelinkované z webu. Toto môže mať za následok plytvanie úsilím. Sú to zväčša stránky nájdené len v sitemap.

Skontrolujte vašu sitemap

Našli ste vo výsledkoch vyhľadávania stránky, ktoré sa nedajú nájsť na webe? Skontrolujte sitemap. Zastarané sitemap môžu spôsobovať problémy. Ak sitemap obsahuje prepojenia, 404 stránky, alebo prelinkovania na kanonické (v sitemap by mali byť iba kanonické stránky) rútite sa do problémov. Google to nezaindexuje. Skontrolujte report sitemap v konzole vyhľadávania, aby ste videli, koľko stránok zapadá do Google zo sitemap, verzus koľko ich je indexovaných.

Taktiež sa uistite, že výsledky vyhľadávania stránky sú blokované. To je zvyčajne prehliadané. Vyhľadávanie stránky môže generovať URL, ktoré nechcete indexovať cez Google. Google nechce indexovať výsledky vyhľadávania na stránke. Tie môžu poskytnúť slabé užívateľské skúsenosti, a oni môžu generovať tony 404 stránok.

Blokovanie stránok z vyhľadávania

Robots.txt je najpoužívanejší spôsob na blokovanie stránok z vyhľadávania. Avšak na stránke sa dá ďalej pokračovať v organickej návštevnosti. Ak Google cíti, že stránka je relevantná pre vyhľadávanie užívateľmi, ukáže ju aj napriek blokovaniu. Najlepší spôsob ako odstrániť už indexovanú stránku alebo web zo SERP to nie je, indexujte ju pomocou index tag alebo X-Robots-tag.

Uistite sa, že váš developer má najlepšie postupy v meste. Odporučili by sme všetkým vývojárom mať kontrolný zoznam pre kontrolu.