Veebimajutuse blogi

Kuidas leida üles tehnilised probleemid, mis kodulehe SEO tulemuslikkust vähendavad?

Koduleht võib olla igati korralik ja sisukas, kuid ometigi “trahvivad” otsimootorid veebilehte otsingutulemustes tahapoole jätmisega. Milles võib olla probleem? Kas ehk ei meeldi otsirobotitele kodulehe mõned tehnilised näitajad ja sisu esitamine? Küsimustele, mis võib SEO tulemusi kõige enam mõjutada, annab vastuse Combipact OÜ tegevjuht Anti Kallaste.

Millised on kõige levinumad kodulehe tehnilised vead, mis otsimootoritele üldse ei meeldi?

Tehnilise poole pealt esineb vigu väga paljudel veebilehtedel, kuid tähtsamateks võib nimetada just veebilehe seadistuste ja indekseerimisega seotuid. Levinumad neist on järgmised:

  • dubleeritud lehtede olemasolu (veebileht avaneb nii www-ga kui ilma, nii kaldkriipsuga aadressi lõpus kui ilma);
  • tähtsusetud lehed (thin content) on leitavad ja indekseeritavad ning raiskavad veebilehele eraldatavaid ressursse;
  • tähtsad lehed ei ole leitavad ja indekseeritavad (noindex, sissetulevate linkideta lehed, valesti seadistatud URL-id);
  • puuduvad robots.txt ja kaardifail (sitemap.xml);
  • veebileht annab vastuseks 4xx vigu või mittevajalikke 3xx ümbersuunamisi;
  • veebilehel on kasutatud üleliigselt palju kujundusressursse, mistõttu leht ei lae piisavalt kiiresti;
  • puudub HTTPS;
  • veebileht pole mobiilisõbralik.

Isegi kui koduleht on hästi optimeeritud otsingusõnade ja muu sisu osas, võivad need tehnilised vead mõjutada oluliselt selle leitavust. Kui otsimootorid ei suuda piisavalt hästi seda optimeeritud sisu kätte saada ning näevad, et kasutajatel tekib samuti sellega probleeme, tõstavad need pigem otsingus ette veebilehe, mida külastades kasutajatel selliseid probleeme ei teki.

Eriti tähtsaks on viimasel ajal saanud mobiilisõbralikkus ja kodulehe kiire allalaadimine.

Mida tähendab, kui koduleht pole mobiilisõbralik ja kuidas see otsingutulemusi mõjutab?

See tähendab, et mobiilist vaadates avaneb kasutajatele sama struktuuriga vaatepilt nagu lauaarvutis. See omakorda tähendab, et tekst ja kogu sisu on üliväikesed ning kodulehte ennast on keeruline kasutada. Sisu vaatamiseks tuleb zoomida ning linkidele ja nuppudele sõrmega klõpsamine on eriti raske. Kuna mobiilne internet pole ka alati kõige kiirem, võtab lehe laadimine kauem aega, kuna laaditakse samu ressursse, mis on mõeldud lauaarvuti versioonile ehk elemendid on suured nii mõõtudelt kui laetavalt mahult. Otsingutulemusi mõjutab see eelkõige mobiilides tehtud otsingute puhul, kuna sellise kodulehe esiletoomine teeb kasutajate elu keerulisemaks – nad peavad kauem ootama allalaadimist ning lehe kasutamine on samuti raskendatud.

Just seetõttu tuuakse rohkem esile just mobiilisõbralikke veebilehti ja eriti veel nende lihtsustatud versioone (näiteks AMP), mis mõeldud veelgi kiiremaks laadimiseks, kuid omavad sama sisu ja funktsionaalsust.

Kas otsimootorid vaatavad ka seda, kui hästi koduleht ühildub erinevate brauseritega?

Otsimootorid vaatavad iga kodulehe puhul väga paljusid tegureid ning ühilduvus on samuti üks neist. Kuid seejuures tuleb meeles pidada, et eelkõige vaatab iga otsimootor selle enda poolt kasutatava brauseriga ühilduvust ehk Google’i puhul oleks selleks Chrome (just seda kasutavad ka Google bot´id).

Seetõttu tuleks kodulehte vahetevahel uuendada, et mitte lasta uutes veebilehitsejates kasutatavatel tehnoloogiatel eest ära joosta. Uuendamata lehtedel võivad lisaks aegunud koodile olla ka teatud turvariskid, mis teevad neid häkkeritele ahvatlevamaks.

Kuidas seda ühilduvust saaks ise kõige paremini kontrollida?

Ühilduvust peaks kindlasti kontrollima veebilehe arendaja selle tegemise käigus, aga ka peale kodulehe kättesaamist arendajalt võiks iga-aastaselt teostada ühilduvuse kontrolli. Selleks on olemas hulgaliselt nii tasuta kui tasulisi veebipõhiseid tööriistu.

Kui kiiresti peaks koduleht avanema ja kuidas seda järgi vaadata, et oleks otsimootorite jaoks piisavalt kiire?

Ideaalis võiks koduleht täielikult alla laadida kolme sekundi jooksul. Mida kauem selle laadimine aega võtab, seda suurem on võimalus klienti kaotada.

Praegu on paljudel kodulehtedel arenemisruumi selles osas, kuna enamus ei jõua kolmele sekundile isegi lähedale.

Oma kodulehe laadimisaega saab kontrollida erinevate tööriistade abil. Ühed populaarsemad on näiteks Webpagetest.org (mida ka Google soovitab), Google’i enda PageSpeed Insights (ja ka web.dev) ning GTmetrix.

Mida teha, et koduleht otsimootorite jaoks piisavalt kiire oleks?

Põhiline asi, mida tuleks meeles pidada – ära kasuta ebavajalikke ressursse. See tähendab, et kõik kasutatavad pildid ei tohi olla üleliia suured, .css ja .js failid peavad olema minimeeritud, animatsioonide asemel võiks kasutada staatilisi kujutisi jne. Kindlasti võib üks koduleht animeerituna ja stiliseerituna väga ilus välja näha, aga siis tuleb teha ka kulutused ressursside optimeerimisele, mitte jätta seda juhuse hooleks.

Needsamad ülalmainitud tööriistad on ka abiks kiirusega seotud puuduste leidmiseks. Paljud kasutavadki veebilehtede arendamisel PageSpeed Insights tulemusi etalonina (kuid alati pole 100/100 hinne vajalik).

Kuidas leida katkisi linke ja mida nendega teha, et see otsingutulemusi halvasti ei mõjutaks?

Käsitsi katkiste linkide leidmine on väga aeganõudev protsess, mille käigus ei pruugi ka kõiki selliseid viiteid leida. Sellepärast soovitaksin kasutada kas veebipõhiseid tööriistu nagu Broken Link Checker, sama nimega veebilehitseja lisamoodulit või eraldi programme, nagu näiteks Screaming Frog SEO Spider (väiksemate lehtede jaoks piisab ka tasuta versioonist). Leidmisel tuleks katkised lingid kas parandada toimivate vastu või eemaldada. Tihti juhtub nii, et mõne lehe viide võib olla muudetud, aga sisus pole sellele viiteid uuendatud (ega ümbersuunamist seadistatud) ning nii tekivadki katkised lingid, mis enam ei viita vajalikule lehele, vaid suunavad autoriteedi sellest eemale. Kontrollige pidevalt katkiste linkide olemasolu, kuna seda on väga lihtne teha ja väiksema leitud hulga korral ka lihtne parandada.

Millised on sisuhalduslahenduste, näiteks WordPressi tüüpilised seadistusvead, mis kajastuvad kohe ka kehvades SEO tulemustes?

Viimastel aastatel on WordPress ja teised sisuhaldussüsteemid teinud väga suure edasimineku out of the box optimeerituse osas. Kui varem olid isegi URLid vaikimisi väga ebasõbralikud kasutajatele ja otsimootoritele, siis praegu on olukord palju parem.

Rääkides aga tüüpilistest seadistusvigadest, siis üheks tähtsaimaks veaks, mida esineb liigagi tihti, on peale arendajalt uue kodulehe kättesaamist ja vana asendamist linnukese mahavõtmine WordPressi sätetes „Keela selle saidi indekseerimine otsimootorite poolt“ seade juurest. See omakorda ütleb otsimootoritele, et antud veebilehte pole vaja otsingus näidata ning olemasolevad tulemused hakkavad järjest kaduma. Täiesti uue lehe puhul see aga kunagi ei ilmugi otsingusse.

Veel võiks nimetada tüüpiliseks veaks mitmekeelsete lehtede keeleparameetrite vale kasutamist. Nimelt kasutavad paljud vaikimisi pakutavaid ?lang=en jms parameetreid, mida võiks asendada URLides keele alamkaustaga, lihtsustades nii enda, otsimootorite kui ka kasutajate elu, kuna selliseid viiteid on lihtsam kasutada, hallata ja meeles pidada. Ärge tehke otsimootorite elu keerulisemaks, neil on niigi vaja triljoneid viiteid külastada ja hallata.

Millised on piltide üleslaadimise tehnilised vead, mida otsimootorid võivad karistada?

Suurim piltidega seotud viga on nende suurus. Otseselt selle eest otsimootorid ei karista, kuna suured ja korraliku eraldusvõimega pildid võivad kellegi jaoks olla kasulikud (näiteks fotograafid, kunstnikud, NASA), kuid boonuspunkte selle eest tavaliselt ei saa. Nimelt aeglustavad suured ja kaalukad pildid kodulehtede allalaadimist, mis omakorda võib takistada otsingutulemustes kõrgematele positsioonidele jõudmist.

Kaasaegsete tehnoloogiate abil saab pilte optimeerida nii, et isegi sama suuruse ja kvaliteediga kujutised võivad kaalu poolest kümneid kordi erineda. Erinevus seisneb taustamürade ja toonide vähendamises, mida tegelikult pole palja silmaga näha. Külastaja jaoks on aga suur vahe, kas pilt kaalub 2 MB või 50 kB, eriti veel mobiilse internetiga, mis ei pruugi igal pool olla hea kiirusega.

Seetõttu tuleb meeles pidada, et pilte pole vaja teha vajalikust suuremaks ning optimeerida tuleb neid iga kord enne kodulehele üles laadimist. Enamasti saab niiviisi säästa paar megabaiti, mis tähendavad väärtuslikke sekundeid kodulehe allalaadimisel külastajate poolt.

Kui kodulehe aadress või mõne olulise lehekülje veebiaadress muutus, siis mismoodi see valutult ümber suunata, et otsingumootorites uus aadress toimima hakkaks?

Õige vastus sellele on 301 koodiga ümbersuunamine. Kui tekib vajadus – justnimelt vajadus, mitte niisama soov – muuta lehe aadressi, siis tuleks meeles pidada, et see toob 99% tõenäosusega muutusi otsingutulemustes ja külastajate arvus, kasvõi ajutiselt. Olen kokku puutunud mitmete selliste migratsioonidega ning kui parimal juhul oli mõju peaaegu märkamatu, siis halvimal juhul oli näha ajutist külastajate vähenemist umbes 30% võrra (samas tuleks mainida, et peale tulemuste taastumist külastajate arv isegi tõusis).

Parima võimaliku tulemuse saavutamiseks kodulehe aadressi muutmisel tuleks järgida otsimootorite soovitusi (näiteks Google’i juhendit). Kui kodulehe aadressi muutmiseks tuleks teha päris mitu tegevust, siis ühe lehekülje aadressi muutmisel saab vaid seadistada 301 ümbersuunamise. Kindluse mõttes võiks veel Google Search Console’is mõlemad lehe versioonid URL inspectioni abil üle vaadata, et anda muutusest otsirobotile märku.

Artikkel ilmus algselt Veebimajutuse blogis.

Telli Geeniuse uudiskiri

Saadame sulle igal argipäeval ülevaate tehnoloogia-, auto- ja rahaportaali olulisematest lugudest.