1 jun
Typiske SEO-fejl-image

Typiske SEO-fejl

Når Google’s og andre søgemaskiners crawlers skal indeksere indholdet på din hjemmeside, kan den såkaldte ”tekniske SEO” på din side enten gøre det meget nemt, eller meget svært for dem. Er din tekniske SEO ikke i orden, kan søgemaskinernes crawlers ikke gøre deres arbejde effektivt, og dermed ikke indekserere dit indhold korrekt.

Udover indekseringen af din hjemmesides indhold, vil din side også blive bedømt på hastighed, mobiloptimering og andre faktorer der spiller ind i forhold til hvordan dine besøgende oplever din hjemmeside.

I dette blogindlæg vil jeg gennemgå nogle af de fejl (vedr. teknisk SEO) vi typisk ser, når vi gennemgår og optimerer websites.

Manglende mobiloptimering

Et af de vigtigste parametre når søgemaskinerne skal indeksere en hjemmeside i 2018 er, at den er brugervenlig og let at overskue. Og eftersom lidt over 50% af al internettrafik i dag kommer fra mobilenheder, er mobiloptimeringen af en hjemmeside yderst vigtig. Sørg derfor for, at din hjemmeside har et responsivt og mobiloptimeret design.

Manglende eller forkert Meta Description

Meta Description er et HTML-tag der skal være i <head> tagget på hver eneste side på din hjemmeside, en Meta Description fortæller søgemaskinerne præcist hvad der findes på den pågældende side. Udover at det bruges til at indeksere siden korrekt, bliver indholdet af meta description også vist i søgeresultaterne på søgemaskinerne:

En god meta beskrivelse skal derfor indeholde følgende:

  • En god beskrivelse af hvad der findes information om, på den konkrete side
  • Op til 155 karakterer. Den må godt være længere, men så kan du risikere at Google trunkerer noget af teksten i visningen.
  • Brug gerne nogle af de keywords som du gerne vil findes på. Men husk at de skal bruge i en naturlig sætning.

Manglende eller forkert brug af H-tags

H-tags (<h1>, <h2> og <h3>) er HTML-elementer der bruges i tekst, til at angive overskrifter. Udover at de fleste CMS’er har en bestemt styling til disse tags, er de også med til at fortælle søgemaskinerne hvad der findes på din side.

Eftersom dit CMS styler dine H-tags på en bestemt måde, tænker du måske derfor mest på, hvordan teksterne ser ud på din side. Det kan derfor være tillokkende eksempelvis at lave mange <h1>-tags på hver enkelt side. Dette kan dog give problemer i forhold til indekseringen af din side, da det ikke giver et retvisende billede af, hvad der er det vigtigste budskab med netop den side.

Anbefalingerne er derfor således:

  • Et enkelt <h1> pr. side, der bruges til, med en overskrift, at angive hvad siden handler om
  • Brug derefter <h2> og <h3> tags til at angive under-overskrifter til de øvrige segmenter på siden

Hvis du ikke er tilfreds med størrelsen på dine <h2> og <h3> tags på din side, så bed evt. din webudvikler om at tilrette CSS’en på din hjemmeside, så disse tags får samme størrelse og udseende som <h1> tags.

Døde links

’Døde links’ er links på din side, der ikke virker. Dette giver en dårlig brugeroplevelse for dine besøgende, og har derfor en negativ indflydelse på din SEO-score. Du kan bruge dette værktøj for at scanne hele din hjemmeside igennem for døde links.

Manglende optimering af billeder

Billeder kan være en tung post på din hjemmesides hastigheds-regning. Det er derfor vigtigt at du sørger for, at billeder er så optimerede som muligt. Dette kræver at du først og fremmest sørger for, at billeder aldrig bliver uploadet til din hjemmeside i større størrelse, end de blive vist. Eksempelvis giver det ikke nogen mening at uploade et billede der er 4000x3000 pixels, hvis det vises i en kasse på din hjemmeside der er 400x300 pixels stor. Sørg derfor først og fremmest for, at gøre din billeder så små som muligt. Til dette kan du eksempelvis bruge dette værktøj.

Filformatet på billederne har også noget at sige - .png billeder fylder generelt mere end .jpg billeder – så hvis du kan få dine billede til at se flotte ud i .jpg-format, så er det til at foretrække.

En sidste ting du kan gøre er, at få din billeder optimeret til web. Dette gøres meget simpelt ved at køre billederne igennem dette værktøj.

Manglende CSS- og javascript-optimering

En hjemmeside indeholder typisk en række CSS og javascript-filer. De er en uundværlig del af enhver hjemmeside (da det er dem der har ansvaret for stylingen og funktionaliteten på siden), de fylder typisk en del, og kan tage noget tid for dine besøgendes computer / tablet / mobil at downloade. Man benytter sig derfor typisk af metoder som: ’bundling’ og ’minification’, der samler filerne til så få som muligt, og får dem til at fylde så lidt som muligt.

Hvis du kan spare 100 eller 200 millisekunder på din sides load-hastighed ved at optimere disse filer, vil dette ligeledes blive belønnet med en bedre rangering af søgemaskinerne.

Det er derfor vigtigt at du beder din webudvikler om at sørge for, at css- og javascript filer er så optimerede som muligt.

Manglende caching

Når en bruger besøger din side for første gang, kan man vha. af en teknik ved navn ’caching’, bede brugerens device om at gemme alle filerne fra dit website lokalt på deres device. Dette betyder, at disse filer ikke behøver at blive downloadet igen næste gang de indlæser en af dine sider. Caching er typisk automatisk slået til i de fleste CMS’er, men du kan køre denne test på din side, for at se om der er filer på din hjemmeside, der ikke benytter sig af caching.

Testen kan også bruges til se andre områder af din hjemmeside, der kan optimeres.

Langsom server

Vi ser ofte, at virksomheder benytter sig af den billigste hosting-løsning de kan finde på markedet. Men når man vælger den billigste løsning, havner ens hjemmeside typisk på en server sammen med 2- eller 300 andre hjemmesider. Dette kan i praksis betyde, at serveren har så travlt med at håndtere besøgende til alle hjemmesiderne, at den bliver meget langsom om at svare. Mange undersøgelser har vist, at brugere i 2018 mister tålmodigheden hvis en side er mere end 2-3 sekunder om at blive vist. Grænsen er endnu mindre hvis der er tale om en webshop.
Betal derfor hellere en smule ekstra for din hosting, og bed din udbyder om at komme på en server med så få andre hjemmesider som muligt.

Manglende robots.txt

Søgemaskinernes crawlere har begrænsede resurser.

robots.txt er en tekst-fil der skal ligge i roden på en hjemmeside, og bruges til at fortælle web-crawlers hvilke sider de ikke skal indeksere. Problemet med en manglende robots.txt fil er, at du kan risikere at søgemaskineres crawlers bruger en masse unødvendig tid på at indeksere sider, som du i princippet er ligeglad med, og derfor ikke får indekseret de vigtige sider. Sørg derfor for at din hjemmeside har filen, så du sikrer dig en så effektiv indeksering som muligt.

Manglende sitemap.xml

I direkte modsætning til robots.txt, er sitemap.xml en fil i roden på din hjemmeside, der fortæller søgemaskinernes crawlers hvilke sider du gerne vil have indekseret. Udover at angive at du gerne vil have siden indekseret, kan du også via sitemap.xml fortælle søgemaskinerne hvor vigtig du synes de enkelte sider er, samt hvor ofte de bliver opdateret. Du kan ikke blive garanteret at søgemaskinerne respekterer dine egne angivelser, men ved at bruge mulighederne i sitemap.xml, kan du hjælpe dem rigtig godt på vej.

Sitemap.xml bruges også som en vigtig brik i opsætningen af Google Search Console, som hvis du ikke allerede har oprettet din hjemmeside på, bør gøre med det samme.

De fleste CMS’er giver mulighed for at generere en sitemap.xml fil for dig – ellers så tag en snak med din webudvikler.

 

Dette er blot nogle af de ting du kan starte med at kigge på, når du skal optimere din hjemmeside til søgemaskinerne. Vi vil opfølge denne artikel med flere råd på et senere tidspunkt.

 

Kunne du lide artiklen?

Tilmeld dig vores nyhedsbrev, og hold dig opdateret på nyt fra vores redaktion.