Teknisk SEO är grunden för all sökmotoroptimering. Det är både det viktigaste och mest grundläggande när du jobbar med SEO – en ren hygienfaktor som måste vara på plats. En tekniskt optimerad site garanterar inte att du rankar på topplaceringar direkt, men helt utan teknisk optimering kommer du att få det mycket svårare (om inte omöjligt) att nå toppen.
Teknisk SEO handlar om två nyckelområden. Först har vi användarupplevelsen – hur det känns att besöka och använda webbplatsen. Sen har vi sökrobotarnas perspektiv – hur lätt det är för dem att hitta, förstå och indexera innehållet. Viktiga delar i teknisk SEO är strukturfrågor som webbplatsstruktur och URL-struktur men också crawling, indexering och uppmärkning av innehåll.
Därför är teknisk SEO viktigt
Om sökrobotarna inte kan nå eller förstå ditt innehåll är chansen minimal att din site dyker upp i sökresultaten. Kan inte sökmotorn hitta dig så existerar du inte i sökresultaten.
Och om webbplatsen är tekniskt instabil – med element som hoppar runt eller laddar superlångsamt – kommer användarupplevelsen att vara så dålig att sökmotorerna kan välja att inte visa webbplatsen alls i sökresultaten, hur bra innehållet än är.
Din webbplats behöver inte ha perfekt teknisk SEO för att synas i sökresultaten, det räcker i många fall att webbplatsen håller en okej standard. Men det är viktigt att ta med sig att möjligheterna ökar ju bättre tekniskt optimerad webbplatsen är.
Kort sagt: alla andra SEO-åtgärder blir verkningslösa om inte den tekniska grunden är solid. Det är där allting börjar.
Vem behöver kunna teknisk SEO?
Det finns två vanliga ingångar till SEO-världen. Vissa kommer från innehållssidan och kan vara skribenter, kommunikatörer och marknadsförare i grunden. Andra närmar sig SEO från den tekniska sidan, med en bakgrund i webbutveckling. De flesta SEO-specialister har visserligen koll på båda delarna, men specialiserar sig ofta på det som intresserar dem mest.
Oavsett om det var innehållet som först fångade ditt intresse för SEO, är teknisk kunskap en värdefull grund att stå på. I praktiken samarbetar många SEO-experter med utvecklare som har djupare teknisk kompetens för att lösa mer komplexa utmaningar. Men för att samarbetet ska fungera behöver du kunna identifiera problemen och föreslå förbättringar som optimerar webbplatsen för sökmotorerna.
Hur svårt eller enkelt man tycker det är att arbeta med teknisk SEO varierar. Grunderna är ganska enkla att ta åt sig, men det finns en hel del expertis att bygga genom att specialisera sig i teknisk SEO.
Hur fungerar en sökmotor?
För att leverera relevanta sökresultat arbetar sökmotorer genom flera nyckelsteg. Ofta pratar man om tre steg – crawling, indexering och tillhandahållning av resultat – men för att bättre förstå de tekniska aspekterna av SEO lägger vi till ett fjärde steg: processering av innehållet. Detta sker mellan crawling och indexering.
Crawling
Processen börjar med att sökmotorn lägger URL:er i en kö för crawling. Särskilda program, så kallade crawlers eller spindlar, besöker sedan systematiskt dessa webbadresser för att samla in information. Under besöket följer crawlern länkar för att upptäcka nytt innehåll, som i sin tur läggs till i kön för crawling.
Processering
Efter att en sida har crawlats behöver sökmotorn bearbeta och förstå innehållet. För att göra detta kör sökmotorn sidans kod, precis som en webbläsare gör när du besöker sidan. Detta är särskilt viktigt för sidor som använder JavaScript eftersom innehållet först måste köras för att sökmotorn ska kunna se det kompletta innehållet.
Förr fanns det en idé om att sökmotorerna inte förstod sig på Javascript, det stämmer inte längre men när detta krävs hamnar sidan i en separat kö för rendering vilket kan ta lite längre tid innan det når nästa steg – indexeringen. Om nya länkar upptäcks under processeringen läggs även dessa till i kön för crawling.
Indexering
När innehållet har processats och sökmotorn förstår vad sidan innehåller, bedöms om innehållet är tillräckligt unikt och av god kvalitet. Om så är fallet lagras sidan i sökmotorns index – en omfattande databas av all insamlad information.
Tillhandahållning
I det avslutande steget matchar sökmotorn användarnas sökfrågor mot det indexerade innehållet. Här försöker sökmotorn först förstå användarens intention för att sedan hitta och presentera de mest relevanta resultaten från sitt index. Träffarna rankas baserat på många faktorer, där både innehållets relevans och tekniska aspekter spelar viktiga roller.
Teknisk SEO:s roll i sökmotoroptimering
Teknisk SEO kommer in i alla sökmotorns steg men är särskilt viktig i de två första – crawling och processering. Det är här vi lägger grunden för att sökmotorn ska kunna hitta, förstå och värdera vårt innehåll korrekt. Medan innehållsoptimering (on-page SEO) fokuserar på att skapa relevant innehåll och länkbyggande (off-page SEO) handlar om att bygga auktoritet genom externa länkar, ser teknisk SEO till att innehållet är tillgängligt och förståeligt för sökmotorerna.
Vad omfattas av teknisk SEO?
Crawling
En central del av teknisk SEO handlar om att optimera hur sökrobotar upptäcker och når innehållet på din webbplats. Det innebär inte bara att göra viktigt innehåll tillgängligt för crawling, utan också att hindra sökrobotar från att slösa tid på innehåll som inte ska visas i sökresultaten. Genom teknisk SEO har vi flera verktyg och metoder för att styra hur sökmotorer crawlar vår webbplats.
Ett centralt begrepp inom crawling är ”crawl budget” – antalet sidor som sökmotorn planerar att besöka på din webbplats under en viss tid. Detta begrepp är viktigt eftersom sökmotorerna har begränsade resurser. Med den enorma mängden information på internet är det omöjligt för sökmotorerna att ha koll på allt innehåll samtidigt, vilket gör att de måste prioritera sin crawling.
För de flesta webbplatser är crawl budget inget att oroa sig över. Det blir främst relevant för stora webbplatser med över 10 000 sidor eller sidor där innehållet uppdateras mycket frekvent. Oavsett webbplatsens storlek är det dock viktigt att vara rädd om sökmotorernas resurser och inte slösa crawl budget på trasiga eller felaktiga sidor – sökmotorerna uppskattar webbplatser med god teknisk hälsa.
Sökmotorernas spindlar är ständigt aktiva och besöker både nya och befintliga sidor. Hur ofta din webbplats crawlas beror på flera faktorer som dess storlek, popularitet, auktoritet och hur ofta innehållet uppdateras. Du kan följa Googles besök på din webbplats genom ”Crawl stats”-rapporten i Google Search Console (under ”Settings”). Du kan läsa mer om vad Google Search Console är här.
Vid större uppdateringar kan du även signalera till Google att det finns nytt innehåll genom att skicka in en indexeringsbegäran via URL Inspection-verktyget. Även om du inte kan tvinga sökmotorn att besöka din webbplats, ligger det i både ditt och sökmotorns intresse att nytt och uppdaterat innehåll upptäcks snabbt. Liknande funktioner finns även i andra sökmotorers verktyg, som Bing Webmaster Tools.
Webbplatsstruktur
Om du ska börja ditt arbete med teknisk SEO någonstans så är det med webbplatsstrukturen. Det handlar om hur sidorna på din webbplats länkar till varandra – via exempelvis menyer och innehållslänkar. Eftersom både sökmotorer och din webbplats användare upptäcker och når nytt innehåll via dessa länkar är strukturen viktig ur båda perspektiven.
En genomtänkt och SEO-vänlig webbplatsstruktur är grunden för mycket av SEO-arbetet på webbplatsen då du i strukturplaneringen ofta identifierar vilka sidor som finns och ska hänvisa till varandra, men också vilka som inte finns och behöver skapas. Mycket SEO-arbete kommer från denna strukturella planering.
När strukturen är välplanerad blir det enklare för sökmotorer att crawla innehållet. Samtidigt blir det lättare för användare att hitta vad de letar efter, vilket i sin tur leder till en bättre användarupplevelse.
En bra struktur gör det också möjligt för sökmotorerna att förstå relationer mellan olika sidor och innehållstyper på din webbplats. Den hjälper till att identifiera viktigt innehåll och visar hur olika delar av webbplatsen hänger ihop. Detta påverkar inte bara crawlingen utan även hur sökmotorn värderar och rankar ditt innehåll.
Sitemap.xml
Även om sökmotorer främst navigerar på internet via länkar, behöver inte alla dessa länkar vara synliga för användare. Ett viktigt exempel på detta är sitemap.xml – en särskild fil som fungerar som en karta för sökmotorer. Den innehåller en lista över dina viktiga sidor och hjälper sökmotorer att upptäcka och crawla innehållet effektivt.
Sitemap.xml är, som namnet antyder, en XML-fil som du placerar på din webbplats. I dess enklaste form är det en lista med URL:er, men du kan också inkludera ytterligare information om varje sida som när den senast uppdaterades eller hur ofta den brukar uppdateras. Detta hjälper sökmotorerna att planera sina besök mer effektivt. Alla webbplatser bör ha en korrekt optimerad sitemap.
Medan de flesta länkar på din webbplats bör vara tillgängliga för både användare och sökmotorer, är sitemap.xml enbart till för sökmotorernas skull. Den ger en tydlig översikt över din webbplatsstruktur och guidar sökmotorer till det innehåll som är viktigt att indexera.
Ofta så använder man sig av ett plugin, som RankMath eller Yoast, eller någon annan form av automatisering för att skapa sitemaps. Dessa ska smidigast kunna uppdateras automatiskt om man gör någon förändring på webben. SEO-arbetet med en sitemap (förutom att se till att den fungerar som den ska) berör främst två saker: att se till att de viktiga sidorna finns i sitemap och att de oviktiga sidorna hålls borta från sitemap. Exempelvis så vill man inte att sidor som är borttagna eller som har bytt adress är kvar och inte heller att sidor som man vill få synliga i sökmotorn saknas.
Du hittar vanligtvis din sitemap genom att lägga till /sitemap.xml eller /sitemap_index.xml efter din webbplats URL. Om du använder ett plugin kan det ha en annan sökväg, men denna information hittar du oftast i pluginets inställningar.
Du bör skicka in din sitemap till Google via Search Console. Det gör du genom att klicka på sitemaps och lägga till den där. Utöver detta bör du se till att den är länkad via din robots.txt fil så att andra crawlers kan hitta den.
Robots.txt
Robots.txt är en textfil som placeras direkt under din webbplats root. Det är det första en sökrobot ska besöka innan den börjar crawla din webbplats. I robotsfilen kan du ange instruktioner för vad sökroboten får besöka och vad den ska undvika.
Här kan du visa vägen till viktigt innehåll och sätta upp stopp för områden som inte behöver crawlas. Det är också i robotsfilen som du kan, och bör, länka till din sitemap för att göra det enklare att upptäcka den för sökmotorerna.
Robots.txt används ofta för att blockera crawling av sidor som inte tillför något värde. Exempelvis för administrativa sidor exempelvis /wp-admin. Det innebär dock inte att en sökrobot inte kan nå dessa sidor, robots-filen är mer ett önskemål än ett direkt kommando. Det kan vara smart att inte förlita sig på reglerna man sätter upp där för exempelvis känsligt innehåll.
En robotsfil innehåller direktiv till sökmotorer. De vanligaste direktiven är:
- User-agent: Anger vilka robotar som reglerna gäller för. Du kan ha olika regler för olika robotar eller samma regler för alla.
- Disallow: Anger vilka mappar eller sidor som en sökmotor inte ska besöka.
- Allow: Gör det möjligt att göra undantag från disallow-regler. Eftersom allt är tillåtet som standard om det inte omfattas av en disallow-regel, används allow främst för att skapa undantag inom blockerade områden.
- Sitemap: Anger var robotarna kan hitta din sitemap.
Vi tar några exempel:
User-agent: *
Disallow: /wp-admin
Denna regel innebär att vi blockerar alla crawlers att besöka /wp-admin. Om vi istället hade skrivit “GoogleBot” som user-agent så hade regeln endast varit applicerbar för just GoogleBot.
User-agent: *
Allow: /
Denna regel innebär att vi tillåter alla crawlers att besöka alla sidor på vår webbplats.
User-agent: *
Disallow: /kategori/
Allow: /kategori/produkter/
Allow: /kategori/tjanster/
Här blockerar vi en huvudkategori men tillåter crawling av specifika, viktiga underkategorier.
När sökmotorer tolkar Allow och Disallow följer de principen om att den mest specifika regeln gäller. Det innebär att en regel som matchar en längre del av URL:en har företräde framför en regel som matchar en kortare del. Exempelvis:
User-agent: *
Disallow: /kategori/
Allow: /kategori/produkter/
Allow: /kategori/tjanster/
Disallow: /kategori/tjanster/exempeltjanst/
I detta fall kommer:
- /kategori/ att blockeras (grundregeln)
- /kategori/produkter/ att tillåtas (mer specifik än grundregeln)
- /kategori/tjanster/ att tillåtas (mer specifik än grundregeln)
- /kategori/tjanster/exempeltjanst/ att blockeras (mest specifik av alla)
Här ser vi hur vi kan börja med en bred blockering av en hel katalog, göra undantag för specifika undersektioner vi vill tillåta, och sedan blockera enskilda sidor inom dessa undersektioner. Sökmotorn följer alltid den regel som matchar längst del av URL:en.
HTTP statuskoder
När du besöker en webbplats sker en kommunikation mellan din webbläsare och en server där webbplatsens information lagras. Processen börjar med att webbläsaren skickar förfrågningar till servern för att hämta olika resurser, som exempelvis webbsidor och bilder. Vid varje förfrågan inkluderar servern en HTTP-statuskod i sitt svar. Denna kod informerar webbläsaren om hur det gick att hantera förfrågan, om den lyckades eller om det uppstod några problem.
En sökrobot genomför samma process, och statuskoderna påverkar webbplatsens SEO. När det gäller crawling är det främst viktigt att vi inte slösar på crawlerns resurser genom att det finns sidor som skickar oönskade statuskoder, exempelvis onödiga omdirigeringar som flyttar runt crawlern eller brutna länkar som resulterar i 404-fel. God teknisk SEO handlar därför mycket om att hålla ordning på sina statuskoder och se till att sidorna svarar som de ska.
En webbplats med många felaktiga statuskoder signalerar till sökmotorn att sidan inte underhålls ordentligt, vilket kan påverka hur ofta sökmotorn väljer att besöka sidan. Det är därför viktigt att regelbundet kontrollera och åtgärda eventuella problem med statuskoder som en del av det löpande SEO-arbetet.
Processering & indexering
Processering och indexering är processen när sökmotorn arbetar med att förstå sig på sidorna och spara det i sitt index. När en sida har crawlats försöker sökmotorn analysera och förstå innehållet på sidan. Detta innehåll sparas sedan i sökmotorns index – en enorm databas som innehåller miljarder webbsidor. När du arbetar med teknisk SEO är din uppgift att se till att det blir så enkelt som möjligt för sökmotorn att förstå ditt innehåll. Det handlar också om att övervaka och förstå vilka av dina sidor som finns i index och hur de är indexerade. För att en sida ska kunna visas i sökresultaten måste den först vara indexerad.
I detta arbete ingår flera viktiga delar – från att se till att dina sidor är korrekt uppmärkta med HTML och strukturerad data, till att hantera hur olika språkversioner av samma innehåll tolkas. Dessutom behöver du aktivt arbeta med att styra vilka sidor som ska indexeras och hur du hanterar eventuellt duplicerat innehåll.
En naturlig plats att börja sitt arbete är att få en förståelse för vilka sidor som är indexerade och om det finns sidor som borde vara indexerade som inte är det. Till din hjälp har du Google Search Console.
I den vänstra menyn hittar du ett par rapporter som är direktkopplade till indexering. Klickar du på rapporten ”Pages” så får du en överskådlig vy över hur många sidor som är indexerade, hur många som inte är det och varför det är så. Vill du undersöka en enskild URL så går det att göra via URL-inspection verktyget.
Ett annat sätt att få en snabb överblick över hur många sidor på en webbplats som finns med i index är genom att i webbäsarens sökfält ange: “site:” följt av webbplatsens namn. Exempelvis: site:grandur.se. Det går också att titta på specifika sidor med samma metod, fast med hela URL:en.
URL-struktur
URL (Uniform Resource Locator) är adressen till en specifik sida på nätet. I processeringsfasen använder sökmotorn URL:en som en av flera signaler för att förstå sidans innehåll och kontext. En väl strukturerad URL kan därför göra det enklare för sökmotorn att förstå vad sidan handlar om och hur den relaterar till resten av din webbplats.
URL:erna är viktiga av tre huvudskäl: de skapar en bättre användarupplevelse när de är lätta att förstå, de är en rankingfaktor (om än något svagare nuförtiden), och de ger bättre, mer beskrivande länkar. När sökmotorn processerar och indexerar din webbplats spelar URL-strukturen också en viktig roll i att hjälpa den att avgöra hur olika sidor hänger ihop och hur innehållet ska kategoriseras.
URL-strukturen befinner sig i gränslandet mellan teknisk SEO och mer innehållsfokuserad SEO. Den tekniska aspekten handlar om flera viktiga beslut som påverkar hur sökmotorer processar ditt innehåll. Det handlar om att bestämma vilka URL:er som ska indexeras, hur du hanterar parametrar och duplicerat innehåll, samt val av domän och domänstruktur.
Hreflang
Hreflang är ett HTML-attribut som talar om för sökmotorer vilken språk- och geografisk version en webbsida tillhör. När du arbetar med internationell och flerspråkig SEO och har flera versioner av samma innehåll på olika språk använder du hreflang för att guida sökmotorer till rätt version för rätt användare.
I processeringsfasen använder sökmotorn hreflang-taggarna för att förstå relationen mellan dina olika språkversioner. Detta hjälper dem att indexera innehållet korrekt och visa rätt version i sökresultaten baserat på användarens språk och geografiska plats.
Du implementerar hreflang antingen i sidans HTML-huvud eller via HTTP-headers. Attributet kan ange endast språk (som ”en” för engelska) eller en kombination av språk och geografiskt område (som ”en-us” för amerikansk engelska). Den senare varianten är användbar när du har olika versioner av samma språk för olika marknader.
Ett exempel på korrekt implementation:
<link rel="alternate" href="https://example.com/" hreflang="x-default" />
<link rel="alternate" href="https://example.com/en/" hreflang="en" />
<link rel="alternate" href="https://example.com/sv/" hreflang="sv-se" />
För att hreflang ska fungera effektivt behöver du inkludera länkar till alla tillgängliga språkversioner på varje sida, inklusive en självrefererande länk. Du bör också använda x-default för att ange vilken version som ska visas när ingen specifik språk- eller landskombination matchar användarens preferenser.
Meta robots: noindex / nofollow
Meta robots är ett stycke kod som du kan implementera på specifika sidor för att styra hur sökmotorer ska hantera dem. Med hjälp av meta robots kan du ge sökrobotar instruktioner om hur de ska crawla, processera och indexera sidans innehåll.
Detta är ett viktigt verktyg inom teknisk SEO eftersom det ger dig kontroll över hur sökmotorer interagerar med din webbplats. Du kan använda olika direktiv för att styra sökmotorernas beteende, där noindex och nofollow är de vanligaste och mest använda för SEO-ändamål.
Här är ett exempel på hur en meta robots-tagg kan se ut i HTML-koden:
<meta name="robots" content="noindex, nofollow">
Denna kod talar om för sökmotorer att de inte ska indexera sidan (noindex) eller följa länkar på sidan (nofollow).
Det är viktigt att skilja på meta robots och robots.txt. Medan robots.txt innehåller regler som gäller för hela webbplatsen, gäller meta robots endast för den specifika sidan där taggen finns. Det är också viktigt att förstå skillnaden mellan disallow och noindex. Disallow i robots.txt ber sökroboten att inte besöka en viss del av webbplatsen, medan noindex innebär att sökroboten kan besöka sidan men inte ska inkludera den i sökresultaten. Nofollow, å andra sidan, reglerar om sökroboten ska följa länkar på den specifika sidan.
Ett vanligt användningsområde för noindex är tack-sidor, som inte fyller någon funktion för personer som söker efter innehåll.
Duplicerat innehåll & canonicals
Ett vanligt problem inom teknisk SEO är när samma eller väldigt liknande innehåll finns tillgängligt på flera olika URL:er på din webbplats. Detta kan uppstå även när din webbplats är tekniskt välfungerande, ofta som en naturlig följd av webbplatsens funktionalitet exempelvis:
- E-handel där samma produkt visas under flera kategorier (exempel.com/klader/jackor/vinterjacka vs exempel.com/outlet/vinterjacka)
- Filter och sortering på produktsidor (exempel.com/produkter/ vs exempel.com/produkter?farg=rod)
Dessa sidor kan se exakt likadana som sina tvillingar. Duplicerat innehåll är problematiskt då det kan skapa förvirring för sökmotorerna kring vilken version som ska visas i sökresultaten, vilket kan leda till att ”fel” version rankar eller att rankingen splittras mellan olika versioner av samma innehåll.
För att hantera detta använder vi canonical-taggar – en typ av länk som berättar vilken version av en sida som är originalet. Canonical-taggar implementeras i sidans <head>-avsnitt och är inte synliga för användaren, vilket innebär att de inte påverkar användarupplevelsen. Så här kan en canonical-tagg se ut:
<link rel="canonical" href="https://exempel.com/klader/jackor/vinterjacka" />
Denna länk kan peka till en annan sida, eller tillbaka på den sida där den finns implementerad för att visa att den är ett original. Du bör implementera canonical på alla dina sidor, oavsett om de är duplicerade eller inte, för att tydligt markera vilka som är original.
Kan man inte använda noindex istället?” är en vanlig fråga. Svaret är att det oftast inte är den bästa lösningen. Om du använder noindex på dina dubletter finns det risk att ingen version av sidan får en bra chans att synas i sökresultaten. Om exempelvis den noindexerade versionen får externa länkar kommer den länkkraften att gå förlorad istället för att stärka den version du vill ska synas.
Ett annat alternativ som ibland föreslås är att använda 301-omdirigeringar. Även om detta ger en stark signal till sökmotorn om vilken sida som ska indexeras, påverkar det användarupplevelsen eftersom besökaren automatiskt skickas vidare till en annan URL. I många fall vill du behålla användaren på den duplicerade sidan – till exempel när någon använder filter på en produktsida. Här är canonical-taggar ett bättre val eftersom de löser det tekniska SEO-problemet utan att påverka användarupplevelsen.
Strukturerad data / Schema-uppmärkning
Strukturerad data, eller schema-uppmärkning som det ibland kallas, är kodstycken som du kan lägga till på dina webbsidor för att hjälpa sökmotorer förstå innehållet bättre. Precis som med andra åtgärder för processering och indexering är det viktigt att sökmotorerna verkligen förstår ditt innehåll så att de enklare kan matcha det mot rätt sökfrågor.
Med strukturerad data kan du inte bara hjälpa sökmotorer att förstå ditt innehåll – du kan också låsa upp nya möjligheter i hur du syns i sökresultaten. Det finns olika typer av sökresultat för olika typer av sökningar, och med rätt strukturerad data kan du påverka både utseendet och synligheten i dessa specialanpassade sökresultat.
Google stödjer en hel mängd olika typer av strukturerad data. Några populära uppmärkningar är:
- Organization: Information om ditt företag, som logotyp och kontaktuppgifter
- Product: Produktinformation som pris, tillgänglighet och recensioner
- Article: För nyhetsartiklar och blogginlägg
- FAQ: Frågor och svar som kan visas direkt i sökresultaten
- Recipe: För recept med ingredienser, tillagningstid och näringsvärden
Här är ett enklare exempel på organization schema:
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Organization",
"name": "Grandur Digital AB",
"url": "https://grandur.se",
"logo": {
"@type": "ImageObject",
"url": "https://grandur.se/wp-content/uploads/2024/10/grandur-website-icon.png",
"width": "512",
"height": "512"
}
}
</script>
I denna kod berättar vi för Google grundläggande information om organisationen:
- Detta är information om en organisation (”@type”: ”Organization”)
- Företagets namn är ”Grandur Digital AB”
- Företagets webbplats är ”https://grandur.se”
- Företaget har en logotyp med specifik URL och dimensioner
Detta hjälper Google att förstå att detta är ett företag och kan användas för att visa företagsinformation i sökresultat och Knowledge Graph. Det är en av de mest grundläggande typerna av strukturerad data och rekommenderas för alla företagswebbplatser.
Vilken strukturerad data som är lämplig för din webbplats varierar baserat på vilket innehåll som webbplatsen har. Det är rekommenderat att du har koll på de typerna av strukturerad data som Google rekommenderar. Det finns dock några grundläggande uppmärkningar som är rekommenderade för alla webbplatser:
- Organization/LocalBusiness: Information om ditt företag eller verksamhet
- WebSite: Övergripande information om din webbplats, inklusive sökfunktion
- BreadcrumbList: Navigeringssökvägar som hjälper både användare och sökmotorer förstå webbplatsens struktur
Du kan verifiera att din strukturerade data är korrekt implementerad genom att använda Googles verktyg för testning av strukturerade data.
Användarupplevelse
SSL
HTTPS-protokollet (SSL) innebär att data som skickas mellan användaren och webbplatsen skyddas från manipulation och avlyssning. Google använder HTTPS som en rankingsignal och i moderna webbläsare blir användaren även varnad med meddelandet ”Inte säker” när detta inte används. Det finns ingen anledning till att inte använda sig av HTTPS – se till att det finns ett uppdaterat SSL-certifikat på webbplatsen – du vill alltid att din webbplats ska skyddas med SSL.
Webbplatshastighet & Core Web Vitals
Hastigheten som din webbplats laddar på påverkar din SEO. Det är avgörande för användarupplevelsen att sidan laddar snabbt – statistik visar att en betydande andel besökare lämnar webbplatsen om den tar mer än 3 sekunder att ladda. Sökmotorerna värdesätter laddningstid eftersom det påverkar hur användare bedömer kvaliteten på sökresultaten.
Webbplatshastighet mäts genom flera viktiga mätvärden:
- Time to First Byte (TTFB): Tiden det tar för servern att börja skicka data. Mäter tiden från att webbläsaren begär en sida tills den första informationen tas emot. Detta är ett grundläggande mått på din servers svarstid och nätverksprestanda.
- First Contentful Paint (FCP): När första innehållet visas på sidan. Mäter tiden tills webbläsaren visar det första innehållet som text eller bilder. Detta ger användaren den första indikationen på att sidan faktiskt laddar.
- First Input Delay (FID): Hur snabbt sidan reagerar på användarinteraktion. Mäter tiden från att en användare först interagerar med sidan (till exempel klickar på en länk eller knapp) till dess att webbläsaren faktiskt kan svara på interaktionen.
Dessa mått kombineras ofta också med besläktade mått i Core Web Vitals:
- Largest Contentful Paint (LCP): Mäter när sidans största innehållselement blir synligt. Detta är ofta en bild eller textblock och ger en bra indikation på när sidan känns ”användbar” för besökaren.
- Interaction To Next Paint (INP): Mäter hur snabbt sidan svarar på alla användarinteraktioner. Till skillnad från FID som bara mäter första interaktionen, tittar INP på hela sidbesöket.
- Cumulative Layout Shift (CLS): Mäter sidans visuella stabilitet – specifikt hur mycket innehåll flyttar på sig medan sidan laddar. CLS beräknas genom att titta på hur stor del av skärmen som påverkas av oväntade layoutförändringar och hur mycket innehållet flyttas.
För att mäta dessa värden har du flera verktyg till ditt förfogande. Det enklaste är att använda Google Search Console, som innehåller en särskild Core Web Vitals-rapport. För mer detaljerad information kan du använda PageSpeed Insights eller Chrome DevTools. Det finns också möjligheter att koppla PageSpeed API till Screaming Frog och få data direkt i verktyget.
Mätetalen som man vill uppnå är generellt:
- LCP: Under 2.5 sekunder
- INP: Under 200 millisekunder
- CLS: Under 0.1
- TTFB: Under 0.6 sekunder
- FCP: Under 1.8 sekunder
Som SEO-specialist finns det flera åtgärder du kan vidta för att förbättra din webbplats prestanda.
Enkla åtgärder du kan göra själv:
- Optimera och komprimera bilder: Stora bildfiler är ofta den främsta orsaken till långsam laddning. Använd bildkomprimeringverktyg och rätt bildformat för att minska filstorleken utan att tappa kvalitet. I WordPress kan du använda plugins för att automatiskt optimera bilder när du laddar upp dem.
- Specificera bildstorlekar: När du lägger in bilder i ditt CMS, ange alltid bredd och höjd för att förhindra att innehåll hoppar runt när sidan laddar.
- Rensa plugins: Många plugins kan göra din webbplats långsam. Gå igenom och ta bort de som inte används. Var särskilt uppmärksam på plugins som lägger till JavaScript eller CSS till alla sidor.
- Välj rätt webbhotell: Ett bra webbhotell med servrar nära dina användare ger snabbare laddningstider.
- Aktivera caching: De flesta CMS har inbyggda cachingfunktioner som kan aktiveras för bättre prestanda.
- Minimera ompekningar: Kontrollera att du inte har onödiga ompekningar på din webbplats. En omdirigering som går genom flera steg (till exempel från HTTP till WWW till HTTPS) ökar laddningstiden.
Åtgärder som kräver utvecklarhjälp:
- Lazy loading: Implementerar fördröjd laddning av bilder och video så att de bara laddas när användaren närmar sig dem vid scrollning. Detta minskar den initiala laddningstiden och sparar bandbredd.
- Optimera kod och tredjepartsskript: En utvecklare kan hjälpa till att identifiera och ta bort oanvänd kod, optimera när och hur skript laddas, samt implementera asynkron laddning av skript som inte är kritiska för sidvisningen.
- Minimera JavaScript och CSS: Utvecklaren kan komprimera och slå ihop filer, ta bort oanvänd kod och optimera hur dessa resurser laddas för att förbättra prestandan.
- CDN-implementering: Ett Content Delivery Network fungerar som ett globalt nätverk av servrar som hjälper till att leverera ditt innehåll snabbare. Utvecklaren kopplar din webbplats till detta nätverk så att när någon besöker din webbplats får de innehållet levererat från den server som är närmast dem geografiskt, vilket ger snabbare laddningstider. Det är som att ha lokala kopior av din webbplats på flera platser i världen.
- Serveroptimering: En utvecklare kan konfigurera servern för optimal prestanda genom att justera inställningar för PHP, databas och webbserver.
Sammanfattning
Vid första anblick kan teknisk SEO verka överväldigande. Det är många komponenter att hålla reda på och en hel del tekniska termer att sätta sig in i. Men när man väl förstår grunderna och har rätt verktyg på plats blir det både hanterbart och spännande. I grunden handlar det om att bygga en stabil teknisk plattform som resten av ditt SEO-arbete kan vila på.
På Grandur brinner vi för teknisk SEO (okej ja, vi erkänner – vi älskar all digital marknadsföring lika mycket, man kan inte välja sin favorit bland barnen) och hjälper dagligen företag att få ordning på sina tekniska utmaningar. Oavsett om du behöver en grundlig teknisk revision eller hjälp med specifika utmaningar av en SEO-byrå har vi kunskapen som krävs för att ta din SEO till nästa nivå.
Hör gärna av dig till oss så berättar vi mer!