Teknisk SEO på 15 minutter — sjekklisten vi bruker
De fleste teknisk SEO-guider er skrevet for SEO-spesialister. Denne er ikke det. Den er for deg som driver en bedrift, har en nettside, og vil vite om noe åpenbart bremser den ned i Google.

Vi går gjennom samme sjekkliste hver gang vi tar over en nettside fra noen andre. Det tar 15 minutter, krever ingen kostbare verktøy, og avdekker som regel to-tre ting som er enkle å fikse — og som faktisk flytter trafikken.
Hva er teknisk SEO, egentlig?
Teknisk SEO handler om alt som må fungere før innholdet ditt får en sjanse. At Google kan finne sidene dine, lese dem, forstå hva de handler om, og servere dem raskt nok til at folk faktisk leser dem.
Det er fundamentet. God tekst på en nettside som er blokkert for indeksering, får null trafikk. Et vakkert design som tar åtte sekunder å laste, mister halvparten av besøkende før de ser det.
Teknisk SEO er ikke der trafikken kommer fra. Det er der trafikken stopper når noe er galt.
Sjekklisten — 15 minutter, fem stopp
0–3 min: Kan Google i det hele tatt indeksere siden?
Åpne nettsiden i nettleseren, høyreklikk → “Vis kildekode”, og søk etter noindex. Finner du det på en side som skal rangere, har du funnet bug nummer én. Vi har sett dette på lansering etter lansering — staging-miljøet hadde noindex for å holde Google ute, og noen glemte å fjerne det før produksjon.
Sjekk så dittdomene.no/robots.txt. Står det Disallow: / der, blokkerer du hele siden. Står det Disallow: /css/ eller /js/, kan Google ikke rendre siden riktig — og det rammer rangeringen.
Til slutt: åpne Google Search Console (gratis), gå til “Sider” og se hvor mange som faktisk er indeksert mot hvor mange du har. Stort gap betyr noe må graves i.
3–6 min: Sitemap og kanonisk URL
Skriv inn dittdomene.no/sitemap.xml. Får du opp en liste med URL-er, er du i gang. Får du 404, må sitemapet lages — de fleste moderne CMS-er gjør det automatisk, men ikke alle.
Sjekk at sitemapet kun inneholder URL-er som returnerer 200 (OK), ikke redirects eller 404-er. Send det inn i Search Console hvis det ikke allerede er der.
Kanonisk URL: høyreklikk → “Vis kildekode” → søk canonical. Hver side bør ha én. Ofte ser vi sider som peker til feil URL eller mangler taggen helt — det skaper duplikater i Googles øyne.
6–10 min: Core Web Vitals
Gå til pagespeed.web.dev, lim inn URL-en, velg Mobile. Tre tall avgjør:
- LCP (Largest Contentful Paint) — under 2,5 sekunder er bra. Over 4 er dårlig. Måler når det største elementet på siden er ferdig lastet, vanligvis hovedbildet.
- INP (Interaction to Next Paint) — under 200 ms er bra. Over 500 er dårlig. Måler hvor raskt siden reagerer når noen klikker eller skriver. INP erstattet FID i mars 2024 — guider som fortsatt nevner FID, er utdaterte.
- CLS (Cumulative Layout Shift) — under 0,1 er bra. Måler hvor mye innholdet hopper rundt mens siden laster. Vanligste synder: bilder uten dimensjoner og webfonter som bytter ut systemfonten.
Hvis LCP er problemet, er det nesten alltid bildet i toppen som er for stort eller lastes for sent. Komprimer det, sett fetchpriority="high", og ikke lazy-load det.
10–13 min: Bilder, lenker og struktur
Bilder er den enkleste raske gevinsten på de fleste nettsider. Sjekk:
- Bruker du WebP eller AVIF? PNG og JPEG er fortsatt vanlig, men ofte 2–3× større.
- Har bildene
widthogheightsatt? Mangler det, hopper layouten — og CLS-en din lider. - Er hovedbildet under 200 KB? Vi ser ofte 1–2 MB der det burde vært 100 KB.
Klikk deg gjennom de viktigste sidene og se etter brutte lenker. Et gratis verktøy som Screaming Frog (500 URL-er gratis) gir deg full oversikt på fem minutter.
Sjekk så lenkestrukturen: kommer du til alle viktige sider på maks tre klikk fra forsiden? Foreldreløse sider — sider ingen lenker til — blir sjelden indeksert.
13–15 min: Schema og AI-crawlere
Søk etter application/ld+json i kildekoden. Har du Organization-, Article- og BreadcrumbList-schema, hjelper du Google med å forstå hva siden handler om. Test med Googles Rich Results Test.
I 2026 er det også verdt å sjekke robots.txt for AI-crawlere. Vil du ha innholdet ditt sitert i AI Overviews og ChatGPT-søk, må du la GPTBot, ClaudeBot, PerplexityBot og Google-Extended slippe til. Mange nettsider blokkerer dem reflektorisk og mister synlighet i AI-søk uten å vite det.
llms.txt er foreslått som en standard, men er ikke adoptert av Google, OpenAI eller Anthropic ennå. Bruk tiden på sitemap.xml og ren HTML i stedet.
De fem feilene vi ser oftest
Etter å ha gjort denne sjekken på et par hundre sider, går disse igjen:
- For tunge bilder — 30–40 % av nettsider har bilder over 500 KB der de ikke trenger å være det.
- Treg LCP på mobil — over halvparten av nettsider feiler her, vanligvis pga. bilder eller blokkerende JavaScript.
- Manglende eller duplikate meta-beskrivelser — opp mot 30 % av sidene.
- Brutte interne lenker — 30 % av nettsider har minst én.
- Layout-skift fra webfonter — ofte oversett, men enkelt å fikse med
font-display: swapog preload.
Ingen av disse er kompliserte. De fleste tar mindre tid å fikse enn å oppdage.
Verktøyene vi faktisk bruker
Du trenger ikke bygge et SEO-byrå for å gjøre dette:
- Google Search Console — gratis, og det viktigste verktøyet uansett.
- PageSpeed Insights — gratis, gir deg Core Web Vitals.
- Screaming Frog — gratis opp til 500 URL-er, finner brutte lenker og tekniske feil.
- Rich Results Test — gratis, validerer schema.
Først når sjekklisten er grønn, gir det mening å betale for Ahrefs eller Semrush.
Når 15 minutter ikke er nok
Sjekklisten finner det åpenbare. Den finner ikke renderingsproblemer i React-apper som kun rendres klientside, hreflang-feil på flerspråklige nettsider, eller crawl budget-problemer på sider med 50 000+ URL-er. Det krever en dypere teknisk SEO-analyse.
Men for de fleste norske bedrifter er det åpenbare det som faktisk holder dem nede i Google. Fiks det først. Deretter kan du tenke på resten.
Trenger du hjelp med å gå gjennom det — eller bygge en nettside der teknisk SEO er på plass fra start — så start et prosjekt med oss. Vi har gjort det noen ganger før.


