Insights / SEO

En oversigt over Googles Core Updates
– og hvordan du skal forholde dig

Hvorfor kommer de, og hvad kan vi lære af dem?

Google core updates blogindlæg

 I august kom det frem, at Google stod klar med sidste nye update på stammen: Googles Helpful Content Update. Denne update er langt fra den første, og vil næppe heller blive den sidste. Men hvad er det, disse updates går ud på, og hvorfor bliver de ved med at komme? 

Siden tidernes morgen har Google opdateret deres platform og herunder også den algoritme, der crawler, prioriterer og rangerer alle de sider, som er indekseret. Dette har kort sagt et enkelt formål: at brugerne af Google skal finde de bedste og mest relevante resultater først. Jeg først gennemgå de store updates gennem tiden, og derefter komme ind på, hvilke ting det er vigtigt at lære af netop disse. 

Indholdsfortegnelse


 Florida – Den første store Google Core Update 

 I november 2003 blev den første opdatering rullet ud på Google, bedre kendt som Florida. I starten var der mange spekulationer om, hvad opdateringen indebar, og hvad formålet med den var. Blandt andet mente nogle SEO-folk, at opdateringen brugte OCR (Optical Character Recognition) til at identificere købsknappen på webshops. Formålet skulle givende være at sortere ud i de søgeresultater, der havde et informativt formål. En anden teori var, at opdateringen påvirkede links. Florida skulle være en opdatering, der kunne analysere links; en ting som få på daværende tidspunkt vidste særlig meget om. 

Til en konference i 2005 afslørede nogle af Googles ingeniører, at Google brugte linkanalyse til at sortere ud i spamsider. Det skal dog tilføjes, at Google aldrig officielt har løftet sløret for, hvad Florida præcis indebar. Så alle definitioner er blot kvalificerede gæt. 

En af ulemperne ved Florida var, at opdateringen ramte en lang række små hjemmesider og webshops – lige op til julehandlen. Dette fik folk til at kræve, at Google ikke ville udrulle så store opdateringer før julehandlen igen, da der typisk ligger en stor omsætning her for mange webshops. Nogen gik endda så langt som at mistænke Google for at ville fremme deres egen forretning med Google Ads, som var en måde hvorpå de mange webshops kunne sikre sig at dukke op i søgeresultaterne. 


 Big Daddy slog til i 2005  En Google Algorithm Update 

 I 2005 kom næste store opdatering, der går under det fantastiske navn Big Daddy. Modsat Florida, så kom Big Daddy ikke som en overraskelse, da den var blevet diskuteret åbent og annonceret af Google selv. Denne opdatering skulle gøre op med links af lav kvalitet og Googles infrastruktur. Her var fokus på blandt andet canonicalsredirects og skulle øge kvaliteten af søgeresultaterne. 

Et begreb, som også blev diskuteret i forbindelse med Big Daddy-opdateringen, var den såkaldte Google Sandbox. En mytisk fortælling, der blev diskuteret i forskellige SEO-fora. Historien gik på, at Google havde et filter, som blev tilføjet til nye sider. Filteret skulle forhindre en ny side i at rangere, på trods af masser af indhold i høj kvalitet, gode links og ingen tekniske problemer. Der er dog aldrig kommet nogen bekræftelse fra Google eller Matt Cutts*. 

 Et andet fænomen, som så dagens lys i denne periode, var den såkaldte Google Dance. Dette er ikke det nyeste indslag til Vild med Dans, men derimod et begreb, der dækker over søgeresultater, der konstant svinger. Disse udsving skete gerne hver måned, og varede et par dage ad gangen. Dansen var et resultat af Googles måde at opdatere sin database af hjemmesider, og deres rangeringsdata kunne derved fungere i realtid, uden at skulle lukke ned. Denne dans døde dog hurtigt ud, efter at Big Daddy var fuldt implementeret. 

Hvis du ser udsving i søgeresultater i dag, så er det dog ikke grundet opdateringen af data på tværs af flere datacentre hos Google.  


 Fra én Big Daddy til en anden: Jagger 1, 2 og 3 

 2005 var et år med mange opdateringer, og Big Daddy var derfor ikke alene. Den fik følgeskab af Jagger 1, Jagger 2 og Jagger 3, som blev rullet ud i september til november. Jagger havde fokus på duplikeret indhold og backlinks, hvortil de brugte en helt ny tilgang til at vurdere links. Her blev både ankertekst på inbound links, indholdet på siden og hastigheden hvormed linksene blev oprettet til siden taget med i vurderingen. 

I 2005 var SEO noget andet, end det er i dag. Her var mange månedlige pakkeløsninger, hvor systematisk link building var en del af pakken. Det var dengang typisk kendetegnet ved, at der dukkede links op i slutningen af hver måned. Jagger var generelt efter alle dem, der byggede formålsløse og irrelevante links, fra blandt andet linkfarme.  

Derudover gik Jagger også hårdt til sider, hvor der lå skjult tekst på. Hvad end det var gennem cloaking, eller det var skjult gennem CSS. Med cloaking menes sider, hvor der vises en tekst til Googles søgemaskine, og en anden tekst til de besøgende på siden. 

Modtagelsen af Jagger var blandet, og her var der især vrede at spore hos de mindre sider, som oplevede at Google favoriserede de større brands. Samtidig blev domænets alder vægtet tungt, og dette slog også hårdt ned på nyere, små sider. Det resulterede i, at disse hjemmesider så sig nødsaget til at bruge flere penge på Googles annoncering – så var denne opdatering til for at Google kunne tjene flere penge? Spekulationerne havde været der før, og de var med til at give opdateringer fra Google et dårligt ry. 


 En kontroversiel opdatering – Da Vince slog benene væk under alle 

 I 2009 kom næste store opdatering, og det var ikke én, som mange blev glade for. Denne opdatering resulterede i en hurtig og bemærkelsesværdig ændring i de brede søgetermer, som gav store branddomæner en fordel på side 1 af søgeresultaterne. De skubbede simpelthen andre sider af pinden, såsom mindre autoritære sider, affiliate sider, og sider, som før havde vundet gode placeringer gennem SEO-arbejde. 

Førhen har der gerne været subtile praj om, hvornår en opdatering var på vej, men Vince kom helt ud af det blå, og det slog benene væk under hjemmesideejere og hele SEO-verdenen. Fra Googles side mente man, at internettet var ved at blive en cesspool af falsk information, og at brands var svaret på problemet – ikke en del af det. Kort efter Vince gik i luften, kunne man se en tydelig forskel i søgeresultaterne, hvor store mærker pludselig rangerede højt på brede søgetermer med høj volumen. På siden WebmasterWorld bemærkede en bruger, at der var sket en stor ændring i søgeresultaterne for søgeord som car audio, laptop og quit smoking. Her dukkede store brands og .gov-sider op i langt højere grad, end de gjorde førhen. 

Selvom mange påstod, at Google favoriserede store brands med Vince, så holdt Google dog fast i, at formålet var at prioritere sider med høj autoritet, troværdighed og relevans. De mange affiliate-sider, spammers og såkaldte black hatters blev lagt til grund for dette, da de havde hersket på Google igennem det meste af 2000 frem til 2009. Hverken affiliate-sider eller spammers kunne netop opnå den autoritet og troværdighed, som de store brands besidder. For et brand er mere end bare en hjemmeside, og det er samtidig et setup, der vil generere naturlige links fra relevante sider, hvor ankerteksten også giver mening. Brands får også meget troværdighed ved at blive nævnt hyppigt på sociale medier, i nyhederne og andre steder på nettet – hvilket er endnu en ting, som spammers og affiliates ikke kan opnå naturligt. 


 Google får et tiltrængt boost med Caffeine – Google algoritmer fik nyt liv 

google caffeine opdatering

 Også i 2009 kom der endnu en opdatering, der går for at være en af de vigtigste i hele søgemaskinehistorien. Caffeine var navnet, og den var så omfattende, at Google måtte sørge for flere måneders Developer Preview. Det var et testformat af opdateringen, hvor SEO-specialister og udviklere kunne give deres besyv med, inden opdateringen rullede ud til det brede publikum. 

Kort sagt var Caffeine et nyt webindekseringssystem, som kunne crawle og lagre data langt mere effektivt end førhen. Med dette nye system kunne Google nu crawle, indsamle data og tilføje det til deres indeks i løbet af få sekunder, hvilket betød, at friskere information var tilgængelig fra en bred vifte af sider. 

For at sætte det lidt simpelt op, så kan vi se på Googles gamle indekseringssystem med det nye ved at tage udgangspunkt i den platform det var bygget til – og hvordan Google så ud i 2009.  

  • Det oprindelige indekseringssystem blev skabt i 1998, hvor der var godt 2.4 millioner hjemmesider og 188 millioner brugere på internettet globalt set. 
  • Det lyder allerede af meget, men så hold godt fast for nu kommer tallene for 2009. Her var der 238 millioner hjemmesider, og hele 1.8 milliarder brugere – så det er noget af en vækst!  

Der kom også flere og flere videoer, billeder, kort og anden data, som skulle behandles. Det stillede selvfølgelig også helt andre krav til Google, og hvordan de behandlede den data, der kom ind via hjemmesiderne og brugernes adfærd. Derfor blev Caffeine et tiltrængt boost til hele Googles funktionalitet. 


 Slaget mellem Google og Black Hat – Fra nuttet panda til kampklar opdatering 

google panda opdatering

Pandaopdateringen er nok én af de mest velkendte opdateringer fra Google. I februar 2011 blev Panda lanceret, og den var en del af planen om at udrydde Black Hat SEO og webspam. Panda kunne tildele hjemmesider en kvalitetsklassifikation, som var baseret på menneskelig kvalitetsvurdering. Dette skulle være det første skridt i Googles plan om at øge kvaliteten og brugeroplevelsen. 

2010 var et år, hvor der skete en stor stigning i antallet af content farms, og kvaliteten af Googles søgeresultater var stødt dalende. Efter Caffeine blev flere og flere sider indekseret. Derved kom færre og færre mindre gode sider kom frem i søgeresultaterne. Medierne rapporterede om at Googles algoritme var i stykker, og det var på tide at få den fikset. Content farms producerede et hav af tekst, som de spyttede ud i flæng – uden at det indeholdt relevant information. For på daværende tidspunkt vægtede Google nemlig produktivt og konstant indhold frem for kvalitet. Hvilket flere og flere udnyttede til deres fordel. Panda ledte også til, at de famøse tre bogstaver E, A og T blev en fast del af principperne for opbygning af hjemmesider. Expertise, Authority og Trustworthiness blev vigtige elementer for at få en hjemmeside til at rangere godt.  

Panda-opdateringen blev rullet ud i 2011 og har siden fået adskillelige opdateringer siden. Helt frem til januar 2016, hvor det blev endelig bekræftet, at Panda nu var en inkorporeret del af Googles algoritme.  


 Da Googles algoritmer blev helt fresh 

 I juni 2010 ruller Googles Freshness ud, som er en opdatering, der bygger videre på Caffeine. Google annoncerede selv denne opdatering og nævnte, at den ville påvirke i omegnen af 35% af alle søgninger. Her ville den fokusere på at levere friske og aktuelle søgeresultater til brugerne. 

Denne opdatering blev søsat, da det blev spået, at der ville blive skabt mere data i 2017 end i de forgangne 5000 år af menneskets eksistens – og så skulle der sorteres noget finere for at skabe de bedste søgeresultater. Google gik altså efter at leve op til efterspørgslen på friskt, nyt og aktuelt indhold. Med kombinationen af de store mængder data og de mange nye søgetermer, som Google skulle til at håndtere, så giver det god mening, at der var brug for et frisk pust til algoritmen. En artikel fra ReadWrite skrev i 2012, at 16% til 20% af alle spørgsmål, som bliver googlet hver dag, var spørgsmål, der aldrig var blevet stillet til søgemaskinen før. 

Med Freshness blev der sat en tyk streg under, at det er vigtigt med aktuelt indhold, og dette var især gældende for områder som nyheder, begivenheder, politik, kendte personer, trends og meget mere. Én af de mest bemærkelsesværdige ting ved denne opdatering er, at langt flere så ud til at vinde på denne – fremfor at tabe placeringer, som ellers har været normen for de fleste andre opdateringer. 


 Page Layout/Above the fold  Farvel til de mange reklamer (i hvert fald i toppen) 

 Ikke alle opdateringer har været lige store, men til trods for at være én af de mindre, så har Page Layout alligevel haft sit at skulle have sagt. Denne algoritmeændring slog til i starten af 2012, hvor fokus var på godt 1% af hjemmesider, som den ville ramme. Disse hjemmesider var dem, hvor der i toppen af siden lå et hav af statiske reklamer – hvilket betød, at den besøgende skulle scrolle en del for at komme til sidens indhold. Det påvirkede brugeroplevelsen af siden, og Google ville derfor fremme bedre hjemmesider for deres brugere. 

Siden udrulningen af denne opdatering kom der flere rettelser, som gav hjemmesiderne mulighed for at komme hurtigere på benene igen, efter de blev ramt af den første omgang Page Layout Algorithm. 


 Google går lokalt med Venice 

 Du er sikkert bekendt med de lokale resultater, som dukker op på Google, når du søger. Det kan være, du leder efter den nærmeste italienske restaurant, asiatiske supermarked eller tandlæge – Så står Google klar med dem, der er tættest på dig. Dette behov har været der længe, og med Venice blev det muligt at ramme netop dét lokalområde, som ens hjemmeside rettede sig mod. Før Venice var det Google Places, som blev brugt til at vise de lokale resultater. Venice gjorde det dog muligt at få de organiske ti links på side 1 til også at være lokale. Lokaliteten blev baseret primært på brugerens IP-adresse, og det åbnede en dør for især mindre virksomheder og brands. Nu kunne de nemlig rangere på søgeord med en større volumen, helt lokalt, hvor det var relevant. 

Det blev pludselig væsentligt at have landingssider, som rettede sig mod services i bestemte områder. Ved at kombinere navnet på en lokation og et relevant søgeord, så kunne man komme blandt de første ti søgeresultater. Det var dog ikke uden konsekvenser, og det ledte også til, at en del hjemmesider begyndte at spamme deres side med bynavne. Det sker stadig den dag i dag, hvor du f.eks. kan se 20 forskellige bynavne listet i bunden af nogle websites – bare for at siden kan dukke op i relevante lokale søgeresultater. 

I dag kan du benytte både Google My Business og Maps til at få placeret din virksomhed lokalt. Derved øger du dine chancer for at dukke op i de lokale søgeresultater. Map Pack er den feature, der dukker op på Google, hvor du kan se et lille udsnit af dit lokalområde med relevante virksomheder pinnet. 

En anden opdatering, som beskæftigede sig med lokale søgeresultater var Googles Pigeon update. Denne opdatering blev lanceret i 2014, og formålet var at levere bedre lokale resultater. Det blev derfor igen understreget, at det var vigtigt med en stærk, lokal organisk tilstedeværelse, for det var netop, hvad der blev belønnet i opdateringen.  


Pingvinen fulgte i Pandaens fodspor 

 Som det er blevet nævnt ovenfor, så var Panda-opdateringen en krigserklæring mod sider af dårlig kvalitet på Google. Panda stod dog ikke alene, og i april 2012 kom Pingvinen for at følge trop.  

 Denne opdatering ramte godt 3% af søgeresultaterne, i hvert fald hvis man spørger Google. Disse resultater var dem, der indebar manipulative metoder: såsom linkbuilding schemes og keyword stuffing. 

 Den første udgave af Penguin var ikke som sådan en ændring af algoritmen, men blot en opdatering af den allerede eksisterende data. Penguin 2.0 kom i 2013, og her blev der gravet et spadestik dybere i hjemmesiderne. Nu blev der gravet ned under forsiden og hovedkategorisiderne for at finde link spam gemt på undersiderne. Gennem årene kom der flere ændringer og opdateringer til Penguin, som i korte træk sørgede for at crawle de sider, der før var blevet ramt af opdateringen. Derudover skulle den fange dem, som var undsluppet tidligere. I 2016 blev Pingvinen endelig en del af algoritmefamilien, hvor den sluttede sig til Panda og resten af den hårde kerne.  

Denne opdatering var med til at ændre den praksis, som mange indenfor SEO havde arbejdet efter i mange år. Nu skulle der smartere metoder til for at kunne bygge hjemmesidernes autoritet op, og få scoret de gode placeringer på side 1 af Google. Det var tid til naturlige linkprofiler, gode brugeroplevelser og brugbart indhold. 


 Når en kolibri skaber et stort postyr  Google Hummingbird 

google hummingbird opdatering

 Nogle ændringer kan være så store, og samtidig gå næsten ubemærket hen. Tænk på klimaforandringer, hvor små stigninger i temperaturen er svære at mærke til daglig, men det har alligevel en stor indflydelse på vores liv. Google Hummingbird Update er lidt at sammenligne med dette, selvom der dog stadig er langt fra en søgemaskine til klimaforandringer. Hummingbird er blevet beskrevet som en af de største opdateringer på Google siden 2001, og fokus var hastighed og præcision. At håndtere store mængder af data på internettet, og så skulle matche det op med søgeord kan være en stor opgave, og i starten fokuserede Google på at matche søgeord med indholdet 1 til 1. Det ændrede sig dog med Hummingbird, hvor Google nu blev bedre til at afkode overemnet for ens søgeord, og derfor matche søgeresultaterne til dette. I modsætning til Penguin og Panda, så var Hummingbird ikke en tilføjelse til hovedalgoritmen – det var derimod en ændring af selve algoritmen. 

Med en større sprogforståelse blev det nu muligt for Google at greje intentionen bag en søgning bedre, og derved kunne leveres mere relevante søgeresultater til brugeren. Matt Cutts fra Google har også udtalt, at Hummingbird påvirkede op mod 90% af alle søgninger. Dette gjorde den blandt andet ved at kunne udvælge de mest relevante ord i især lange søgetermer. 


 Forbrugslån, casinosideraffiliate og spam – Disse kæmper Google stadig med 

 En af de ting, der går igen gennem rigtig mange af Googles opdateringer, er den evige kamp mod alle former for lyssky forretninger. Med PayDay Loan Update blev der stillet skarpt på de sider, som tilbød lån og casino, porno og andre sider, hvor der typisk optræder meget spam. Opdateringen rullede ud i 2013, og blev indført over en to måneder lang periode. Opdateringen fik en ændring i 2014. 

Også Googles Quality Update gik efter sider, som ikke tilbød indhold af høj nok kvalitet, dårlige links og spamindhold. Denne landede i 2015, og gik især efter tyndt indhold, clickbait artikler, sider med enorme mængder af reklamer, content farm-artikler og masseproducerede ”How to”-sider. Kort sagt så gik denne opdatering direkte efter de sider, som simpelthen ikke leverede indhold af høj nok kvalitet til forbrugeren. 

Det har længe været en del af Googles strategi at skubbe de sider frem, som rent faktisk gav godt, relevant og aktuelt indhold til forbrugeren, samtidig med at hjemmesiden var brugervenlig.  


Og hvad kan vi så lære af alt dette? 

 Som én, der arbejder med SEO, så kan det godt virke som en udfordring at skulle bygge en hjemmeside op, så den passer til alle Googles mange kriterier. Der kommer hele tiden nye opdateringer, og Google er gået helt væk fra at navngive dem. Nu hedder de alle sammen bare Fred. Hvis du følger med i diverse SEO-fora, så er disse tit engelske. Det betyder også, de tit tager udgangspunkt i lande, hvor der er langt flere søgninger og højere volumen på de fleste søgeord. Det kan derfor være svært at oversætte alle disse best practices til danske forhold. Så hvad kan vi bruge historien om de mange opdateringer til? 

Google har her i august rullet Helpful Content ud, som sigter efter at fremme sider med brugervenligt indhold, og på samme tid skubbe søgemaskineoptimeret indhold bagud. Google har i samme omgang fremhævet deres egen guide til, hvordan du sikrer, at indholdet på din hjemmeside er rettet mod læseren fremfor søgemaskinen selv. 

1. Hold dig til dit vidensfelt 

 Det siger måske sig selv, at hvis din hjemmeside handler om kæledyr, så skal du ikke lige pludselig skrive stolpe op og stolpe ned om forkølelser, økonomi, sport eller lignende. Kort sagt skal du holde dig til dét, som du rent faktisk ved noget om. 

2. Skriv om dét, som du har direkte erfaring med 

 At anbefale produkter, som du ikke selv har haft i hænderne, kan være fristende for at ramme søgeord med høj volumen, og samtidig promovere noget der kan være stor fortjeneste på. Det er dog også samme taktik som affiliate-sider benytter, og denne form for indhold hjælper altså ikke brugeren. For du har ikke den nødvendige erfaring eller viden om produktet til at have autoriteten til at anbefale det. 

3. Hold dig til ét emne 

 Din hjemmeside skal holde sig til sit hovedfokus, og ikke skyde med spredehagl. Lad dig ikke friste af ønsket om at rangere på mange forskellige søgeord, men hold dig til dit fokusområde. Det gør både din hjemmeside mere brugervenlig for læseren, og det er nemmere for Google at definere, hvad din side egentlig handler om. 

4. Sørg for at have fyldestgørende svar på relevante spørgsmål 

 Hvis vi tager fat i eksemplet med kæledyr igen, så kan der være mange spørgsmål, man som læser kan have. Det kunne være spørgsmål om, hvad man skal have i huset, inden man anskaffer sig en hund, hvad man skal være opmærksom på, hvis ens hund bliver syg, hvor meget vand skal den drikke om dagen og så videre. For at sikre, at din læser får den nødvendige viden fra din hjemmeside, så kan du spørge dig selv: vil læseren have behov for at søge videre, efter at have læst indholdet på din side? 

5. Tænk over helhedsoplevelsen for din læser 

Din hjemmeside skal tilbyde fyldestgørende informationer, og det kan være relevant at inddrage alt fra tekst til billeder og video. Ligegyldigt om du skriver en produktanmeldelse, forklarer hvad du skal sikre dig, inden du får din første hund eller noget helt tredje. Det er vigtigt at holde helhedsoplevelsen for øje. Tænk over dine egne oplevelser, når du surfer rundt på nettet. 

6. Lad være med at besvare spørgsmål, som ikke har noget bekræftet svar 

At tage emner op, som ikke har endelige svar eller går imod videnskabelig konsensus kan være en farlig leg. Det er ikke noget, som du nødvendigvis skal afholde dig fra 100% – men det er vigtigt, at du gør det tydeligt for læseren, at du ikke har det endelige svar på spørgsmålet. 

7. Sørg for, at du overholder de guidelines, der er kommet med alle Googles tidligere opdateringer 

Som dette lange blogindlæg kan bekræfte, så er der mange opdateringer, og de har alle haft deres eget formål og sæt af retningslinjer, som har formet søgemaskinen. Det er vigtigt, at du er opmærksom på alle disse, og gør dit bedste for at overholde dem. 


Google Grump Rating  Er Google chill eller furious? 

 Et af mine personlige yndlingsværktøjer er Google Grump Rating, som er en feature, du kan finde hos Accuranker. Her har siden holdt øje med betydelige udsving i Googles rangering af sider, og det giver et lille indblik i, hvor meget de forskellige opdateringer har rodet med søgemaskinen. Dataen går tilbage til juni 2015, så vi har desværre ikke en fin graf over, hvad der er sket under nogle af de største opdateringer. Men vi kan følge med fremadrettet. 

På billedet nedenfor kan du se, hvor rasende Google var i oktober 2017, hvilket passer med, at Google ser ud til at have smidt endnu en opdatering på gaden, der dog aldrig er blevet bekræftet af Google selv. Samtidig er det værd at bemærke, at der siden 2020 har været relativt meget ro på udsvingene i søgemaskinens rangeringer. Det seneste peak i grafen ligger i starten af august, hvor der her var en brand i nogle af Googles servere i USA. Denne hændelse påvirkede søgemaskinens evne til at rangere søgeresultater, og det var derfor ikke en opdatering, der var skyld i udsvinget. 

Opdateringerne bliver mindre og mindre omfattende med tiden, og udsvingene bliver derfor også derefter. Google Dance er ikke længere en ting, men det gør det ikke mindre væsentligt at følge med i hvad der sker på Google. 

grump rating

 Når vi ser på Googles Grump Rating for Danmark, så er der umiddelbart færre udsving i Google-tigerens humør, og det er også en anelse forskudt af, hvad der sker globalt set. Det er selvfølgelig fordi, alle opdateringer rulles ud til engelsksprogede sider først, og derefter til andre sprog. 

grump rating

 Take away fra de tidligere opdateringer 

 Fra Florida til Helpful Content – alle opdateringerne har haft samme formål: at forbedre brugeroplevelsen for Googles brugere. Google er blevet så stor en del af den almindelige forbrugers hverdag, og vi læner os alle op ad søgemaskinen igennem dagen. Der bliver produceret uendelige mængder af data, ny viden, nyheder, artikler og webshops, der popper op som paddehatte på en våd græseng. I en tid hvor fake news er blevet et velkendt begreb, er det også blevet endnu vigtigere, at vi som forbrugere kan navigere i det store, brede internet. Derfor vokser kravene til Google – og til din hjemmeside. 

SEO har også ændret sig gennem årene, hvor der for 15-20 år siden var mulighed for at slippe afsted med uendelige mængder af links, keyword stuffing, cloaking, Black Hat-metoder og anden manipulering af din hjemmeside. Det er ikke længere tilfældet i dag. Siden tidernes morgen har link building været et kontroversielt emne i SEO-kredse, da de naturlige links selvfølgelig har meget at skulle have sagt, mens de købte links læner sig op ad en gråzone ifølge Googles egne retningslinjer. 

Faktum er dog, at det er vigtigt, at du sætter fokus på din hjemmesides indhold og tekniske formåen. Indhold er alfa og omega for Google, og uanset om du sælger babyudstyr eller tilbyder en service, så kan du få utroligt meget ud af at stille skarpt på brugeroplevelsen og skabe indhold af høj kvalitet. Med et kendskab til relevante søgeord, så kan du få et unikt indblik i, hvad din målgruppe er ude efter. Ved brug af eksempelvis Schema Markup, som min kære kollega Mikkel har skrevet et spændende indlæg om, så kan du sørge for, at din hjemmeside får de bedste muligheder for at komme forrest i feltet. Du er eksperten på dit område, og du har utrolig meget viden om dit felt – det er denne viden, som skal formidles til dine læsere og kunder. 

Som SEO-specialister har vi en stor viden om, hvordan vi indhenter og analyserer den data, som er nødvendig for, at din hjemmeside får det bedste udgangspunkt for at komme frem på Google. Vi snakker Googles sprog, og ved hvilke knapper vi kan trykke på for at få søgemaskinen til at forstå, at den viden du sidder med, faktisk er enormt relevant for din målgruppe. Vi bruger vores indsamlede data og analyseringen heraf til at kunne opsætte en strategi, som skal danne grundlaget for, at din hjemmeside kan score førstepladsen. 

Hvis du ikke har en SEO-specialist i baglommen eller mulighed for selv at kunne indsamle denne data, så er der dog stadig måder, hvorpå du kan forbedre din side. 


Mine fem råd til dig, der vil være på forkant med Googles fremtidige opdateringer 

Her på falderebet vil jeg også gerne komme med mine råd til dig, der har en hjemmeside og gerne vil være et skridt foran Google. Med disse fem råd kan du nemlig komme godt fra start: 

1. Investér tid i at skrive godt indhold til din hjemmeside 

Godt indhold kan være mange ting, men her snakker vi om indhold, som demonstrerer din unikke viden og ekspertise indenfor dit felt. Sørg for, at det er velskrevet, at det indeholder al nødvendig information om emnet, og at nødvendige billeder og video er inkluderet. 

2. Gennemgå din sides indhold med jævne mellemrum, og stil dig kritisk overfor det, der allerede står 

At holde sit indhold opdateret og relevant er vigtigt. Især på områder, hvor der tit sker nye ting. Du er eksperten, og du ved højest sandsynligt godt, hvad der rør sig indenfor dit felt. Nogle emner er evergreens, og her vil den viden være korrekt – også om 50 år. Men mange emner ændrer sig løbende, og her kan det også være relevant at tænke samfundets situation ind. Hvis du har en side om kæledyr, så kan det være væsentligt at tilføje viden om spredende sygdomme, seneste nyt indenfor udstyr, viden om foder, hvad du skal holde for øje, når du får en hund under corona og lignende – så længe du ved noget om det! 

3. Hold dig opdateret på, hvad der rør sig hos Google 

Google sender som sagt opdateringer ud i ét væk, og de er kun blevet hyppigere med tiden. Det kan derfor godt svare sig at holde sig opdateret på, hvad næste opdatering vil indeholde, og hvad der bliver af konsekvenser. De fleste opdateringer bliver rullet ud på engelsk først og kommer derefter til andre sprog. Det giver dig god mulighed for at følge med i seneste opdatering og konsekvenserne heraf, inden opdateringen rammer Danmark. 

4. Sæt brugeroplevelsen i højsædet 

Din hjemmeside er ikke kun dens indhold. Det er hele siden, som bliver vurderet, når en bruger besøger den. Det kender du nok selv, når du surfer rundt på nettet. En langsom hjemmeside, en unødvendigt kompliceret menu eller en søgefunktion, der ikke fungerer optimalt kan alle være parametre, som kan ødelægge oplevelsen af siden. Her kan du finde et utal af best practices i forhold til hvad du skal gøre, men jeg vil råde dig til at gå efter lignende danske sider. De fleste hjemmesider er opbygget efter nogenlunde samme skabelon, og mange elementer går igen her og der. Du kan derfor nemt finde inspiration og gode ideer hos dine konkurrenter. Husk på: Imitation is the sincerest form of flattery. 

5. Gå aldrig kompromis med din vision og identitet. 

Nettet er fyldt af gode ideer og nye påfund, som kan gøre én helt rundforvirret. Uanset hvad dine konkurrenter gør, hvad de store engelske sider gør, eller hvad nogen vil anbefale dig, så vil jeg, ironisk nok, råde dig til ikke at gå på kompromis med din vision og identitet. Vi i Danmark har en fordel i, at selvom der er langt færre sider i kampen om de gode placeringer, så kan et personligt touch være med til at gøre din side unik. Din side må godt skille sig ud og være anderledes, så længe du holder alle de andre gode råd for øje 😉 

Brug for hjælp til SEO?

Få Anna til at hjælpe dig.

    Klar til at opnå
    mærkbare
    resultater?

    Bliv kontaktet til en uforpligtende snak om jeres muligheder.

      Hvad vil du gerne kontaktes angående?