We kunnen dus aardig goed zeggen wat er op het gebied van technische SEO vaak fout gaat. En 16 van die veelgemaakte fouten hebben we voor je op een rijtje gezet…
… zodat jij ze niet hoeft te maken.
In willekeurige volgorde:.
Wanneer een website of pagina op noindex staat, zeg je eigenlijk tegen Google: ‘Hé vriend, dit mag je overslaan en hoef je niet mee te nemen in je indexatie’.
Dat is natuurlijk hartstikke handig wanneer je een nieuwe website aan het bouwen bent of op een testdomein of op je bedankpagina, want je wilt niet dat die in Google te vinden zijn.
Maar dit wil je absoluut niet bij een website of pagina waarmee je meer bezoekers en klanten wilt binnenhalen. Die moeten natuurlijk wél in Google staan. En het liefst zo hoog mogelijk.
De disallow lijkt heel erg op de noindex, maar werkt net wat anders. Met de noindex zeg je tegen Google: ‘dit mag je niet indexeren’. Met de disallow zeg je tegen Google: ‘dit mag je niet crawlen’.
Een disallow wil je bijvoorbeeld op een betaalomgeving of een online leeromgeving. Daarvan wil je namelijk niet dat Google daar komt. Dat gedeelte van je website wil je verborgen houden voor Google.
Maar dat wil je niet met de rest van je website, want die mag Google wel crawlen. Helaas komt het nog vaak voor dat de gehele website op disallow staat en daardoor niet gecrawld wordt.
Een van de grootste SEO-fouten (zeker bij een SEO-migratie) is het niet of verkeerd instellen van redirects.
Wanneer jij een URL niet redirect wanneer als je ‘m aanpast, dan ben je alle waarde kwijt die die specifieke URL heeft opgebouwd. Oftewel, zeg maar vaarwel tegen je hoge Google posities en dus ook vaarwel tegen je bezoekers en leads.
Deze fout kan in twee gradaties worden gemaakt, waarbij de ene erger is dan de ander.
In het eerste geval lijkt het voor Google dat je twee websites hebt. Bijvoorbeeld https://jouwwebsitenaam.nl en http://jouwwebsitenaam.nl. In het tweede geval komen er daar nog twee bij: https://www.jouwwebsitenaam.nl en http://www.jouwwebsitenaam.nl.
Dit is om twee redenen ontzettend slecht voor je SEO:
Iedereen (ja, echt iedereen) vindt een trage website vervelend. Dat vind jij, maar ook je ideale klant. Dat moet eigenlijk al genoeg reden te zijn om te zorgen voor een snelle website.
Mocht dat voor jou nog niet voldoende zijn, dan word je inmiddels ook nog eens door Google afgestraft wanneer je website een lange laadtijd heeft.
Ik ga even door met je bezoeker centraal stellen in plaats van Google. Welke URL vertrouw jij (of je ideale klant) meer?
Het antwoord is natuurlijk URL 1 :).
Zeker wanneer het gaat over webshops, zien we dit heel veel vaak gaan. Filters, kleurencombinaties en andere waardes worden vaak meegegeven in de URL waardoor het er rommelig uit ziet en onbetrouwbaar lijkt.
Google vindt dit soort URL’s ook niet prettig. De zoekmachine ziet ze het liefst zo kort en schoon mogelijk. Zonder tekens en andere fratsen.
De rel=canonical is de oplossing voor dubbele content. Hiermee kan je aangeven bij Google dat content op elkaar lijkt en je kunt ermee vertellen welke pagina’s getoond moeten worden in de zoekmachine en welke verborgen moeten worden.
Een goed voorbeeld hiervan is bijvoorbeeld de pagina /overhemden/ binnen een webshop. Je wilt met die pagina gevonden worden op het woord “overhemden”. Wanneer je 1000 soorten overhemden verkoopt krijg je meerdere pagina’s vol met overhemden (per pagina toon je er vaak namelijk maar 24).
Je krijgt dan bijvoorbeeld /overhemden/2/ of /overhemden/page-2/. Deze pagina’s mogen niet gaan concurreren met de /overhemden/ pagina en dus stel je een canonical op de /overhemden/2/ pagina in naar de /overhemden/ pagina.
Als je een goede WordPress website hebt dan vraag je je misschien af hoe dit kan. Toch kan dit ook binnen WordPress gebeuren, zeker wanneer het een eigen gebouwd thema is.
Developers vergeten soms de meta titel en meta description in te bouwen, waardoor je pagina’s geen meta title en meta description heeft of waardoor jij ze niet zelf handmatig kan toevoegen.
Dit geldt trouwens niet alleen voor WordPress, maar dit kan ook binnen een ander CMS.
De sitemap kan je zien als de plattegrond (of inhoudsopgave) van je website. Hiermee kan je doorgeven aan Google welke pagina waar staat en welke URL’s je website allemaal bevat.
Met de sitemap hoeft Google dus niet zelf op zoek te gaan en kan het dus ook geen fouten maken door pagina’s over te slaan of te vergeten.
Pro tip: biedt de sitemap altijd aan in Google Search Console!
Als je de sitemap van je website ziet als de plattegrond van je website, dan is de robots.txt de handleiding van je website. Met de robots.txt kan je namelijk tegen Google zeggen: ‘deze pagina mag je niet crawlen’.
En dat doe je natuurlijk met de disallow die we in bij fout twee hebben toegelicht.
Jij gebruikt ook Google Analytics, toch? Heb je het script zelf handmatig toegevoegd, dit gedaan door middel van een plugin of heb je dat je developer laten doen?
Het is namelijk heel belangrijk dat het script op de goede plek staat. Nee, niet na de afsluiting van de body, maar het liefst zo hoog mogelijk in de head.
Structured data is het meegeven van een stukje techniek aan een stukje content om het voor Google inzichtelijker te maken. Oftewel, structured data zorgt voor context voor de zoekmachines.
Google is de afgelopen tijd ontzettend veel aan het doen op het gebied van structured data. Er komen mogelijkheden bij, eisen worden aangepast, bepaalde zaken vervallen of er worden juist elementen worden toegevoegd.
Hierdoor komt het vaak voor dat er een fout zit in de structured data die gebruikt wordt op de website.
Het is logisch dat je contactpagina op /contact/ staat en niet op /contact/blog/ toch? Het is ook logisch dat je de Tommy Hilfiger polo die je verkoopt onder het kopje polo’s staat en dat dat in de URL verwerkt zit.
Dit wordt ook wel de URL-structuur van je website genoemd. Voor Google is die structuur heel belangrijk. Je kan op deze manier namelijk content clusteren en categoriseren.
Jij wilt toch ook dat je bezoekers alleen maar polo’s ziet als hij op de /polo/ pagina zit? Hier wil je geen broeken laten zien. Dat geldt voor Google ook. Die wil ook dat de URL-structuur klopt, logisch is en dat er een samenhang zit tussen de verschillende niveaus.
Ook hier geldt: een URL als /broeken/tommy-hilfiger-polo/ is voor je bezoeker vreemd. En voor Google dus ook.
Deze fout staat eigenlijk in het verlengde van het hebben van verkeerde redirects. Een redirect kan natuurlijk naar de verkeerde pagina zijn, maar kan ook naar een niet-bestaande of verwijderde pagina gaan.
In beide gevallen is je link kapot. Dit betekent dat de waarde die wordt doorgestuurd niet op de goede plek komt en wanneer Google de link volgt op een dood spoor uitkomt.
Dit kan zowel intern als extern zijn!
Het hebben van één kapotte link op je website zal echt niet schadelijk zijn, maar 500 wel.
Het ontbreken van een SSL-certificaat komt gelukkig niet meer zoveel voor. Die heb ik om die reden dus ook niet in deze lijst genoemd.
Welke ik even wil noemen, is een verlopen SSL-certicaat. Eigenlijk komt dit op hetzelfde neer, want als je SSL-certificaat is dan verlopen en dus heb je geen geldig SSL-certifcaat :).
Dit ontstaat vaak doordat de jij zelf of de hostingpartij het SSL-certificaat niet heeft verlengd. Altijd even checken dus.
Je komt ze nog vaak genoeg tegen: websites die voor letterlijk alles een tag en een categorie aanmaken. Hierdoor is de website (en dus de interne linkstructuur) een grote grijze brij. Dat is voor bezoekers en voor Google erg onduidelijk.
De website heeft vervolgens heel veel pagina’s met weinig content en de content die er staat, komt op heel veel plekken voor. Dit wordt ook wel ‘thin content’ genoemd. Pagina’s met weinig waardevolle informatie. Zeker als er maar een of twee blogs aan deze tag of categorie gekoppeld zijn.
Dit artikel is geschreven op 19 oktober 2020 en geüpdatet op 20 juli 2023.
De meest voorkomende technische SEO-fouten zijn: website op noindex, disallow op de gehele website, geen of verkeerd ingestelde redirects, fouten in htaccess en trage website.
“Noindex” betekent dat de pagina niet moet worden opgenomen in de index van zoekmachines. “Disallow” daarentegen zorgt ervoor dat zoekmachines de pagina niet mogen crawlen of indexeren.
Goed ingestelde redirects zorgen ervoor dat de waarde en ranking van een URL behouden blijven wanneer deze wordt aangepast. Zonder redirects verliest de pagina zijn waarde en positie in zoekresultaten.
Een trage website leidt tot een slechte gebruikerservaring en verhoogt het bouncepercentage. Dit kan leiden tot een lagere positie in zoekresultaten, omdat zoekmachines websites met betere gebruikerservaring voorrang geven.
Een duidelijke URL-structuur helpt zoekmachines de content te begrijpen en te categoriseren. Het maakt de website gebruiksvriendelijker voor bezoekers en helpt Google om relevante pagina’s weer te geven in de zoekresultaten.
Geschreven door: Daniël Kuipers
Daniël is oprichter van Online Marketing Agency. Hij speurt het internet continu af naar de nieuwste snufjes en tactieken en blogt erover in begrijpelijke taal. Nou ja, soms dan.