Indexeren
Ook wel: Spideren of Crawlen
De term indexeren heeft betrekking op het proces dat de spider van een zoekmachine (zoals Google) een webpagina bezoekt om een beeld te vormen over de inhoud. Deze indexatie vindt plaats door bij te dragen aan de doelstelling van de zoekmachine om de zoekresultaten zo relevant mogelijk te maken. Dit is alleen mogelijk als de zoekmachine “weet” welke content op een betreffende webpagina te vinden is. Het is voor de vindbaarheid van een website (zoekmachine optimalisatie) enorm belangrijk dat alle pagina’s van een website goed geïndexeerd worden. Dit is eenvoudig te controleren door de domeinnaam van een website in de zoekbalk van de zoekmachine in te voeren met het woord “site” ervoor. Alle geïndexeerde pagina’s van een specifieke website worden dan getoond als zoekresultaat.
Het indexeren van webpagina’s
De indexatie van webpagina’s is een geautomatiseerd proces. De spiders van Google (ook wel crawlers of bots genoemd) werken volgens een geautomatiseerd script. Alle gegevens die geïndexeerd worden, worden opgeslagen in een grote database. De websites die hoog aangeschreven staan bij de zoekmachine (die dus veel bezocht worden) zullen vaker bezocht worden door de crawlers. Daarom verschijnen deze pagina’s vrijwel direct in de zoekresultaten. Bij minder bezochte websites kan dit proces wat langer duren. Door het inrichten van een sitemap via Google Search Console kan er gezorgd worden voor een snellere indexatie. Ook de eventuele links naar een nieuwe pagina kunnen dit proces bevorderen.