Snelle SEO check
Wil je wat opzoeken op internet? Grote kans dat je dit via de zoekmachine Google doet. Bijna iedereen maakt gebruik van Google. Het is dus heel belangrijk dat wanneer je een website hebt, deze ook daadwerkelijk gevonden wordt. Onlangs kwam een klant naar ons toe met de mededeling dat zijn website niet gevonden werd, zelfs niet als er op de bedrijfsnaam werd gezocht. Ervaar jij deze problemen ook? Controleer dan of je website wordt geïndexeerd in Google. Dit doe je met de ‘site: operator’.
Geavanceerd zoeken
In Google kun je verschillende ‘operators’ gebruiken om geavanceerd te zoeken. De site: operator is er hier één van. Met de site: operator kun je nagenoeg alle pagina’s van je website zien die zijn geïndexeerd door Google.
1: zoekopdracht
Typ in Google de zoekopdracht:
site:wetalkseo.nl
waarbij wetalkseo.nl vervangen wordt door jouw eigen website url. Gebruik hierbij alleen het domein, geen http:// of www. en geen spaties. Hieronder zie je het resultaat voor wetalkseo.nl.
2: controleer de resultaten
De pagina’s die nu in de resultaten staan, zijn de pagina’s die in de zoekresultaten terug kunnen komen. Boven de resultaten staat een schatting van het aantal pagina’s die in de index worden gevonden. Het is niet erg als het niet helemaal klopt, belangrijker is dat je geen extremen ziet. Zijn er geen resultaten gevonden, kijk dan eerst naar de zoekopdracht. Zijn er geen spelfouten gemaakt?
Geen resultaten
Worden er nog steeds geen pagina’s geïndexeerd, dan kunnen er verschillende oorzaken zijn. Die moet je zo snel mogelijk oplossen want je website moet gevonden worden om bezoekers te kunnen krijgen. Bij bovengenoemde klant werd er bijvoorbeeld geen enkele pagina geïndexeerd door Google. De pagina’s werden geblokkeerd in het robots.txt bestand. Dit is één van de meest voorkomende oorzaken waardoor een pagina niet geïndexeerd wordt. Er zijn ook andere oorzaken mogelijk: meta robots of een Google penalty bijvoorbeeld.
robots.txt
Als een webrobot zoals die van Google een website bezoekt, kijkt het als eerste in het robots.txt bestand. Deze bevindt zich in de root van het domein. Hierin kan informatie staan voor webrobots, zoals welke pagina’s ze niet mogen bezoeken. In het bovenstaande geval is de volgende instructie toegevoegd:
User-agent: *
Disallow: /
Het user-agent: * gedeelte betekent dat het voor alle webrobots geldt en disallow: / zegt dat er geen enkele pagina bezocht mag worden. Helaas komen we dit nog te vaak tegen.
meta robots
Meta robots tags kunnen in het <head> gedeelte van je website staan en de webrobots aanwijzingen geven over de pagina’s die ze wel of niet mogen indexeren. Dit wordt vaak gebruikt door websitebouwers om ervoor te zorgen dat de pagina’s niet geïndexeerd worden tijdens de bouw van de website. Echter wordt het vaak vergeten om deze tag te verwijderen. Ook bij websites van grote bedrijven!
Google penalty
Als jij je bezig houdt met manieren om je website hoger in de zoekresultaten van Google te krijgen en je houdt je niet aan de richtlijnen, dan is het mogelijk dat je hiervoor een penalty krijgt. Om dit te kunnen achterhalen log in je bij Google Search Console en kijk je bij de berichten. Hier kan een melding over een Google penalty staan.
Teveel pagina’s
Een ander probleem dat je tegen kunt komen, is dat je veel te veel pagina’s ziet. En dan vooral pagina’s die helemaal niks met je website te maken hebben. Dit kan betekenen dat je website gehacked is. Controleer je website of laat dit voor je doen.
Ander gebruik van de site: operator
Je kunt de site: operator op meerdere manieren gebruiken. Wil je van een bepaalde pagina weten of deze gevonden wordt? Vul dan de pagina in achter de url:
site:wetalkseo.nl/over-ons/voorstellen-dennis-stopa
Dit levert het volgende resultaat op:
Zo kun je de site: operator ook gebruiken om te controleren of pagina’s in een bepaalde subfolder geïndexeerd zijn.
Al met al is de site: operator een handig hulpmiddel om snel te controleren of een website geïndexeerd wordt en om te kijken wat er dan tevoorschijn komt.