Google indexeert CSS en Javascript

Vorig artikel Volgend artikel
1168298191logo-google-hand-small

De afgelopen dagen is er in zoekmachine-optimalisatie-land een discussie ontstaan over een post op Ekstreme.com waarin wordt aangetoond dat Google ook CSS en Javascript bestanden indexeert. Waarom zou Google dit doen?

Een klein stukje de techniek in, gecombineerd met de huidige ranking issues van Google, kan dit verklaren.

Wat is CSS? Met CSS bepaalt een webmaster snel en eenvoudig de opmaak van een website. CSS code (eenvoudigweg HTML) wordt meestal in een apart bestandje op de server gehost. Extern gehoste bestanden (zoals CSS, maar ook vaak Javascript) verlagen de 'download time' van een pagina (waar zoekmachines blij mee zijn en dus goed is voor zoekmachine optimalisatie). Zie ook Wikipedia over CSS, Javascript en HTML.

Waarom indexeert de Googlebot CSS en Javascript? Google zou extern gehoste CSS en Javascript bestanden kunnen indexeren om spammers te ontdekken die bijvoorbeeld witte tekst op een witte achtergrond plaatsen of links en/of tekst onzichtbaar willen maken (middels de command display: none of visibility: hidden). Ik denk echter dat de algoritmes van Google niet (meer) veel waarde hechten aan 'wit op wit' en display: none of visibility: hidden, maar dat Google andere zaken meer van belang acht.

AJAX (Asynchronous Javascript And XML) Partijen als Google, Yahoo! en Amazon hebben de nieuwe scripttaal Ajax (Asynchronous Javascript And XML) geadopteerd en maken steeds meer gebruik van deze techniek om interactieve webpagina's te maken die vaak gebruiksvriendelijk(er) zijn. Javascript, en dus ook AJAX, kan echter niet geïndexeerd worden door een crawler/spider van een zoekmachine, wat problemen voor de zoekmachine vriendelijkheid van jouw website zorgt.

Maar aangezien er veel informatie van AJAX in het CSS bestand te vinden kan zijn, heeft Google er baat bij bestanden als CSS te indexeren. Javascript kan worden gebruikt voor spam-doeleinden zoals cloaking en (fout gebruik van) redirects, dus ook daar heeft Google belang om te weten wat het Javascript inhoudt. Zie ook Wikipedia over AJAX.

Het gaat om de content Zoekmachines zijn altijd op zoek naar goede content (te weten: HTML tekst) dat wordt gewaardeerd (middels links van kwalitatieve en relevante websites). Ik denk dat de waarde voor Google zit in de combinatie van het indexeren van de HTML, CSS en Javascript, omdat al deze informatie Google vertelt welk element van jouw website content/tekst is (en dus welke elementen andere zaken vertegenwoordigen zoals headers, footers, sidebars, etc.).

Robots.txt en de zoekmachines Voor degene die toch eigenwijs willen spammen in de zoekmachines lijkt Robots.txt een uitkomst. Het tekstbestandje Robots.txt gebruik je om bepaalde delen van een website af te sluiten voor een crawler/spider van een zoekmachine...

...wat dus ook kan voor CSS en Javascript. Maar dat is niet aan te raden, omdat Google dit op kan merken als potentiële spam website (met alle negatieve gevolgen voor je ranking in Google van dien - t/m verwijdering uit de index...). Zie ook Wikipedia over Robots.txt.

Stel de eindgebruiker centraal! Als conclusie en advies kan ik eigenlijk alleen maar zeggen: stel altijd de eindgebruiker centraal! Schrijf goede content die de moeite waard is voor de eindgebruiker en de moeite waard is om naar te linken. Houd je niet bezig met trucjes om zoekmachines te misleiden, want dat werkt echt alleen op de korte termijn. Eerlijk duurt het langst!

Lees meer over hoe Google jouw website indexeert

Eduard Blacquière

Reageren is uitgeschakeld omdat er geen cookies opgeslagen worden.

Cookies toestaan Meer informatie over cookies