​Bots geweerd in Analytics

​Bots geweerd in Analytics

Vorig artikel Volgend artikel

De geautomatiseerde, onpersoonlijke systemen die bots en spiders draaiende houden, zijn doorgaans niet relevant voor de online business. Een sessie en pageview van de bezoekende bot, geeft dan ook een vertekend beeld in de cijfers uit het gebruikte analytics systeem. Gelukkig heeft Google een kleine, maar belangrijke nieuwe optie toegevoegd aan Google Analytics waardoor deze bots en spiders makkelijk worden gefilterd uit de data.

Rapporten tonen aan dat deze bots en spiders soms verantwoordelijk zijn voor wel een derde van de totale hoeveelheid traffic naar sites. Hierdoor wordt de data minder relevant en kan het gevolgen hebben voor de online business.

Wanneer bots en spiders wel worden meegeteld, kan dit negatief zijn voor het conversiepercentage. Een website heeft meer sessies als bots worden toegelaten, maar deze bots leveren geen conversie op. Het uitsluiten van de bots maakt data relevanter en betrouwbaarder.

Door de checkbox ‘alle treffers van bekende bots en spiders uitsluiten’ aan te vinken onder ‘instellingen weergeven’ in het ‘dataweergave’ menu, worden nu de bots die bekend zijn bij het IAB automatisch uitgesloten en komen ze niet meer terug in de statistieken, waar dit tot voor kort nog een langdurige en handmatige actie was. Met deze nieuwe mogelijkheid in Google Analytics worden dus niet alle bots gefilterd, maar enkel de bots die bij het IAB bekend zijn. Deze lijst wordt elke maand door het IAB geüpdatet. Het geheel geeft een minder scheef beeld van het verkeer, al geldt dit helaas alleen voor het huidige en toekomstige verkeer, het gaat niet met terugwerkende kracht.

Ik heb inmiddels een test gedaan met deze optie, met positief gevolg. De data van verschillende metrics was 7 tot 10 procent lager dan die van de controlegroep. De gevolgen waren niet zo groot dat een derde van de hoeveelheid bezoekers werd uitgesloten, maar er was wel een significant verschil zichtbaar. Door de data van de originele en van de nieuwe dataweergave te vergelijken heb ik kunnen berekenen welke gevolgen de bots hebben gehad.

Pas op met het verbinden van conclusies aan de daling in de hoeveelheid traffic. Immers, de hoeveelheid traffic wordt met het uitsluiten van de bots hoogstwaarschijnlijk lager dan in voorgaande maanden, maar wel betrouwbaarder. Meer informatie over deze optie is hier te vinden.

Deze blogpost is geschreven door Gerwin Koppelaar is online marketeer bij TriMM.

[Afbeelding via David J Flickr CC]

Meer content

Reageren is uitgeschakeld omdat er geen cookies opgeslagen worden.

Cookies toestaan Meer informatie over cookies