Éliminer les fausses données sur Google Analytics

Éliminer les fausses données sur Google Analytics.

Accueil » Éliminer les fausses données sur Google Analytics

La plupart des spécialistes en référencement web aiment voir et analyser les données de trafic d’un site web. C’est aussi le cas pour un propriétaire de site web qui désire voir à quel niveau son site web est vu par sa clientèle potentielle recherchant de l’information sur le web. Le meilleur outil d’analyse de trafic web présent est, bien sûr, Google Analytics. On y trouve toutes les données nécessaires pour comprendre la démographie du trafic d’un site web et y voir la rentabilité que celle-ci peut avoir sur une entreprise.

 

De nos jours, beaucoup de robots se promènent sur le web pour y inspecter les sites web et les indexer à leurs données. Il n’y a pas beaucoup de personnes qui connaissent la raison exacte pour laquelle ils naviguent le web, mais ils le font quand même et cela peut nuire à la compréhension des données offertes par Google Analytics. Cet outil d’analyse n’est pas infaillible et même si les robots naviguant le web ne sont pas de vraies personnes, ils sont quand même interprétés comme des navigateurs qui visitent le site web que l’on analyse. Ces robots viennent trafiquer nos données de trafic et ne devraient pas se trouver dans vos données d’analyse par faute de les truquer faussement.

 

Cet article a pour but de montrer à tous comment éliminer les fausses données de Google Analytics et ainsi ne plus avoir de mauvaises informations lors que l’on analyse le trafic d’un site web.

Identifier les robots

Du jour au lendemain, de nouveaux robots apparaissent dans vos données de navigation Google Analytics et ceux-ci gâchent vos résultats. Les démasquer est la première étape pour les éliminer de nos données de trafic web.

 

Comme il est mentionné plus haut, Google Analytics est un outil d’analyse de trafic qui permet de voir toutes les données possibles de navigation sur un site web. L’utiliser pour démasquer l’espion dans nos troupes est donc très pertinent.

 

Pour ce faire, il faudra accéder au compte Google Analytics et entrez dans la campagne que l’on veut corriger. Une page comme la suivante devrait apparaître lors que l’on rentre dans le compte désiré :

Pour cibler précisément les robots indésirables, il faut aller voir les données segmentées par type de canaux d’acquisition. Pour ce faire, aller dans Acquisition -> Présentation -> Tout le trafic -> Canaux.

 

Vous y verrez un tableau comme celui-ci :

À première vue, il n’y a pas de quoi s’alarmer avec les données qui y sont affichées. Par contre, les robots nuisibles aux données d’analyse réussissent à bien s’y cacher. Lors que l’on regarde toutes ces informations, le trafic référent n’a pas le trafic avec le plus haut taux de rebond. Malgré cela, en cliquant sur le lien nommé « Referral », vous pourrez voir qu’une bonne partie des données s’y trouvant ne sont pas utiles. C’est là que les robots s’y cachent et c’est là qu’il faut s’attarder lors que l’on veut éliminer les données inutiles à notre analyse de trafic.

Pour voir si un espion se cache parmi les sites web référents, vous devrez faire l’analyse de ceux-ci un par un. Pour sa part, le site web analysé dans le tableau précédent possède 2 sites web et 2 adresses IP, encadrés en rouge, qui amènent du « faux trafic web ». Les autres sites web référents sont soit des annuaires, des sites de coupons-rabais, des articles ou des publicités en ligne qui envoient de vraies personnes sur le site web que l’on veut promouvoir. Ces derniers sont tous à conserver dans les données d’analyse, car ils apportent une vraie valeur à celles-ci.

 

Allons voir à quoi ressemble un site web que l’on ne veut pas dans nos données de trafic, en observant la page d’accueil de semalt(.)com, où l’on est redirigé lorsque l’on tape semalt(.)semalt(.)com, et la page d’accueil de buttons-for-website(.)com où l’on est redirigé lors que l’on visite le site web sharbutton(.)net.

En arrivant sur ces deux sites web référents, on peut constater dès l’arrivée que ceux-ci n’offrent pas une réelle valeur au trafic de votre site web. Il n’est pas possible d’y voir des sites web qui pourraient être intéressants à visiter pour s’informer sur un sujet. Ils proposent également plus de visites sur les sites web s’y inscrivant, sans toutefois vous proposer d’aller voir des sites web qui si sont inscrits. D’où peut bien provenir le nouveau trafic proposé s’il n’est pas possible de voir un site web externe à Semalt ou SharButton lors que l’on navigue sur ceux-ci?

 

Ces sites web augmenteront réellement le trafic d’un site web s’y inscrivant, mais à tort, car ces visites sont faites par des robots qui n’achèteront pas un produit, ne commenteront pas sur des articles de blogue et ne chercheront pas à contacter une entreprise pour ses services. Combien valent des visites de site web qui ne sont pas possibles à convertir? RIEN. Il ne faut absolument pas s’y inscrire par intérêt de ne pas fausser ses données d’analyse.

Filtrer les informations indésirables des sites référents

Tout ce que l’on veut en fin de compte, c’est d’éliminer les fausses données de notre compte Google Analytics. C’est simple et il ne faudra que quelques minutes avec les étapes suivantes :
  1. Allez dans la section « Admin » de votre compte;
  2. Sélectionnez le compte pour lequel vous voulez faire les modifications (dans ce cas-ci, « Netleaf »)
  3. Cliquez sur le lien « Tous les filtres ».

Un tableau semble au suivant apparaîtra :

Il faudra cliquer sur le bouton rouge « NOUVEAU FILTRE » pour créer un filtre qui permettra d’éliminer les sites web référents inutiles. Il devrait apparaître une page comme la suivante.

 

Pour créer un filtre qui éliminera les fausses données de votre compte Analytics, suivez les étapes suivantes :

  1. Nommez votre filtre;
  2. Choisissez « Sélectionnez un type de filtre » et sélectionnez « Exclure »;
  3. Sélectionnez « Sélectionnez la source ou la destination » et choisissez l’option « Trafic à partir du domaine de FAI » si le robot naviguant sur le site est à partir d’un nom de domaine ou « Trafic provenant des adresses IP » si le robot provient d’une adresse IP précise. Lors que vous aurez sélectionné une de ces options, vous pourrez entrer l’adresse URL ou IP du robot à exclure des données d’analyse;
  4. Sélectionnez « Sélectionner l’expression » et choisissez « contenant » pour inclure toutes les expressions possibles provenant de cette URL ou de cette adresse IP ;
  5. La dernière étape, mais non la moindre, sera de sélectionner les campagnes pour lesquelles vous voulez appliquer le filtre.
  6. Toutes ces étapes sont à refaire pour éliminer toutes les URL ou adresses IP indésirables dans les différentes campagnes de Google Analytics.

Conclusion

Ceci met un bon diachylon sur la plaie et aidera grandement à corriger les fausses données de trafic d’un site web en particulier. Jusqu’à présent, aucune information n’a été fournie comme quoi ces robots pourraient nuire à la crédibilité d’un site web par rapport aux résultats de recherche sur Google, mais c’est probablement à venir. Se concentrer à éliminer tous les robots inutiles aux données d’analyse de Google Analytics est très important pour avoir les données de navigation les plus pures possible. Il faut également prendre en considération que de nouveaux robots sont créés chaque semaine, si ce n’est pas chaque jour. Il faut les éliminer dès qu’ils apparaissent pour ne pas laisser trafiquer les données de trafic d’un site web et voir convenablement d’où provient le vrai trafic web.