Qualité du trafic

Un trafic filtré.
Des clics qui comptent vraiment.

Notre approche multiniveau garantit que chaque clic comptabilisé par Linkaway est le résultat d'une visite humaine. Voici comment nous y parvenons.

150+ annonceurs ayant validé
notre qualité
200+ éditeurs qui utilisent
Linkaway au quotidien
< 1 % de trafic bot résiduel
estimé

Pourquoi la qualité du trafic est au cœur de notre mission

Dans l'écosystème du marketing à la performance, le trafic non humain est une réalité incontournable. Des bots qui crawlent le web, des scripts automatisés, des outils de vérification publicitaire : à tout moment, une partie du trafic qui transite sur internet n'est pas générée par de vraies personnes.

Toutes les plateformes du marché sont confrontées à ce défi. Aucune solution (la nôtre incluse) ne peut revendiquer un filtrage à 100 %. Quiconque prétend le contraire vous ment.

En revanche, l'objectif que nous nous fixons est d'atteindre le niveau de filtrage le plus élevé possible, en combinant plusieurs couches de protection complémentaires. Le résultat : un trafic résiduel estimé à moins de 1 % de bots sur les clics comptabilisés.

Notre engagement de transparence

Nous préférons être honnêtes sur les limites inhérentes au filtrage des bots plutôt que de vous promettre l'impossible. Ce que nous pouvons promettre en revanche : une vigilance constante, des mécanismes éprouvés, et des données systématiquement plus propres que celles de la majorité des outils de tracking disponibles sur le marché.

Une protection en 3 niveaux

Chaque niveau de filtrage est indépendant et complémentaire. L'efficacité globale est le produit de leur action combinée : ce qu'un niveau laisse passer, le suivant l'intercepte.

Niveau 1 - Blacklist d'IP et de User Agents

La première ligne de défense s'appuie sur une base de données actualisée en continu regroupant l'intégralité des IP et User Agents connus pour appartenir à des bots. Cette blacklist couvre tous les grands crawlers connus (moteurs de recherche, outils de veille, scanners de sécurité, plateformes d'audit SEO…) ainsi qu'un large spectre de bots malveillants répertoriés. À elle seule, cette couche élimine environ 90 % du trafic bot avant même qu'un clic ne soit enregistré.

~90 % des bots éliminés

Niveau 2 - Fingerprinting et détection de patterns

Pour les bots qui ne figurent pas encore dans les listes connues, nous appliquons une analyse comportementale par fingerprinting. Cette technique mesure un ensemble de signaux techniques, caractéristiques du navigateur, comportement de navigation, séquences de clics, vitesse d'interaction, propriétés de l'environnement d'exécution, afin de détecter des patterns non naturels, caractéristiques d'une activité automatisée. Cette approche nous permet d'identifier des bots jamais rencontrés auparavant, en nous appuyant sur ce qu'ils font plutôt que sur ce qu'ils sont.

Bots inconnus détectés

Niveau 3 - Déduplication des adresses IP

Même lorsqu'un bot parvient à franchir les deux premiers niveaux, sa nature automatisée le trahit généralement par un comportement hyperactif : multiplication des clics sur différentes URLs en très peu de temps. Notre mécanisme de déduplication par IP s'en charge : sur une fenêtre temporelle définie, une même adresse IP ne peut générer qu'un seul clic comptabilisé. Concrètement, même si un bot clique des dizaines de fois, il ne sera comptabilisé qu'une seule fois, ce qui représente une fraction infime, estimée à moins de 1 %, du volume total de clics humains.

1 clic / IP / période
Le résultat combiné de ces 3 niveaux

La grande majorité des bots est éliminée dès le premier niveau. Les rares bots sophistiqués qui passent le cap de la blacklist sont interceptés par le fingerprinting. Et les quelques clics résiduels que ni la blacklist ni le fingerprinting n'ont détectés ne comptent de toute façon qu'une seule fois grâce à la déduplication. Le risque d'un clic bot comptabilisé est ainsi réduit à une proportion négligeable, bien en deçà de ce que les outils de tracking standard autorisent.

Une approche éprouvée au service de la qualité

Notre approche du filtrage ne sort pas de nulle part. Elle a été construite, affinée et éprouvée au contact de la réalité des données : des centaines de millions de clics traités, des dizaines de cas de figures atypiques analysés, et une amélioration continue de nos modèles de détection.

C'est une infrastructure rodée, testée à grande échelle, et validée quotidiennement par plus de 200 éditeurs et 150 annonceurs qui font confiance à Linkaway pour mesurer leurs performances avec précision.

200+ éditeurs utilisant Linkaway au quotidien
150+ annonceurs ayant validé la qualité de nos données
100 % des comparaisons menées montrent moins de clics que les trackers internes

La preuve par les chiffres

Nous avons mené des comparaisons entre les données Linkaway et les outils de tracking interne mis en place par certains de nos éditeurs. Le constat est systématique.

Lorsqu'un éditeur dispose de son propre outil de tracking des clics et que nous comparons ses chiffres avec ceux de Linkaway sur une même période, le résultat est constant :

Outil de tracking interne de l'éditeur
100 %
clics comptabilisés (base de référence)
Linkaway filtre
davantage
Clics comptabilisés par Linkaway
-18% en moyenne
systématiquement inférieur à l'outil interne
Ce que cela signifie concrètement : Linkaway mesure systématiquement moins de clics que les outils de tracking utilisés en interne chez les éditeurs. Non pas parce que nous sous-comptons le trafic humain, mais parce que nous filtrons davantage le trafic non humain. Dans la totalité des études de cas menées, nos chiffres sont inférieurs à ceux des trackers internes des éditeurs, ce qui fait de Linkaway l'un des outils les plus stricts du marché en matière de filtrage des bots.

Clics Linkaway vs sessions Google Analytics 4

Une question revient souvent : pourquoi les chiffres de Linkaway ne correspondent-ils pas aux sessions Google Analytics 4 ? La réponse est simple : ce ne sont pas les mêmes choses.

Linkaway mesure des clics : chaque fois qu'un visiteur clique sur un lien de partenariat et arrive sur le site de l'annonceur, Linkaway enregistre un clic. C'est une mesure unitaire, côté source (l'éditeur).

Google Analytics 4, lui, mesure des sessions : c'est une notion plus complexe, calculée côté destination (le site de l'annonceur), selon une logique propre à GA4 qui peut regrouper plusieurs interactions en une seule session, expirer des sessions selon des règles de timeout, ou en créer de nouvelles lors d'un changement de source. Ces deux mesures ne sont donc pas comparables et ne doivent pas être utilisées l'une pour valider l'autre.

Clics Linkaway

Un clic = un visiteur unique ayant cliqué sur un lien de partenariat et déclenché le tracker. Mesure côté source (éditeur), instantanée, unitaire et filtrée des bots.

Sessions Google Analytics 4

Une session = une période d'activité d'un utilisateur sur un site, regroupant plusieurs interactions. GA4 peut créer plusieurs sessions pour un même utilisateur, ou aucune si l'attribution est perdue. Mesure côté destination (annonceur), influencée par la configuration, les bloqueurs, le consentement et la logique d'attribution de GA4.

Pourquoi GA4 sous-comptabilise toujours le trafic référent

Les bloqueurs de cookies, le mode navigation privée, le refus de consentement, et la perte d'attribution lors des redirections font que GA4 ne capte qu'une partie des visiteurs réels. C'est normal, et c'est une raison de plus pour ne pas utiliser GA4 comme référence de comparaison pour du trafic publicitaire.

Des questions sur notre filtrage ?

Notre équipe peut vous présenter en détail notre approche technique et répondre à toutes vos questions sur la qualité du trafic Linkaway.

Nous contacter