Notre approche multiniveau garantit que chaque clic comptabilisé par Linkaway est le résultat d'une visite humaine. Voici comment nous y parvenons.
Dans l'écosystème du marketing à la performance, le trafic non humain est une réalité incontournable. Des bots qui crawlent le web, des scripts automatisés, des outils de vérification publicitaire : à tout moment, une partie du trafic qui transite sur internet n'est pas générée par de vraies personnes.
Toutes les plateformes du marché sont confrontées à ce défi. Aucune solution (la nôtre incluse) ne peut revendiquer un filtrage à 100 %. Quiconque prétend le contraire vous ment.
En revanche, l'objectif que nous nous fixons est d'atteindre le niveau de filtrage le plus élevé possible, en combinant plusieurs couches de protection complémentaires. Le résultat : un trafic résiduel estimé à moins de 1 % de bots sur les clics comptabilisés.
Nous préférons être honnêtes sur les limites inhérentes au filtrage des bots plutôt que de vous promettre l'impossible. Ce que nous pouvons promettre en revanche : une vigilance constante, des mécanismes éprouvés, et des données systématiquement plus propres que celles de la majorité des outils de tracking disponibles sur le marché.
Chaque niveau de filtrage est indépendant et complémentaire. L'efficacité globale est le produit de leur action combinée : ce qu'un niveau laisse passer, le suivant l'intercepte.
La première ligne de défense s'appuie sur une base de données actualisée en continu regroupant l'intégralité des IP et User Agents connus pour appartenir à des bots. Cette blacklist couvre tous les grands crawlers connus (moteurs de recherche, outils de veille, scanners de sécurité, plateformes d'audit SEO…) ainsi qu'un large spectre de bots malveillants répertoriés. À elle seule, cette couche élimine environ 90 % du trafic bot avant même qu'un clic ne soit enregistré.
Pour les bots qui ne figurent pas encore dans les listes connues, nous appliquons une analyse comportementale par fingerprinting. Cette technique mesure un ensemble de signaux techniques, caractéristiques du navigateur, comportement de navigation, séquences de clics, vitesse d'interaction, propriétés de l'environnement d'exécution, afin de détecter des patterns non naturels, caractéristiques d'une activité automatisée. Cette approche nous permet d'identifier des bots jamais rencontrés auparavant, en nous appuyant sur ce qu'ils font plutôt que sur ce qu'ils sont.
Même lorsqu'un bot parvient à franchir les deux premiers niveaux, sa nature automatisée le trahit généralement par un comportement hyperactif : multiplication des clics sur différentes URLs en très peu de temps. Notre mécanisme de déduplication par IP s'en charge : sur une fenêtre temporelle définie, une même adresse IP ne peut générer qu'un seul clic comptabilisé. Concrètement, même si un bot clique des dizaines de fois, il ne sera comptabilisé qu'une seule fois, ce qui représente une fraction infime, estimée à moins de 1 %, du volume total de clics humains.
La grande majorité des bots est éliminée dès le premier niveau. Les rares bots sophistiqués qui passent le cap de la blacklist sont interceptés par le fingerprinting. Et les quelques clics résiduels que ni la blacklist ni le fingerprinting n'ont détectés ne comptent de toute façon qu'une seule fois grâce à la déduplication. Le risque d'un clic bot comptabilisé est ainsi réduit à une proportion négligeable, bien en deçà de ce que les outils de tracking standard autorisent.
Notre approche du filtrage ne sort pas de nulle part. Elle a été construite, affinée et éprouvée au contact de la réalité des données : des centaines de millions de clics traités, des dizaines de cas de figures atypiques analysés, et une amélioration continue de nos modèles de détection.
C'est une infrastructure rodée, testée à grande échelle, et validée quotidiennement par plus de 200 éditeurs et 150 annonceurs qui font confiance à Linkaway pour mesurer leurs performances avec précision.
Nous avons mené des comparaisons entre les données Linkaway et les outils de tracking interne mis en place par certains de nos éditeurs. Le constat est systématique.
Lorsqu'un éditeur dispose de son propre outil de tracking des clics et que nous comparons ses chiffres avec ceux de Linkaway sur une même période, le résultat est constant :
Une question revient souvent : pourquoi les chiffres de Linkaway ne correspondent-ils pas aux sessions Google Analytics 4 ? La réponse est simple : ce ne sont pas les mêmes choses.
Linkaway mesure des clics : chaque fois qu'un visiteur clique sur un lien de partenariat et arrive sur le site de l'annonceur, Linkaway enregistre un clic. C'est une mesure unitaire, côté source (l'éditeur).
Google Analytics 4, lui, mesure des sessions : c'est une notion plus complexe, calculée côté destination (le site de l'annonceur), selon une logique propre à GA4 qui peut regrouper plusieurs interactions en une seule session, expirer des sessions selon des règles de timeout, ou en créer de nouvelles lors d'un changement de source. Ces deux mesures ne sont donc pas comparables et ne doivent pas être utilisées l'une pour valider l'autre.
Un clic = un visiteur unique ayant cliqué sur un lien de partenariat et déclenché le tracker. Mesure côté source (éditeur), instantanée, unitaire et filtrée des bots.
Une session = une période d'activité d'un utilisateur sur un site, regroupant plusieurs interactions. GA4 peut créer plusieurs sessions pour un même utilisateur, ou aucune si l'attribution est perdue. Mesure côté destination (annonceur), influencée par la configuration, les bloqueurs, le consentement et la logique d'attribution de GA4.
Les bloqueurs de cookies, le mode navigation privée, le refus de consentement, et la perte d'attribution lors des redirections font que GA4 ne capte qu'une partie des visiteurs réels. C'est normal, et c'est une raison de plus pour ne pas utiliser GA4 comme référence de comparaison pour du trafic publicitaire.
Notre équipe peut vous présenter en détail notre approche technique et répondre à toutes vos questions sur la qualité du trafic Linkaway.
Nous contacter