Agences web et vraies (fausses) promesses : Les packs visites

Écrit le . Publié dans , , .

En termes de développement web, la concurrence est rude. Nombreuses agences de création de site Internet n’hésitent pas à inventer des arguments commerciaux pour vous faire souscrire des services, toujours plus prometteurs les uns que les autres.

Parmi ces arguments, on retrouve souvent des packs vous garantissant des visites sur votre site internet. Ces packs se vendent de 29€ HT à 500€ HT par mois.

Un argument tel que « Nous vous garantissons x visites mensuelles sur votre site » semble alléchant de prime abord, surtout quand on n’a pas ou peu de comprehension sur le fonctionnement d’Internet. Que valent réellement ces visites en terme de retour sur investissement ? S’agit-il de trafic qualifié (Qualified web trafic) ou de trafic généré artificiellement par des robots (que nous appellerons régulièrement dans cet article par bot(s)) ?

Des robots pour générer du trafic artificiel ?

En 2018, près de 38% du trafic sur Internet a été généré par des robots :

Seulement deux tiers du trafic global sur Internet a été généré par des humains avec 62.1%, 20.4% par des « bad bots » et 17.5% par des « good bots ».

L’affaire des Bots, c’est l’argent.

Bien qu’il soit connu que les robots ont été utilisés pour exploiter des sites de médias sociaux dans le but d’influencer la politique, le dialogue et les élections, la véritable motivation derrière la majorité des mauvais robots est l’argent.

Bien que l’objectif de chaque opérateur de robot puisse être différent selon son secteur d’activité, les robots sont l’outil de prédilection et sont essentiels à leur succès. Il existe un écosystème au sein de nombreuses industries qui comptent sur les robots pour la survie. Sans leur utilisation, nombre de ces opérateurs auraient du mal à faire face à la concurrence. Dans de nombreux cas, le déploiement de mauvais robots sont une pratique commerciale essentielle.

Chaque industrie a son propre problème de mauvais bot et son propre écosystème d’opérateurs de bot. Tous ne servent pas à générer du trafic artificiel pour vous donner l’illusion que votre site est populaire.

Les industries les plus touchées sont les compagnies aériennes(1), l’e-commerce(2) et la billetterie en ligne (spectacles, concerts)(3).

1 Distil Research Lab: Threat Research: How Bots Affect Airlines
2 Distil Research Lab: Threat Research: How Bots Affect Ticketing
3 Web Scraping for Investments (Published by Opimas (Feb 2019))

Qu’est-ce qu’un bon bot ?

En termes simplistes, de bons robots garantissent que les entreprises en ligne et leurs produits peuvent être trouvés par des clients potentiels. Par exemple, les robots de recherche tels que GoogleBot et Bingbot qui, grâce à leur indexation, aident les gens à faire correspondre leurs requêtes avec les ensembles de sites Web les plus pertinents.

Mais les « bons » bots peuvent aussi avoir des effets négatifs, particulièrement s’ils parcourent votre site trop fréquemment (consommation de ressources serveur et de bande passante). Le robot de Google offre la possibilité de lui indiquer à quelle fréquence visiter votre site.

Comment est généré le trafic artificiel ?

Il existe de nombreux moyens pour générer du traffic sans aucun intérêt :

  • En payant des personnes pour visiter des sites
  • En utilisant des robots (programmes informatiques plus ou moins avancés) dont voici un exemple ci-dessous :
Exemple de générateur de faux trafic web

Il est impossible de vous garantir un trafic qualifié et naturel (humain non payé) au démarrage de votre site.

Oui, parfaitement, c’est impossible, sauf cas exceptionnels. Avant d’entrer dans le détail de ce qu’est un trafic qualifié, il est nécessaire de comprendre comment fonctionne le référencement naturel (SEO) d’un site internet et pourquoi il est virtuellement impossible de se positionner (au début) en première page et position des résultats de recherche sur Google pour une requête donnée.

Sauf cas exceptionnels ?

Oui, si on prend l’exemple de la requête de recherche « enceinte bluetooth » sur Google, on se retrouve avec plus de 22 100 000 résultats (à la date de rédaction de l’article). Pénétrer le marché en tant que nouvel acteur sur ces mots clefs s’annonce difficile, la concurrence est énorme et de nombreux acteurs spécialisés sont en place depuis de nombreuses années. On peut se propulser en tête des résultats, mais certainement pas du jour au lendemain.

Les exceptions concernent les marchés de niche, si vous êtes parmi les premiers à parler d’un produit innovant, ou lancez une marque qui fait le buzz, alors, vous pouvez espérer vous voir occuper le podium dans les résultats de recherche avec du trafic humain « légitime ».

Rappel du fonctionnement de la recherche sur Google :

Google Webmasters publie régulièrement des vidéos sur sa chaîne YouTube pour expliquer de manière simple comment fonctionnent les différents services de Google. La vidéo ci-dessous décrit le fonctionnement de Google Search :

La vidéo nous explique que pour qu’un site soit proposé dans les pages de résultats de recherches Google, il doit passer par 3 étapes essentielles :

  1. La découverte et l’exploration (appelée crawling) des vos pages
  2. L’indexation (processus visant à classer le contenu de vos pages dans les bases de données de Google)
  3. Le ranking ou classement (processus visant à proposer des résultats aux requêtes de recherche des internautes sur son moteur parmi les milliers ou milliards de pages dans son index)

Comme nous venons de le voir, les résultats de recherche sont affichés selon un classement (ranking). Ce classement varie en fonction de nombreux facteurs que Google appelle signaux (signals) et qui affectent le positionnement d’un site par rapport aux autres pour un même mot clef (ou chaîne de mots clefs, aussi appelée longue traîne).

Google a confirmé qu’il utilise environ 200 signaux de classement pour déterminer le positionnement organique des sites dans les pages de résultat de recherche. Il y a des facteurs liés au nom de domaine (ancienneté, réputation..), des facteurs sur la page (qualité rédactionnelle, pertinence de l’information, liens…), des facteurs hors page (nombre de rétroliens, qualité des rétroliens…), des facteurs au niveau technique du site (rapidité d’affichage, utilisation d’un protocole HTTPS / TLS…), emplacement de l’internaute qui effectue la requête de recherche…

Les sites qui démarrent sur la toile, sont généralement en compétition directe avec d’autres sites qui bénéficient d’une plus grande ancienneté et notoriété. Ce n’est qu’au bout d’un certain temps sur le web (variable d’un secteur d’activité à l’autre) que votre site apparaîtra (ou non) dans les premiers résultats « naturels ». C’est pourquoi il est IMPOSSIBLE de garantir un volume de trafic qualifié sur un site web.

Qu’est-ce que le trafic qualifié ?

Le trafic web qualifié se définit par un flux de visites naturelles « de haute qualité » qui ajoute de la valeur à votre site, son contenu et renforce son autorité.

Qu’est-ce qui est considéré comment un (bon) trafic qualifié ?

Le trafic Web qualifié est le nombre de visiteurs de votre site Web qui sont de vraies personnes. Ces personnes visitent votre site web parce qu’elles s’intéressent réellement à votre contenu, par opposition aux personnes qui sont payées pour visiter ou aux robots, qui ne font que leur travail en visitant les pages de votre site, sans réel intérêt pour son contenu. Ces visiteurs peuvent provenir soit de résultats de recherche naturels, soit d’autres sites. Ne vous aventurez pas non plus dans des systèmes de liens douteux, faites attention à la provenance des rétroliens.

Les visites artificielles dopent vos statistiques de fréquentation et vous font perdre doublement de l’argent :

  • Vous payez pour générer ce trafic artificiel et sans valeur
  • Vous ne convertissez aucune de ces visites en client

Eviter de se faire duper

Afin de luter contre les dénonciations de ces pratiques frauduleuses, les programmes se sont de plus en plus perfectionnés pour rendre le faux trafic de moins en moins « flagrant » ou « détectable ». Ils sont en mesure d’émuler (simuler) de véritables navigateurs en se servant de proxys aléatoires. On les surnomme les « Smart bots » ou les APBs (Advanced Persistent Bots).

Fort heureusement, il existe des moyens d’analyse du trafic pour identifier le vrai du faux. L’un d’eux Google Analytics, permet de mesurer avec précision votre audience (à condition que le code de suivi soit installé sur votre site et que vos visiteurs ont donné leur consentement pour le dépôt de cookies, conformément à la RGPD).

Bien que Google Analytics soit très puissant, il a également ses limites et l’analyse approfondie demandera beaucoup de temps et d’efforts dont la complexité variera en fonction du volume et de la RGPD…

D’autres outils et services spécialement conçus (rien que ça…) pour aider à lutter contre les robots existent, tels que Impreva (Distil Networks).

Si vous avez souscrit à ce genre de service, que vous avez un nombre important de visites mais que vous ne recevez pas d’appels, ni d’envoie de formulaire, n’i d’achats (pour le sites e-commerce), il faut vous interroger sur la qualité du trafic sur votre site Internet.

Mais là encore, si vous n’avez pas mis en place de moyens de contrôle en amont, lorsque vous signalerez ce constat à votre « prestataire », il risque de vous objecter : « C’est peut-être vos services ou produits qui ne sont pas intéressants » ou « Vos prix sont plus élevés que la concurrence » ou « Vos conditions de vente ne sont pas assez claires… » ou « Qu’est-ce qui vous prouve que ces visites ne sont pas légitimes ? » et oui, la charge de la preuve incombe au demandeur… Tout un tas d’excuses pour vous faire culpabiliser et détourner votre attention du réel problème : le faux trafic.

En conclusion

Bien qu’il soit impossible de garantir un trafic qualifié pour un site Internet, il est tout à fait possible de garantir que le site sera développé conformément aux règles de l’art pour favoriser son référencement naturel (SEO), sans surcoût pour le client.

Obtenir du trafic humain et légitime est possible en suivant les recommandations Google (en anglais, mise à jour du 5 décembre 2019: https://static.googleusercontent.com/media/guidelines.raterhub.com/fr//searchqualityevaluatorguidelines.pdf

Ne vous lancez pas bille en tête en vous laissant séduire par des arguments commerciaux alléchants. Prenez le temps de vérifier les informations qu’on vous donne, renseignez-vous en faisant des recherches.

Faites vous accompagner par de véritables professionnels, transparents, qui vous donnerons les clefs pour développer votre présence en ligne efficacement et surtout sans artifices.

Notes

Lien utile Rapport Impreva bad bot report 2019 (en anglais)
Qu’est-ce que le trafic web qualifié What is qualified web traffic (en anglais)

Partager l’article

A propos de l'Agence WEB+
Contacter l'Agence WEB+

125 rue de l'Hostellerie
30900 Nîmes, France


Tous droits réservés © 2014 - 2020
Send this to a friend