Référencement, Dollars Et Pertinence
Copier le site MFA d’un Black Hat SEO, c’est mal !
A cache-cache AdSense, j’ai été démasqué par Jan de BVWG et ai eu droit à ma leçon gratuite de réputation management. Si vous ne l’avez pas lue faites-le, je dois assumer la mise à l’index, je ne l’avais pas prévenu de ce nouveau mini jeu concours. 😉
Suite à un article, « Revenus Adsense: quelle stratégie ? » paru fin juin sur le blog pragmatique (cynique ?) dédié au référencement et au SEO toutes couleurs confondues, j’avais sauté sur l’occasion de faire mon malin.
J’ignore si Jan a lancé la Grosse Berta en me Googlebombant, sont petit article va me coller quelques miames nauséabonds d’e-réputation sur Google pour quelques temps – j’aurai mérité mon billet personnalisé sur BVWG, c’est ça la classe Américaine.
EDIT 20/08, 23:35 : Jan m’a répondu en gentleman farmer. Quelle classe.
Sites Made For AdSense
Littéralement les « sites fait pour la publicité AdSense ». Vous savez, toutes ses saletés de sites sans contenus intéressant et bourrés de pubs AdSense, à ne pas confondre bien-sûr avec les éditeurs de pages de parking (ex. Sedo) qui boostent le cybersquatting ont d’autres accords avec Google…
L’article de BVWG sur le détournement des revenus publicitaires AdSense aborde la question d’une rentabilité maximale basée sur la quantité plutôt que la qualité du contenu. Jeunes rédacteurs ne lisez pas ce qui suit. Travail sur le contenu contre tactique de la Longue Traîne, là où vous allez vous tuer à tenir quelques sites/blogs chronophages et peu rémunérateurs, la stratégie Black Hat va consister à en produire 100, 200 voire plus, capables chacun de générer automatiquement un contenu optimisé pour les moteurs, drainant une micro-audience et donc un micro-revenu dont le produit de l’ensemble constituera de macro-gains.
La pollution peut commencer…
Contrairement à un site-annuaire géant comme Dico du Net qui va générer des dizaines de milliers de pages sur un tout un pan de thématiques et sortir en 1ère page de Google, dans une moindre mesure comme Wikipedia, chaque site MFA isole un thème, un univers sémantique restreint. Outre le fait que dans la chasse que Google dit avoir lancé à ces faux-sites, un site sur un nom de domaine unique soit très vulnérable à une suppression de l’index, ici c’est un véritable mode de guerilla qui est employé, basé sur une analyse fine des thématiques porteuses à un moment T comme sur le long terme. Le vrai travail du créateur de sites MFA consiste à savoir ce qui se recherche sur Google (ce que beaucoup de monde veut savoir) en constituant une galaxie de rubriques (ancrées sur autant de noms de domaines) et en repérant les nouveau sujets : l’explosion des services à domicile ou l’ouverture du marché de l’énergie par exemple.
Un exemple : l’aide (ou le soutien) scolaire
Thématique saisonnière, la recherche dans ce domaine va générer un grand nombre de requêtes variées, de la phase de questionnement à la recherche de prestations, en passant par des étapes d’affinement. Comme presque toujours, l’internaute est un être humain feignant et guidé par l’intérêt, qui utilise un moteur de recherche gratuit et simple d’emploi, et recherche une information gratuite demandant le moins d’efforts et de temps possible. L’exigence n’est pas la meilleure réponse qui soit, mais celle qui convient (matche). Le secteur est commercial, il y a donc des clients et des annonceurs en quantité suffisante. Reste à se positionner en aiguilleur pour prendre sa commission au passage et prouver qu’au final, un site MFA est une des réponses convenables.
Voici le site d’expérimentation de Jan : www.aide-scolaire.eu. Sans vouloir lui jeter des fleurs car n’oublions pas que c’est très vilain, ce site est extrêmement bien conçu pour le référencement automatique, comparé aux sites MFA en général. Après une étude portant sur les groupes de mots clés relatifs à l’aide scolaire recherchés dans Google (les outils sont fournis par les moteurs), un générateur-annuaire est utilisé pour reprendre les titres, URL et descriptions de sites relevant de la thématique. L’arborescence, le nommage, le code HTML sont optimisés. Les publicités AdSense sont parfaitement intégrées, de manière douce, dans une charte claire, au rendu sobre et assez sérieux, visant à rassurer le visiteur. L’aspect est un des moyen d’appréciation de la valeur du contenu pour l’internaute. La bonne représentativité des mots clés en navigation (= pertinence ?) fera le reste avec un plongeon dans le champ lexical qui pourra avoir pour effet de désambigüiser les requêtes d’une partie (mais laquelle ?) des visiteurs.
Voici la copie : www.soutien-scolaire.eu. En dehors du fait que mon site est plus joli ;), il est semble qu’à ce point je n’aie encore rien prouvé avec ça. En effet, mon premier mouvement a été de saisir la perche tendue en conclusion de l’article de Jan, à savoir : pourquoi ne pas pousser le procédé, reprendre et améliorer les sites MFA eux-mêmes, bref poursuivre dans la réaction en chaîne de répétition, de recopiage, pillage, remâchage de l’information sur le Web dans un seul but : le trafic, l’intermédiation, la part d’audience, le temps de cerveau monétisable ?
On se heurtera à deux problèmes : le duplicate content et le propriétaire de l’original qui vous retrouve. La solution consistera à différencier. J’avoue ne pas avoir poussé l’expérience assez loin pour savoir quelles techniques ont succédé à l’exploitation du bug des redirections temporaires de Google. Si un référenceur me lis…
Pour finir sur cette copie, j’ai appris des trucs. J’ai surtout pu vérifier la facilité de mise en place en partant d’un bon modèle, gage d’efficacité car développé par un spécialiste du SEO pour son compte. Il y a donc indéniablement un certain travail préalable. Ensuite, réaliser un site MFA sur ce modèle et ces guidelines demandera, à partir du site n+1, 1 ou 2 jours, encore moins par la suite par effets d’échelle. 200 sites MFA finalement bien fichus seront toujours plus efficaces que 2000 sans méthode. Le principal travail consistera à connaître voire anticiper les tendances pour occuper le terrain.
Vitesse et pertinence : la page Une
Suite aux petites polémiques sur la qualité des sites référencés sur Google News (dont des usines à AdSenses) ou encore à la quasi permanence de Wikipédia en 1ère page de Google, même sur des requêtes aboutissant à une page n’existant pas dans l’encyclopédie, il faut revenir aux fondamentaux.
Que fait Google ? Il donne des réponses, les plus pertinentes certes, mais surtout le plus rapidement possible. Une seule réponse même, le bouton « J’ai de la chance » qu’on n’utilise pas. Le but n’est pas la diversité des réponses, source d’ambigüité et d’hésitation, en un mot d’échec. Si Wikipédia prend si souvent 1 des 10 places en page Une, c’est que Google y trouve son compte : le lien Wikipédia est perçu par les utilisateurs comme une bonne réponse à ce qu’ils cherchent, n’en déplaise aux petits webmasters. De même, les réponses de Google News ou images sont incluses dans certains cas pour donner au plus tôt une éventuelle bonne réponse, et la prise en compte du sens est en marche (voire : ellipse). Pour terminer sur la page unique, que dire des recherches apparentées proposées en bas de page, juste avant que l’internaute ne se risque à passer aux pages suivantes, si ce n’est qu’elles pourraient être vouées à les remplacer ?
Reformuler, affiner la requête, plutôt que de présenter des réponses trop nombreuses… C’est paradoxal. A mesure que le nombre de pages augmente sur le Web, celui-ci s’organise et l’information se répartit en territoires, contrôlés à mesure qu’ils émergent. Les comparateurs, les blogs, … les sites MFA (et leurs successeurs) participent de ce contrôle en s’appropriant l’espace sous le regard bienveillant du moteur des moteurs.
Conclusion en note sur l’E-réputation,
et copier 200 fois « je ne copierai plus »
Je me devais de terminer sur le billet de Jan me dénonçant pour ne pas sembler m’en aller en pirouette. La meilleure façon de gérer une situation de crise est de communiquer. Un des effets de bord de cette expérience pourrait être par exemple une petite mise à l’épreuve d’une politique de gestion d’identité en ligne commencée il y a presque un an et visant les deux objectifs suivants : se mettre à découvert pour parler en son nom et occuper le terrain sémantique où ma marque = moi. Bon, c’est encore un peu du blabla mais c’est bien de ça qu’il s’agit pour les mois et années à venir.
Face à la montée du Googling et aux discussion sur l’identité numérique comment gérerons-nous les intermédiaires (LinkedIn, Viadeo, Ziki.. Spock ?) et autres services auxquels nos données sont confiées ?
Laisser un commentaire