Il y a encore quelques mois, une paire d’années, il restait envisageable de multiplier les sites d’éditeur, mal nommés MFA. Un confrère avait lancé le projet des mille sites, jamais atteint à ma connaissance, l’idée était de lancé 1000 sites avec monétisation adsense ou chaque site générerait à minima 1€/jour de revenu. Comme l’a souvent répété Matt Cutts, un webmaster ne peut pas gérer sérieusement des centaines de sites, c’était partiellement faux, c’est devenu totalement vrai, Google l’a fait.
En France, le web repose quasi exclusivement sur un site : google.fr. Je suis presque persuadé que si vous oté Facebook des pages de SERPs, il perdra aussi une part conséquente de son trafic. Google est hégémonique sur le web FR.
En 2011, Google a mis a jour son moteur avec le filtre nommé ‘Panda’, sensé disqualifié les sites de mauvaise qualité, avoir des 100aines de sites ne veut pas dire pour autant y poser de la soupe textuelle indigeste, surtout si on a coller Adsense à coté qui est la backdoor express vers le blacklistage de domaine, et je n’ai rien senti, YES ! 🙂
Le 24 Avril 2012, ce fut le tour de Penguin et… une autre histoire, avoir des centaines de sites, veut par contre dire que l’on ne passe pas des heures sur chacun a se demander si le contenu est tellement pertinent qu’il va auto-produire son référencement pour se positionner. Et de toutes façons, un positionnement, il faut bien l’amorcer d’une façon ou d’une autre, et le référencement ‘massif’ est le meilleur d’accéder aux positions. Et là, la sanction fut rude. Depuis, il y a eu plusieurs mises à jour de ‘penguin’, la tendance est toujours la même, un positionnement musclé fini par la blacklistage du domaine, une sanction manuelle sur celui ci ou une mise au fond du trou par Penguin. Seo Darkhat et penguin ne font pas bon ménage, l’amour ne dure pas 3 ans.
Au dela de ce qui a pu être sanctionné et pour lesquels on pourrait raisonnablement dire ‘bien fait’, il y a les sites historiques, que l’on peut avoir bichonnés pendant 10 voire même 15 ans, le linking, ce n’était souvent même pas du référencement, qu’un site a pu avoir, le duplicate qu’il a pu subir de tous les sites parasites qui ne cessent de se multiplier… Tout ceci rend votre site fragile à la prochaine salve des black & white pets de Google, alors que c’est votre activité principale et que de facto vous dépendez de la bonne tenue de votre site dans les SERPs. Pour avoir (discutablement) positionné mon site perso/Cv sur la requête CV, mon site a été sanctionné au point de ne plus apparaitre sur mon nom complet dans le top 100, il en de même sur un autre site de ma marque Nikozen sur lequel j’ai laissé (volontairement) joué un ami avec ces outils BlackHat. Si « je l’ai bien mérité », il pourrait en être tout autant pour votre site sans que vous en soyez responable, ainsi, même sans dépendance sur le positionnement de votre contenu, vous serez pour votre traffic site dépendant de Google, au moins pour votre marque.
La conclusion c’est qu’un site web repose sur un nom de domaine, et que celui ci est fragile dans les SERPs, j’ai bien donné un début de solution au SHL pour le off-site, mais je vais ici parler du on-site.
La « solution » aujourd’hui est définitivement de ne pas mettre tout ces oeufs dans le même panier, vous avez un site e-commerce supershopzen.com, dès que l’activité débute, commencez à travailler sur supershopzen.fr, super-shopzen.com … Travailler ne veut pas dire dupliquer, mais avoir une offre restreinte et un site respectant toutes les règles de l’art pour un positionnement et référencement optimal. Attention au duplicate. Le jour ou vous aurez besoin de déployer une alternative efficace à votre .com, vous gagnerez de précieuses semaines.
Vous pouvez aussi spécialiser des domaines à des sous parties de votre catalogue, une sorte de site affilié vertical, sans affiliation. Si vos techniques off-site sont propres, ou pérennes, peut être n’en aurez vous jamais besoin, mais il est bien difficile de prévoir l’évolution du marché, aujourd’hui l’hégémonie de GG est telle que l’optimisation et le référencement d’un site passe par ses règles, mais quid d’un futur bi-moteurs dont les règles seraient suffisament éloignées.