Attention, ce blog est en mode archive. Il n'est plus alimenté et consultable en lecture seulement. Il se peut que certaines informations ne soient plus à jour.
Si vous souhaitez continuer à me suivre, je continuerai à bloguer d'ici quelques semaines sur le blog de SEObserver.

Viré de wikio ! Et réflexions sur le negative SEO et le fliquage de google

by 512banque on 18 octobre 2009

Fallait s’y attendre, avec mon idée débile de vote automatique sur wikio, ils m’ont viré.

Mouarf.

Ca me fait pas une grosse perte.

Mais le sujet du shootage en général mérite débat :

Si j’ai pu faire bannir mon site en « spammant » leur système de votre qui date des années 2000, wedoo et compagnie, j’aurais pû faire bannir n’importe quel autre site, en faisant le coup de l’image qui ouvre l’URL de vote.

D’où une réflexion plus générale sur les critères offsite qui permettent de juger du comportement spammy d’un webmaster : au nom de quoi peut-on virer un site au motif qu’il reçoit des liens spammeux ?

Are you a spammeur ?

Les seuls éléments permettant de déterminer qu’un webmaster est un spammeur qui ne respecte pas les 10 commandements de la divinité Google, sont les éléments onsite.

Se baser sur le fait que plein de liens pointent vers ce site, quand bien même le crime lui profite, n’est pas suffisant pour pouvoir shooter son site.

Exemple : L’insolite du geek a été suspendu pour cause de spam. Pourtant, nulle trace de spam sur le site lui-même, ni sur le serveur via envoi massif d’emails, etc.

Ce serait plutôt à cause d’un afflux de liens spammeux. Si l’insolite du geek s’est (peut-être ?) effectivement grillé en y allant trop fort, qu’est-ce qui prouve qu’un concurrent mal intentionné ne s’est pas lâché ?

Autre exemple : la principale page optimisée d’un site pro dont je tairai l’adresse a été désindexée pour cause de spam referer trop important. Si je me suis fait prendre, qu’est-ce qui prouve que ça n’a pas été un concurrent qui s’en est donné à coeur joie ?

Aussi, récemment, j’ai spammé un top à la noix qui se base sur un système de in.php?id=32 et out.php?id=32. Sauf que j’ai spammé ce top pour mon site, et le site d’un ami… et j’ai laissé tourner le script en l’oubliant. Résultat, nous nous sommes fait shooter du top en question, par ma faute. Autant, « bien fait pour moi », mais l’autre site a assisté impuissant à son shootage, sans pouvoir rien faire (sympa le pote).

Dernier cas, imaginaire, mais beaucoup plus grave : imaginons que je crée un MFA avec plein d’images à côté des pubs, du cloaking, du spam et du texte en blanc sur fond blanc, et que je place les publicités d’un compte adsense d’un concurrent… Imaginez que son compte adsense se fasse fermer, vous imaginez les conséquences pour lui ? Ou beaucoup plus simple, que je clique de manière abusive sur ses pubs sur son site. Imaginez les heures à passer avec Google à essayer de prouver qu’il n’est pas à l’origine du forfait.

Bref, selon moi, Google (entre autres) est tiraillé entre l’envie de shooter des sites « à qui profite le crime » et créer injustement des dommages collatéraux.

Cadeau empoisonné

On parle d’IP, de classe C, etc. Quoi qu’on en dise, ces éléments ne suffisent pas à identifier à coup sûr le propriétaire d’un site. Le whois, à la limite, si, et encore on peut facilement utiliser des prêtes-noms.

En revanche, il existe des éléments permettant d’identifier à coup sûr le propriétaire d’un site aux yeux de google : analytics, et webmaster tools (et par recoupage, feedburner).

Dans Analytis, GWT et feedburner, vous retrouvez toujours l’élément infaillible pour déterminer l’identité de quelqu’un : une double validation du compte. A partir du moment où on accepte le cadeau de google, il faut que l’on s’identifie et que l’on colle un fichu code sur son site, et c’est à ce moment précis que le piège se referme sur le SEO naïf qui-débarque-de-chez-WRI : s’il fanfaronne de pouvoir obtenir quelques informations à faible valeur ajoutée, il vient de prouver à son pote Google que le site lui appartient.

Bien sûr, Google jure (wallalaradime) qu’il n’utilisera ô grand jamais ce genre de données pour nous fliquer, nous traquer et nous atomiser, pauvres SEO que nous sommes. Et quelles raisons auriont nous de ne pas lui faire confiance ?

Ben oui, Google ne ment jamais, c’est bien connu !

Google ne ment pas quand il dit qu’il ne suit pas les liens nofollow.

Google ne ment pas non plus quand il dit qu’il n’archive pas les pages avec le meta « noarchive ».

Alors, quelles raisons aurions-nous de nous inquiéter ?

Googlolâtres : bande de nazes !

Le référenceur efficace : un mec qui vaut de l’or

Un taux d’utilisation d’internet en constante augmentation + une amélioration constante de l’algorithme de Google tirant vers une plus grande pertinence = une confiance quasi aveugle dans les résultats fournis par google.

Qui tape encore « www.rueducommerce.fr » dans sa barre d’adresse ? Tout le monde tape dans google « rue du commerce » et clique sur le 1er lien. En plus ça permet de régler la question du « c’est quoi déjà, un .fr ou un .com ? ». Bref, c’était un simple détail pour montrer la confiance que l’on a en Google.

Dans un contexte de confiance aveugle du public dans les résultats fournis par google, vous pouvez largement vous représenter la valeur (monétaire) d’un référenceur efficace. Et vous pouvez vous imaginer comment google va tout faire pour le combattre.

Le référenceur viole google. Et google n’aime pas se faire violer. Ca remet en question son existence même : google dit « je suis tellement puissant et pertinent que j’arrive à choisir les sites qui méritent d’être mis en avant » et le référenceur lui dit « non, tu la fermes, ce n’est pas ce site qu’il faut mettre en 1ère page, mais plutôt celui là » et google bouffe sans broncher, parce qu’il n’a pas d’autre choix.

La riposte du géant

Pensez-vous honnêtement que Google va se laisser faire et en redemander en plus ?

Imaginez les moyens que Google va employer pour shooter les référenceurs un peu trop bourrins…

Il y a déjà re-captcha que google vient d’acquérir pour combattre le spam.

Mais je serais google, j’en utiliserais déjà 3 que j’ai à portée pour identifier les fermes de liens. 3 qui me disent à coup sûr qui se cache derrière un site. Je sais pas vous, mais moi j’en vois 3 qui clignotent en rouge : analytics, gwt et feedburner (c’est d’ailleurs pourquoi je suis passé à piwik pour les stats).

Evidemment, si j’étais google, je le ferais de manière très sporadique pour faire passer mes interventions pour des légendes urbaines. Je ne tomberais pas dans l’erreur de débutant qui consiste à me faire griller, me faire reverse-engineerer en adoptant un comportement trop visible, mais je shooterais que les sites les plus bling bling en matière de spam, et je pondèrerais les autres un peu moins, sous risque de donner l’alerte.

La bonne nouvelle dans tout ça

On peut en déduire un principe simple dans toute cette histoire : plus google combat le spam efficacement, plus il valorise ceux qui passent à travers les mailles du filet.

Et puis moi je retourne sur onnouscachetout.com et promis, demain, j’arrête les acides.

😀

Don’t be evil

{ 15 comments }

Si vous avez trouvé ce blog via une liste de blogs dofollow, ne perdez pas votre temps, je refuse systématiquement tous les commentaires sauf ceux en valent réellement la peine ;)

Comments on this entry are closed.

Previous post:

Next post: