Le camouflage est diabolique? - Chasseur à but lucratif

Le camouflage est diabolique? - Chasseur à but lucratif Avant de lire l'article de Rand Fishkin sur SEOmoz, je pensais que dissimuler sous quelque forme que ce soit est une méthode de promotion exceptionnellement noire que vous pouvez obtenir de Google qui sait tout et qui sait tout. Mais je me suis trompé (ce qui, en général, n’a rien de surprenant). Je n’avais tout simplement pas le sens d’attacher la caractéristique principale du masquage - publier un contenu différent aux robots de recherche et aux utilisateurs ordinaires - à des sites blancs que j’utilise quotidiennement.

* Cet article sera entièrement consacré aux différents types de masquage et à ceux que Google tolère et qu’il ne tolère pas. Ici, il n’y aura pas de "thèmes", mais juste des informations intéressantes pour élargir la perspective de référencement.

Voici une liste non négligeable de sites Web faibles qui utilisent avec succès le cloaking pour leurs propres besoins:

  • Google (oui, c’est le plus grand nombre.) Recherchez les services Google proposés par Google, tels que google translate , adwords , adsense , etc., et voyez les URL correspondantes. Maintenant, allez sur le lien et voyez en quoi se transforme l'adresse de la page lors de son chargement. De plus, le contenu de la page de destination diffère parfois de celui stocké dans le cache, que vous soyez connecté ou non. Google ou pas.
  • NYTimes. Com . Pages publicitaires intégrées, invitation à se connecter / s'inscrire sur le site après 5 clics, données d'archives - une personne les voit différemment des robots de recherche.
  • Forbes. Com . Sur ce site, il est même impossible de regarder la page principale sans profiter au préalable de la publicité sur un demi-écran. Les pages en cache diffèrent souvent de ce que les internautes voient sur le site.
  • Vin. com . Même si vous ne tenez pas compte des redirections, chaque utilisateur doit, avant de consulter les prix (comme, incidemment, la page), choisir l'état. C'est à peine requis des robots de recherche.
  • WebmasterWorld. com . Ce site a été l’un des premiers à introduire la pratique (désormais généralement acceptée) de quelques clics gratuits sur le site, après quoi il est proposé de rejoindre le site. Mais cela ne s'applique pas aux robots Google.
  • Yelp. com . Utilisation active du ciblage géographique basé sur les cookies.
  • Amazon. com . Grâce aux cookies et aux données de visites précédentes, Amazon peut varier, par exemple, la question des produits recommandés.
  • iPerceptions. com . En fait, le site n'utilise pas de cloaking, mais la fenêtre contextuelle sur le site n'est visible que sur les ordinateurs sur lesquels les navigateurs prennent en charge les cookies (et pas seulement sur ce site, mais également sur une centaine d'autres). sans oublier que le site appartient à l'un des employés de Google.
  • ComputerWorld. com . Si vous étiez un bot, vous ne verriez jamais de publicités sur tout l'écran, de fenêtres contextuelles et même de javascripts qui ne fonctionnent que lorsqu'une personne réelle visite le site.
  • scribd. com . La machine ne voit sur le site que le texte HTML. L'homme voit ce qu'il voit.
  • Nike. com . Google montre que le site comprend plus d'un million et demi de pages. Mais pour une raison quelconque, toutes ces pages commencent par le même film flash.
  • Journal de Wall Street . Le bot Google ne voit pas le payer pour accéder au lien du tout, après le premier paragraphe, sur certains articles du site.

Cette liste est encore longue, mais l’essence est claire sans elle: le camouflage n’est pas toujours mauvais , surtout si vous êtes:

  • grand et mondial marque célèbre; ou
  • masquer les pages afin que non seulement les robots de recherche, mais aussi les visiteurs en direct du site en tirent profit.

Voici une classification des types de camouflage de Rand Fishkin:

1. Blanc cristallin :

  • Méthodes autorisées: reconnaissance des cookies, javascripts.
  • Objectif: optimiser les pages de destination, fournir du contenu aux utilisateurs enregistrés.

Sur le même site SEOmoz, il existe un abonnement payant, dont seuls les membres peuvent voir le contenu. Techniquement, les robots de recherche et certains visiteurs voient des choses différentes, mais ils sont tous basés sur des cookies et exécutés en stricte conformité avec les exigences des moteurs de recherche.

2. Presque blanc :

  • Astuces autorisées: toutes ci-dessus + agent utilisateur.
  • Objet: ciblage géographique, détermination du type de navigateur, réduction du trafic sur les robots.

Le ciblage géographique est traité dans Craigslist. org. Les représentants de Google ont ouvertement déclaré que tant que Craigslist présentait aux mêmes pages les mêmes pages que les visiteurs, ce comportement du site n'enfreint pas les règles. Ce n'est qu'ici que les robots voient les mauvaises pages que les visiteurs - logiquement, ils ne devraient pas les voir, car le bot doit alimenter tout le contenu du site, et pas seulement les annonces diffusées sous New York ou San Francisco. Cependant, une telle violation des règles n’entraîne pas de conséquences graves car, dans l’ensemble, les utilisateurs et les moteurs de recherche obtiennent ce dont ils ont besoin.

3. Légèrement gris :

  • Astuces autorisées: tout ce qui est ci-dessus, + Agent utilisateur / Afficher les informations d'adresse IP.
  • Cible: rediriger le poids du lien vers des pages similaires, afficher le contenu masqué.

Sur les sites où de gros articles sont placés, il existe généralement des liens tels que "lire l'article" ou "imprimer l'article", etc. dans le même esprit. Lorsque plusieurs liens de différentes sources (blogs, sites de réseaux sociaux) apparaissent sur ces versions du même article, les moteurs de recherche commencent à les indexer et à sanctionner le contenu dupliqué. Pour éviter cela, les redirections 301 secondaires sont placées sur des liens secondaires, puis le poids de référence entier est envoyé à l'article lui-même. Mais là encore, malgré la violation des règles, cette méthode est avantageuse pour les visiteurs (ils basculent vers l'article d'origine) et les moteurs de recherche (Yahoo et MSN ont toujours des problèmes avec la définition du contenu dupliqué). Autrement dit, les sites faisant autorité pour elle ne menacent certainement rien.

4. Gris foncé :

  • Tricks autorisés: tous.
  • Objectif: afficher un contenu moins optimisé, rediriger le poids de référence vers les pages de gauche.

Certains affiliés, au lieu de rediriger le poids de référence des liens des affiliés vers les pages où ils doivent diriger, le redirigent vers des pages qui doivent être alimentées avec des liens et avancées dans le problème. De tels gestes sont très proches des méthodes noires, donc les moteurs de recherche sont punis pour cela.

5. Noir :

  • Astuces autorisées: tous.
  • Objectif: afficher un contenu qui ne correspond pas à la requête de recherche.

Rand donne ici un exemple de la manière dont il a saisi la requête inurl: sitemap dans la recherche. xml et à la 9ème place du numéro a trouvé le lien www. acta-endo. ro / new / viagra / sitemap. xml. html, qui le menait ... mais vous savez vous-même où de tels liens mènent Pour cela, les moteurs de recherche interdisent les sites dès qu'ils sont trouvés.

Conclusion: Tout ce qui est blanc ou légèrement gris est accepté par les moteurs de recherche avec un bang, malgré les déclarations publiques de certaines têtes parlantes, car il ne viole pas les intérêts des parties. Pour tout le reste banyat.

Entrées associées:

  • Lorsque vous appelez un navire, il flotte
  • . Des outils utiles pour l’étude du public cible du site
  • Méthode rapide pour augmenter le trafic de recherche
  • 10 façons d’accroître rapidement le trafic de blog

Vous aimez les articles? Inscrivez-vous à la newsletter!

Chercher

Articles Liés