| Audit SEO Gratuit | Fil RSS |


20 mai 2008

La clef d'une optimisation efficace en SEO pour Web 2 : L'intégration ségrégationniste

Je bosse sur plusieurs styles de sites Web 2.0 actuellement. Sites à la sauce Php et Ajax, sites XML, site sauce dHtml, blogues et Wiki maisons ou de solutions de CMS connus ou maison.

Le gros problème n'est habituellement pas les outils utilisés dans la majorité des cas, mais plutôt le melting pot des contenus proposé par ses solutions techniques ou encore de ces liens tortueux ou trop nombreux envers ces mêmes contenus. Mais des fois c'est l'architecture de l'information qui n'a vraiment pas été pensé efficacement pas les boîtes Web.

Il faut faire extrêmement attention aux; nuages d'étiquettes (tags cloud) et autres tags, aux trop nombreux widgets avec nombres de liens externes, aux onglets avec multiples contenus dans une même page, aux trop nombreuses reprises de blogroll dans des pages finales ou encore la grande tendance des contenus aléatoire (random) pour faire différents au niveau utilisateur mais qui nuit énormément du point de vue optimisation Web.

L'intégration d'une structure d'architecture ségrégationniste (non, non, je ne suis vraiment pas en faveur de Dumont, du rapport Bouchard-Taylor ou un extremiste du KKK) mais cette technique de programmation/intégration est la meilleure voie pour un positionnement efficace en cette ère du Web 2.0 et que je vois rarement appliquer par mes pairs pour un rayonnement Web efficace.

6 commentaires:

  1. Qu'est-ce que tu entends par « intégration ségrégationniste »? L'utilisation de technique comme le "progressive enhancement". Où bien parles-tu d'utiliser le no-follow (une technique hérétique et casse-cou quant à moi) pour « sculpter » le page-rank?

    RépondreEffacer
  2. Surtout pas l'utilisation du no-follow Louis. Je parle de BRUIT(S). Bruits causé par le codage pas très W3C, bruits causé par les widgets et autres blogroll, et bruits causés par des div et onglets invisibles.

    RépondreEffacer
  3. Bonjour Éric. Depuis quand le blogroll et les nuages de tags sont-ils néfaste au réfé... pardon, au rayonnement Web? En d'autres termes, sur quelles données vérifiables te bases-tu pour affirmer cela?

    RépondreEffacer
  4. @Amicalmant : C'est pas moi qui le dit c'est juste Matt Cutts, ingénieur et qui est en charge de la division anti search engine spam chez Google.

    Matt Cutts: I would recommend that people run experiments, because, if you have 5,000 links on a page, the odds that we would flow PageRank through those is kind of low. We might say at some point: that is just way too many thousands of links. And at some point, your fan-out is so high that the individual PageRank going out on each one of those links is pretty tiny.
    I will give you a little bit of background - and I encourage people to run experiments and find what works for them. The reason for the 100 links per page guideline is because we used to crawl only about the first 101 kilobytes of a page. If somebody had a lot more than a hundred links, then it was a little more likely that after we truncated the page at a 100 kilobytes, that page would get truncated and some of the links would not be followed or would not be counted. Nowadays, I forget exactly how much we crawl and index and save, but I think it is at least, we are willing to save half a megabyte from each page.
    So, if you look at the guidelines, we have two sets of guidelines on one page. We have: quality guidelines which are essentially spam and how to avoid spam; and we have technical guidelines. The technical guidelines are more like best practices. So, the 100 links is more like a 'best practice' suggestion, because if you keep it under a 100, you are guaranteed you are never get truncated.
    So, certainly, I do think it is possible to have more links, especially with DHTML - that was once an issue. But, people should always bear in mind to pull in a regular user off the street and have them take a look at it. If you have got so many links and they are so in a particular spammy nature or whatever, that it looks spammy to that regular person, then you want to think about breaking it down. There are a lot of ways you can break it down: you can go by category; you can go chronologically; you can have different topics. If it feels like you got too many, you can definitely break it into a lot of sub-categories.

    Le problème avec les Tag Clouds et autres Blogroll c'est qu'il accroissent indument le nombre de liens sortants d'une page.

    RépondreEffacer
  5. D'accord, mais là on parle de *milliers* de liens, ce qui est évidemment abusif, alors que la plupart des blogrolls + tag clouds ne représente pas plus de quelques dizaines, voire quelques centaines de liens.

    En ce cas (quelques dizaines ou quelques centaines de liens), doit-on toujours se méfier et faire une croix sur ces fonctionnalités très prisées par les blogueurs? En d'autres termes, sont-ce les blogroll ou les nuages de tags qui sont à proscrire ou bien... tout simplement leur utilisation abusive, voire frauduleuse?

    RépondreEffacer
  6. @Amicalmant : Comme le dit Matt c'est à partir de 100 liens que c'est problématique.
    So, the 100 links is more like a 'best practice' suggestion, because if you keep it under a 100, you are guaranteed you are never get truncated.

    Si jamais ton Tag Clouds à 100 liens et qu'il est en haut et à gauche de ta page et qu'il est codé avec de vieilles Table, tu viens tout simplement d'annihiler tout tes autres liens de ta page.

    Il y a aussi que les blogrolls, widgets, étiquettes et surtout TagClouds dilue aussi grandement ton information dans ta page. Donc, oui tu peux toujours les utilisés en page de sections ou à l'accueil, mais ne les utilisent pas sur toutes tes pages comme je le vois souvent si tu veux avoir un rayonnement Web efficace.

    RépondreEffacer