| Audit SEO Gratuit | Fil RSS |


8 nov. 2014

Le site Insecam pourrait même compromettre la sécurité nationale

Suite à quelques articles publiés hier un peu partout sur la planète, je trouve bizarre que peu ou pas de journalistes de chez nous nous aient mentionner ce fait. Seule CBC au Manitoba a publié un article.

Pourtant moi, en 5 minutes chrono, j'ai trouvé cinq caméras de sécurité (une vrai joke) qui filme en temps réel une des plus importante infrastucture du Québec et qui pourrait ainsi permettre de déjoué la sécurité ou facilité un attentat. Tout ça pour des mots passe laissé par défaut par une des plus grande société d'état.

On parle d'État Islamique à tour de bras aux nouvelles mais ici on laisse des incompétents gérer une des infrastructure névralgique du Québec !!!

7 nov. 2014

Les débuts du Web sémantique et la recherche navigationnelle vs informationnelle

En 2003, une étude intitulé la recherche sémantique, a été publié par Ramanathan Guha d'IBM, Rob McCool de Knowledge Systems Lab de l'Université de Stanford, et Eric Miller du W3C et le MIT. L'objectif déclaré dans ce document est de prendre les technologies telles que les services Web et le Web sémantique et les utiliser pour améliorer la recherche web traditionnelle.

Ce document a été produit avant que Ramanathan Guha rejoigne Google, qu'il créer Google Custom Search Engines, Trustrank et introduise Schema.

Cette aperçu du Web sémantique propose des réflexions à partir d'au moins une personne, Ramanathan Guha, qui a joué un rôle majeur dans la façon dont le Web sémantique fait de plus en plus partie de la recherche chez Google.

Il y a une section dans cette étude sur la recherche sémantique qui présente quatre concepts importants sur la recherche sémantique qui sont encore là aujourd'hui, et valent la peine d'y réfléchir si vous faîte du SEO.

Recherche navigationnelle vs Recherche informationnelle

Avant que l'étude en arrive à ces concepts, elle introduit deux types de recherches:

Recherche navigationnelle: Dans ces recherches , un chercheur soumet une phrase ou une combinaison de mots qui devraient se trouver dans des documents sur le Web. Une simple et raisonnable interprétation de ces mots n'est pas demandé en termes de dénoter un concept. Le chercheur utilise un moteur de recherche comme un outil de navigation pour essayer de trouver notamment le document prévu. Tel est l'objectif de la plupart des personnes faisant mal leur SEO, et les auteurs de cette étude nous disent,
"Nous ne sommes pas intéressés par cette classe de recherches."

Recherche informationnelle: Un chercheur fournit le moteur de recherche avec une phrase destinée à désigner un objet sur lequel l'utilisateur tente de rassembler/recueillir de l'information sur la recherche. Le chercheur n'a pas un document particulier à l'esprit, et n'a même pas souvent deviner si il en existence un. Le chercheur espère que certains documents qui fournissent ces réponses peuvent exister et lui donneront les informations qu'il ou elle, essaie de trouver. Ce sont cette classe de recherche, que les auteurs de l'étude sont intéressés quand ils utilisent l'expression «recherche sémantique».

Google semble vouloir évoluer pour devenir un moteur de recherche qui peut être utile pour aider les gens avec les deux types des requêtes tout en amélorant petit à petit la recherche informationnelle avec des Knowledge Graph" et autres modifications aux algorithmes.

Voici d'autres éléments que l'étude dit à ce sujet peut nous aider à distinguer entre le Web sémantique et le Web HTML.

Documents vs objets du monde réel: - Quand nous pensons au Web HTML, nous pensons au www rempli de pages web, avec des photos, des vidéos, et d'autres documents que le robot d'indexation tels que Googlebot peut forer, et utiliser des choses telles que les liens entre eux, de la pertinence des mots qui apparaissent sur eux ou avec eux ou pointant vers eux (dans le texte d'ancre) pour le classement dans les résultats de recherche, et pour nous aider à les trouver.

Contrairement au Web HTML, le Web sémantique n'est pas un Web de documents, mais plutôt un "réseau de relations entre les ressources désignant des objets du monde réel, à savoir, des objets tels que des personnes, des lieux et des événements." Lorsque quelque chose arrive à l'une de ces entités du monde réel, les informations à leur sujet sur le Web sémantique devraient changer.

 Humain vs Assimilation automatique de l'information: - Le point important sur le Web sémantique est qu'il contient de l'information riche et assimilable par les ordinateurs sur les ressources trouvées. Alors que la plupart du HTML sur une page Web indique aux visiteurs comment la page doit être affiché dans un navigateur, la plupart des données sur cette page sont presque toutes compréhensible par les ordinateurs.

Relation entre le HTML et le Web sémantique: - L'étude nous dit que le Web sémantique est une extension du Web actuel, et qu '«il est un riche ensemble de liens à partir des nœuds du Web sémantique pour les documents HTML." Le Web HTML et le Web sémantique sont censés être reliés entre eux et ils aident un autre en reliant les deux.

L'étude a été rédigé avant le balisage comme Schema.org est été créé, et il nous dit que certaines pages peuvent contenir une sorte de balisage sémantique. Comme je l'ai mentionné au début de cet article, l'auteur R. Guha était la personne qui a officiellement présenté le concept de balisage, ou microformat, de Schema.org dans le monde chez Google dans le blog officiel de Google en 2009 -. Six ans après que l'étude a été publié.

Le dernier point soulevé dans le document est important:

Extensibilité distribué: - Différents sites peut fournir des données sur une ressource particulière. Amazon.com peut avoir des données sur les albums de Yo-Yo Ma. Ebay peut contenir des données sur les ventes aux enchères liées à Yo-Yo Ma. Ticketmaster peut prospecter des données sur son calendrier de concerts, AllMusic dispose de données sur l'endroit où il est né (Paris), Aucun de ces sites ne doit obtenir la permission spécifique d'une autorité centralisée pour inclure ces informations à propos de Yo-Yo Ma. Comme l'étude le dit, "ils peuvent tous étendre la connaissance cumulative sur le Web sémantique sur toutes les ressources de manière distribuée."

29 oct. 2014

Suivez plus efficacement vos gazouillis avec ce simple et très efficace Bookmarlet

Glisser simple ce lien du Google Analytics URL builder vers votre barre de favoris dans votre fureteur. Il permet d'ajouter des UTM à vos liens pour mieux suivre ceux-ci dans Google Analytics tout en les raccourcissant.

De plus, il permet d'utiliser de multiple raccourciseurs de liens en pllus de permettre de générer des QR codes et des exportations vers Excel. Un des meilleurs et des plus rapides moyens pour bien suivre vos Tweet et intereractions sur les réseaux sociaux.

Voir la documentation sur Savio.

Le balisage sémantique et les données structurées

Si vous n'avez pas entendu parler de balisage sémantique et les implications sur le référencement, vous avez surement vécu dans une grotte sombre et sans WiFi dans les quelques dernières années. Ou peut-être, vous êtes un bleu en optimisation Web. Dans ce dernier cas, je ne vais pas vous tapez sur les doigts, mais vous devriez vraiment prendre note à cette nouvelle fonctionnalité, car c'est l'avenir.

Cela dit, je parie que la plupart des gens qui lisent ce billet connaissent le balisage sémantique, - ou en ont entendu parler - , et le principe des données structurées. Plus que probablement, vous avez déjà un peu de ce balisage sur votre site et vous avez probablement quelques extraits enrichis (rich snippets) attractifs qui émergent dans les résultats de recherche.

Des extraits enrichis organiques comme celui-ci sont la raison pourquoi la plupart des référenceurs mettent en œuvre un balisage sémantique. Je ne pense pas que nous devons en débattre. Tout le monde veut obtenir ces beaux et attractifs appels au clic (CTR) et, dans certains cas, vous êtes en désavantage concurrentiel si vous ne les avez pas. (Yééééééééé vs Snifffffffffffff).Car 50% de plus de lignes en description dans les extraits c'est un taux de clic assurément plus élevé !




Si vous êtes comme moi, vous aimez voir votre site qui acquière des extraits enrichis dans les résultats de recherche de Google. Je l'ai tellement aimé que je me laisse croire que tel était le but final du balisage sémantique: l'apparition de l'extrait enrichi. Quand j'ai mis en œuvre un balisage pour les différentes entités sur les sites que où je travaillais, après avoir ajoutée les codes au site, et vérifiez qu'ils ont été indexés avec succès, Victoire!

Voici les deux gabarits utilisés ici dans le dernier résultat.


Le gabarit des commentaires
Le gabarit des recettes





Pourquoi suivre le retour sur l'investissement du balisage sémantique

Eh bien, je suis venu a réaliser que cela peut tout simplement pas être la mesure finale de la réussite de la stratégie de référencement sémantique!

Quelle différence que l'extrait enrichi fait vraiment ? Allez, soyez honnête. Savez-vous quel est l'impact réel ? Pouvez-vous parler à votre patron ou/et à votre client sur la façon dont les pages d'un type spécifique de balisage effectue par rapport à leurs homologues non balisés?

Une autre question à se poser: Est-ce que l'effet de levier que les données sémantiques ont sur vos statistiques sont-ils maximiser à fond ?

Y at-il un moyen de suivre plus efficacement le retour sur investissement de la mise en œuvre de balisage sémantique tout en nous donnant simultanément un niveau plus profond de compréhension en ce qui concerne le comment?

... À suivre bientôt sur ce même blogue, mais probablement pas à la même heure.

23 oct. 2014

Conseils pratiques pour une meilleure rédaction et optimisation des pages Web


Le truffage de mots-clés comparativement à des pratiques plus avancées de ciblage sur le sujet est beaucoup plus à propos maintenant, - depuis 1 à 2 ans-, et plus judicieux à intégrer ces concepts dans notre contenu grâce à l'amélioration des algorithmes des moteurs de recherche et tout spécialement en anglais. Alors que la plupart d'entre nous n'ont pas les moyens disponibles, - ou l'expérience -, pour calculer les relations sémantiques et les occurrences de l'entité, il ya un certain nombre de mesures simples que nous pouvons prendre lors de la création de contenu optimisé:

La recherche de mots clés constitue votre base primale

Même si les mots clés individuels eux-mêmes ne suffisent pas pour former la base de votre contenu, tout commence par une bonne recherche de mots clés. Vous voulez savoir quelles conditions vous ciblez, la concurrence relative autour de ces mots clés, et la popularité de ces termes. En fin de compte, votre objectif est de connecter votre contenu avec le type de personnes qui tapent les mots-clés dans le champ de recherche.

Recherche sur des sujets et des thématiques

Résistez à la recherche des mots-clés simples, et à la place se focuser sur l'exploration de vos thèmes de expressions clés avec des expressions précises. Examinez les mots-clés secondaires liés à chaque mot-clé. Quand les gens parlent de votre sujet, ce que les mots utilisent-ils pour le décrire? Quelles sont les propriétés de votre sujet? Utilisez ces mots clés à l'appui en tant qu'acteurs pour créer du contenu autour de votre thème central.

Lors de l'élaboration de votre contenu, réponder à autant de questions que vous le pouvez

Un bon contenu répond à des questions, (car c'est la majeure utilisation des moteurs de recherche) et le contenu sémantiquement pertinente en est le reflet. Un classement optimal dans les premiers résultats pour toutes requêtes de recherche, le moteur de recherche estime que votre contenu répond à la meilleure question. Comme vous structurer votre contenu sur des sujets et des thèmes, assurez-vous que vous méritez le premier rang en répondant aux questions et en offrant une meilleure expérience que la compétition pour l'utilisateur.

Utiliser un langage naturel et des variantes

Au cours de votre processus de recherche de mots clés, il est utile d'identifier les autres façons communes que les chercheurs uutilisent pour se référer à votre sujet, et les inclure dans votre contenu dans ces cas.  La recherche de mots clés sémantique est souvent inestimable à ce processus.

Placez votre contenu important dans... les sections les plus importantes !

Évitez les pieds de page et des barres latérales pour le contenu important. Ne pas essayer de tromper les moteurs de recherche avec CSS fantaisistes ou des astuces JavaScript. Votre contenu le plus important devrait aller dans les endroits où il est le plus visible et accessible aux lecteurs et idéalement utiliser les balises HTML 5 spécifiques (article, aside, et nav) et/ou des microformats Schema.org.

Structurez votre contenu de façon appropriée

Entêtes, paragraphes, listes et tableaux (spécialement les vieux TH), tous fournissent une structure de contenu de sorte que les moteurs de recherche puissent comprendre le sujet ciblé. Une page Web contient clairement une structure similaire à un bon journal. Employer les introductions appropriées, les conclusions, les sujets organisées en paragraphes, orthographe et la grammaire, et citer vos sources correctement.

A la fin de la journée, nous n'avons pas besoin d'un super-ordinateur pour rendre notre contenu mieux, ou plus facile à comprendre. Si nous écrivons comme les humains pour les humains, notre contenu va un long chemin en devenant optimisé pour les moteurs de recherche. Quels sont vos meilleurs conseils pour sur la page SEO et le sujet de ciblage?

La muse de ce billet est ici 

8 oct. 2014

Drôle de pratique de Google avec les snippets

En lisant ces articles du célèbre Search Engine Land sur les fragments structurés (rich snippets), j'ai été surpris de voir que ce n'est pas des microformats ou encore l'emploi des grilles de Schema.org qui produit la parution de ces fragments dans les résultats de Google:
En visionnant le code on  voit bien dans les exemples des deux articles que c'est une bonne vieille balise table header (TH) qui provoque ce net avantage dans les résultats !!!

Il me semble que l'emphase devrait être plutôt mis sur l'emploi d'une grille sémantique comme celle proposée par le standard approuvé des trois grands moteurs de recherche qu'est Schema.org qui devrait être prôné !!!

30 sept. 2014

Nouvelle certification pour la mesure d'attention, les clics et pages consultées en prendront pour leur rhume

Résumé : L'entreprise Web Analytics Chartbeat dit qu'elle est la première à être certifiée par la Media Ratings Concil pour une nouvelle façon de mesurer l'attention réelle de lecteurs, dans le cadre d'un mouvement pour que les éditeurs et annonceurs cessent de se concentrer uniquement sur les clics et les pages vues

Depuis quelque temps, les sociétés de médias et les producteurs de contenu de divers types ont essayé de convaincre le reste de l'industrie - et en particulier les annonceurs - de s'éloigner de mesures erronées comme les pages vues et les visiteurs uniques et de se concentrer sur la mesure de l'attention. Le Financial Times, The Economist et même des sites virals comme Upworthy ont été à l'avant-garde de ce mouvement, tout comme l'entreprise Chartbeat - et maintenant Chartbeat proclame qu'il est devenu la première entreprise de l'analyse qui est certifié pour mesurer l'attention du lecteur.

Tony Haile CEO de Chartbeat, dit que la certification est venue des évaluations du Media Ratings Concil, l'organisme national de normalisation qui décide de ce qui peut être utilisé comme un nouveau standard pour la publicité aux Etats-Unis après un processus de vérification de neuf mois qui a enquêté sur toutes les parties du moteur analytique de Chartbeat, le Media Ratings Concil dit que la compagnie est maintenant accrédité pour mesurer les paramètres de l'attention à la fois pour l'affichage publicitaire et le contenu.

Nous parlons depuis un certain temps maintenant sur le Web de l'attention, et beaucoup de gens ont dit qu'ils aimaient cette une idée, mais c'était juste une idée. Mais maintenant, c'est officiel -. Maintenant, il peut y avoir une "économie de l'attention", dans lequel les éditeurs et les annonceurs achètent et vendent des minutes d''attention ou une métrique comme mesure.
Contrairement aux pages vues, qui mesurent simplement à savoir si une page est chargée, - ou encore un visiteurs uniques - depuis quelques tempps des entreprises des médias soutiennent que cette nouvelle mesure est plus près d'être réelle, comme les lecteurs physiques d'un journal ou un magazine - paramètres de l'attention comme "temps d'exposition actif", ce que Chartbeat traque, et qui peut déterminer combien de temps un lecteur passé avec une pièce de contenu spécifique , en mesurant si elle a été effectivement vue par le lecteur


Chartbeat scrute une variété de facteurs, y compris la partie de la page qui est dans la fenêtre de visualisation ( de sorte qu'il peut vous dire jusqu'où quelqu'un a eu dans l'article ou élément de contenu). Mais la question cruciale est de détecter si quelqu'un voie actuellement la page, et il le fait par le suivi du mouvement ou de l'interaction. Basé sur le fait que l'utilisateur moyen touche la souris ou le clavier au moins une fois tous les 4,8 secondes.

Le Financial Times a utilisé "le temps d'exposition active" de Chartbeat pour vendre aux annonceurs ce qu'elle croit être une meilleure mesure de la valeur réelle de ce qu'ils reçoivent, et The Economist a expérimenté la même chose. Upworthy a collaboré avec Chartbeat afin de développer ce qu'elle appelle "l'attention minutes," et a mis sa technologie en open-source en la téléchargeant sur Github.

Haile a déclaré que son intention est dans la promotion de l'idée de la "toile d'attention" et d'aider les éditeurs à bâtir des entreprises durables avec la publicité, au lieu de constamment avoir à vérifier où les yeux du lecteur sont situé ou les clics dans le but de générer autant de pages vues ou de visiteurs que possible:
Ceci donne aux marques exactement ce qu'ils veulent de façon transparente - ils veulent l'attention de leur public, ce qui leur ai donné d'une manière complètement mesurable. Et pour les éditeurs, ils veulent savoir ce qu'ils ont créé est quelque chose de précieux et qui retienent l'attention des gens.
 Paliatif à cette solution

En utilisant le plug-in Scrolll Depth en en créant un tableau combinant les données de celui-ci avec le temps moyen passé sur la page vous serez en mesure de vous approcher grandement de cette mesure d'attention.


 Très grandement inspiré de l'article de Mathew Ingram sur Gigaom.

29 sept. 2014

Appronfondir vos analyses statistiques


Les outils d'analyses sont devenus monnaie courante et plusieurs commerçants devraient recueillir et analyser les données. Cependant, de nombreux clients arrêtent leurs efforts avec les données qui sont les plus facile à obtenir. Ces soi-disant mesures "de courtoisie" offrent une vue limitée de l'efficacité du marketing.

Google Analytics est partout, mais pas tous les commerçants mettent à profit à leur avantage. Creusez un peu plus dans les chiffres. Avec un effort supplémentaire sur Google Analytics, vous pouvez évaluer les campagnes, augmenter les revenus et d'optimiser votre site.

Voici quelques conseils importants que vous pouvez utiliser pour tirer le meilleur parti de Google Analytics:

Vous ne pouvez pas optimiser sans données

L'optimisation de données ne se fait pas en devinant. Malheureusement, 40% des gens en marketing prennent des décisions à l'aide de l'instinct, pas de l'analyse des données. Quel genre de choses que vous pouvez optimiser? Souvent, ils ne tiennent compte que des; titres, des graphiques et vidéos, des formulaires ou des boutons d'appel à l'action.

Les leviers d'expériences de Google Analytics, qui sont des tests A / B qui vous permettent de déterminer, -avecdes données- qu'elle sont les versions qui convertissent le mieux. Lorsque vous configurez Google Analytics pour suivre et mesurer vos résultats, vous serez en mesure de prouver que votre campagne est en fait traduite par un retour sur l'investissement.

Les données d'orgueil (vanity metrics) sont sortis, les mesures réalisables sont là

Qui n'a pas un petit frisson quand leurs nombres de pages vues passent à travers le toit? Aussi intéressant qu'ils sont, les pages vues n'aident pas vraiment de prendre des actions sur vos données. Selon une analyse récente de Google Analytics, les mesures concrètes sont celles qui convertissent sur l'impact et les revenus.

Par exemple, un taux de rebond est une statistique facile à trouver, mais il ne vous donne pas toute l'image. Le taux de rebond par source, d'autre part, peut indiquer comment bien qualifié votre trafic provient d'une source individuelle. Cette connaissance peut vous aider à prendre des décisions importantes au sujet de vos dépenses de marketing.

Calcul du Retour Sur l'Investissement n'est pas une option, c'est une exigence

Seulement un tiers des acheteurs de calcul le retour sur investissement, ce qui signifie que la majorité des acheteurs ne sont pas sûrs que leurs efforts portent fruit. Avec l'analyse, vous pouvez résoudre le flou et et résoudre l'équation. Et qui ne veut pas prouver que leurs campagnes marketing ont un impact sur les recettes?
Le Calcul du RSI ne prend que quelques étapes à mettre en place, mais la récompense est énorme. Mettre des valeurs à vos objectifs/buts (goals) vous montrera les actions des clients qui entraînent le plus de revenus. Une fois que vous savez cela, vous pouvez optimiser votre page avec un retour sur investissement à l'esprit.

Donner du crédit lorsque le crédit est dû

Un utilisateur pourrait vous vérifier d'abord par un poste Twitter, revenir plus tard par l'intermédiaire de la recherche organique, et faire un achat à partir d'un e-mail. Si vous ne payez que l'attention à la dernière interaction du client, vous pourriez ne pas attribuer une valeur précise à votre présence sociale ou SEO.

Il est beaucoup plus facile (et plus lucratif!) si les clients visitent une fois et fasses l'achat immédiatement. Malheureusement, c'est un rêve et non pas la réalité. Depuis que Google Analytics vous permet de suivre les conversions assistées, vous pouvez surveiller les canaux qui ont un impact sur les clients qui se déplacent dans votre entonnoir.

Faire des UTMs* votre meilleur amis

Google Analytics a quelques astuces pratiques pour le suivi de l'efficacité de vos campagnes. Que vous utilisiez les médias sociaux, e-mail, PPC, ou un autre type de promotion, vous pouvez suivre les sources individuellement dans Google Analytics.

Les UTMs (Urchan Tracking Module) vous aider à percer vers le bas dans les canaux qui vous fournissent le meilleur trafic. Disons que vous utilisez Facebook et un blog invité à générer du trafic vers une page d'atterrissage.

*Un code UTM est un simple code que vous pouvez attacher à une URL personnalisée pour suivre une source, un médium, une campagne, etc.

Faire attention

Ne soyez pas tenté de collecter chaque petites données disponibles. Les chiffres pour les chiffres n'est pas la solution, vous devez donc réfléchir pour savoir lesquelles des données sont les plus utiles à votre entreprise.

La mise en place de Google Analytics pour recueillir des données n'est que la première étape. Aucun outil d'analyse peut faire l'analyse complète pour vous. Plus important encore, toujours construire dans le temps de regarder les données de sorte que vous pouvez tirer des conclusions concrètes.

Tout simplement

La définition des buts et l'utilisation des UTMs sont une bonne façon d'obtenir de meilleurs retours sur investissement.

Bonus : Une petite astuce qui ne nécessite pas de donnée statistique

Avec les systèmes téléphoniques d'aujourd'hui, il est aisé d'ajouter de nouveaux numéros de téléphone à votre entreprise. Donc en utilisant sur votre site un numéro qui se retrouve uniquement sur votre site Web, vous pourrez ainsi avoir une donnée solide et concrète de la performance du site versus les autre médiums.
Ceci peut évidemment être valable dans d'autres campagnes marketing sur des médiums différents.


Très grandement inspiré du billet de Cris Lucas sur 60secondmarketer.




12 sept. 2014

Géo-localisation du serveur Web

J'ai un client qui a payé plusieurs milliers de dollars pour son nom de domaine qui est le titre de sa profession. Mais avec une recherche sur ce titre il n'apparaissait pas dans la première page des résultats et obtenait qu'une 17ème position ce qui est anormal.Normalement une recherche sur un nom de domaine qui a quelques liens externes on obtient normalement un top trois au minimum.

Mon client en plus avait fait affaire avec une des deux plus grosse boîte d'optimisation Web du Québec. Et cette boîte n'a jamais mentionné que la géo-localisation du serveur Web avait une grande influence sur le positionnement Web. Comme son serveur était en Angleterre il ne se positionnait moyennement avec une 4ème position en Angleterre mais au Canada où la clientèle ciblé de mon client est située.

Du à des facteurs technique il était impossible de déménager le serveur au Québec. Alors en utilisant l'outil Webmaster Tools de Google on peut mentionner où se situe notre clientèle même si le serveur Web se trouve dans un autre pays.
À la suite de cette modification, le site de mon client c'est retrouvé immédiatement en 7ème position. En bonifiant ensuite sa page d'accueil, il est maintenant en première position sur son titre de profession autant au singulier et au pluriel et son trafic c'est accru de 375%.

28 avr. 2014

L'Asie en tête de la révolution mondiale du paiement par mobile


  • 46% des consommateurs en Asie-Pacifique utilisent leur mobile pour acheter des biens et services, plus que dans toute autre région (soit 27% en Europe et uniquement 17% en Amérique du Nord).

  • 42% des consommateurs d'Asie-Pacifique qui utilisent leur mobile pour acheter des biens et services veulent en faire plus, plus que dans toute autre région (dont 24% en Europe et 15% en Amérique du Nord).

Ce n'est pas un hasard que l'Asie est le leader mondial quand il s'agit de l'adoption des paiements mobiles. Trois grandes forces sont le moteur de ce changement:
  • Plus de téléphones intelligents: La Chine, déjà le plus grand marché du "smartphone" du monde, est près d'ajouter 400 autres millions de téléphones intelligents en 2014.
  • Qui a la croissance la plus rapide en ce moment.?  L'Inde, avec une croissance de 167% au Q4 2013 (Gartner, Janvier et Février 2014)
  • Consommateurs non bancarisés. Dans de nombreux pays d'Asie, la pénétration du mobile dépasse l'accès aux services bancaires traditionnels. Il ya environ trois fois plus de téléphones mobiles que il ya des cartes bancaires en Chine (MasterCard, Septembre 2013)
  • Culture de périphérique: L'absence des technologies traditionnelles, - qui prévalent dans le nord de l'Amérique et de l'Europe (oui, nous parlons de PC) - , ont entraîné millions de consommateurs asiatiques à adopter le téléphone intelligent comme un portail principal de l'espace en ligne, et - de plus en plus - un assistant de vie.

Les forces structurelles profondes peuvent être le moteur de la montée du paiement par mobile en Asie.

Mais au fond, les tendances sont sur les personnes - et leurs besoins -, fondamentalement et immuablement profonds, soit les besoins et les désirs parfois compulsifs.

Les forces qui incitent au paiement mobile en Asie sont de nouvelles façons de servir les besoins et désirs, et cela signifie que les méthodes de paiement sont:

  • Rapide
  • Plus pratique
  • Plus sécure
  • Autorise l'accès à de nouveaux types d'informations personnalisées et  décisionnelles
  • Autorise l'accès à de nouveaux services, ou de nouvelles combinaisons de services
En bref, les consommateurs veulent - et peuvent de plus en plus -  d'un monde rempli de paiements faciles et rapides.

24 avr. 2014

Le point faible de la majorité des sites ayant des points de vente

Au moins 90% des sites manufacturiers ou toute compagnie qui a des; points de vente, distributeurs, détaillants, marchands ou revendeurs, n'optimisent pas correctement cette section de leur site. C'est pourtant la section de loin la plus importante pour la vente !

J'ai testé plusieurs types de sites, de l'électronique à l'alimentation et j'ai aussi fouillé dans les portfolio d'agence SEO et je n'ai rien vu de vraiment satisfaisant quoique ces derniers sont légèrement mieux, mais en général c'est vraiment pathétique comme gestion SEO de ces sections qui sont pourtant primordiales pour le business.

J'ai décliné 4 grandes méthodes primaires pour fournir cette information essentielle pour le manufacturier et ses points de vente :

Le simple formulaire

Cette méthode est archaïque et est totalement à proscrire. Aucune information directement accessible aux internautes et surtout aux moteurs de recherche en plus de monopolisé une ressource humaine pour rien dans la majorité des cas.


La recherche par code postal

Une méthode rapide pour accéder rapidement à l'information. Un seul hic au Québec, le fleuve St-Laurent !
De Hull en passant par Montréal jusqu'à Sorel c'est très performant, mais plus on va vers l'est, plus les résultats peuvent être frustrants. Ici à La Malbaie j'obtiens dans la majorité des cas des résultats de 10 à 50 km à vol d'oiseau par défaut. Mais par la route, ce rendre à Rivière-du-Loup ou Kamouraska comme souvent proposé ici, c'est 4 à 5 heures de route alors que Chicoutimi est à moins de 2h comme Québec d'ailleurs. Donc le long du St-Laurent, où la majorité des Québécois vivent, c'est parfois un peu décevant.

Les répertoires

Le répertoire par zones géographiques est une solution très bonne pour le SEO mais fastidieuse pour l'utilisateur car elle nécessite souvent plusieurs clics pour finalement trouver le vendeur.
Quand je dis très bonne pour le SEO, c'est vraiment le cas, quand les infomations géo-locatives sont bien structuré et implanté dans le texte et dans les balises Html et évidemment avec des microformats.

La carte Google Maps

C'est très pratique et ergonomique, mais quand elle n'est pas combiné avec la recherche par code postal c'est pitoyable pour le SEO surtout si les résultats n'apparaissent que dans les bulles.

Le choix idéal

Une combinaison des trois dernières solutions avec un focus sur les répertoires bien délimités par régions et villes et surtout une page spécifique pour chaque; points de vente, distributeurs, détaillants, marchands ou revendeurs.

 Conclusion

Quand c'est bien fait, selon mon expérience avec mes clients, c'est de 40% à 3,500% d'augmentation des ventes avec une moyenne autour de 150%. Cela dépend de l'état initial de cette section. Et le plus surprenant c'est que ce n'est pas dispendieux à mettre en place et que l'amortissement se fait en quelques mois à peine !

17 avr. 2014

Mobiles et tablettes: Metteriez-vous dans votre magasin vos produits à 5 pieds du sol ?

Non je ne palerai pas d'inondation ici.

C'est une analogie à l'indiférence d'une très grande majorité des sites Web qui ne se soucis pas de leur clientèle (persona) qui utilise les téléphones intelligents ou les tablettes. Le "5 pieds du sol" correspond à peu près au nombre de clients qui aurait difficilement accès à vos produits (ou services) sur votre site Web qui n'est pas adapté aux mobiles.

Hier je vous présentais un billet où 27% des visiteurs d'un client utilisaient ces appareils avec un comparatif sur une année pour les trente derniers jours.

http://intercommunication.blogspot.ca/2014/04/les-mobiles-represente-maintenant-27-du.html

Comme ce client était dans un domaine spécifiquement niché aux utilisateurs de mobile, je vous présente ici un autre cas. Ce client est un portail communautaire qui lui est moins susceptible d'avoir une clientèle techno.


Tout de même tout près de 25% des visiteurs qui ont utilisés un mobile ou une tablette le mois dernier.

Aux États-Unis

Voici des chiffres de nos voisins de Restive Labs qui eux sont un petit peu mieux :
  • 36% des sites évalués sont sensibles aux mobiles, de ceux-ci environ 60% ont des sous-domaines dédiés aux mobiles, domaines dédiés ou sous-répetoires spécifiques.
  • Seulement 6% de tous les sites sont considérés comme rapide ou de haute performance, le reste étant considéré comme lent ou à faible rendement. Seulement 3% de tous les sites sont à la fois sensible et rapide.
Ici je n'ai pas trouvé de chiffres spécifiques aux sites Web sensibles, mais le Cefrio nous mentionne qu'en 2013, 52% des Québécois possèdait un mobile ou une tablette. Mon pifomètre me dit, - je n'ai pas utilisé mon petit doigt suite à l'élection récente -, que moins de 20% de sites Québécois sont sensibles aux mobiles.

Conclusion

Donc il y a 2 choix le site adaptatif ou réactif (responsive design) ou le site spécifique aux mobiles. À mon avis le premier est de loin la meilleure solution, si il est minutieusement programmé, car il ne nécessite pas un déboublement des tâches de conception, maintenance et veille.

Pour avoir un site réactif et performant aux mobiles je vous conseille une très bonne piste qui est le RWD Summit (Responsive Web Design).







16 avr. 2014

Les mobiles représente maintenant 27% du trafic sur le Web

Je dois mentionner au débart que cette statistique s'applique pour un très gros site Québécois du domaine touristique qui est plus suceptible d'attirer de la clientèle mobile qu'un domaine comme disons l'immobilier. Voici donc un comparatif d'un mois sur l'année précédente avec un échantillonage d'un peu plus de 400,000 visites.


Je suis surpris du déclin de 13% des Desktops et je crois que la grande partie de ce déclin vient principalement des tablettes.

5 mars 2014

Les filtres sont disparus de Google : Astuces pour les retrouver

Eh, oui ! Google nous a enlevé en douce les filtres de recherche pour je ne sais quelle raison ou du moins la seule que je vois c'est pour faire plus de recherches et vendre ainsi plus de la publicité.

Voici les filtres que nous avions au lancement des filtres vers 2009 :
I
 Il y avait eu l'ajout de Vols et Recettes par la suite.

Voici depuis les filtres depuis  la fin du mois de janvier. Je ne l'ai découvert que vers la mi-février et j'étais en .... pour être polie "en beau fusil." comme on dit en québécois. J'ai aussi été extrement surpris que personne ou presque n'en fasse de cas ! Google n'a même pas corrigé sa section Help sur les filtres !!!

Voici aujourd'hui les quelques filtres qui sont toujours disponibles :


J'utilisais beaucoup le filtre Blogs, spécialement pour la politique, - car souvent les médias sont associé à un parti -, et aussi pour les critiques de produits non-biaisés par les annonceurs des sites où ce font ces comparaisons.

Les Astuces pour les retrouver 



1 mars 2014

Cherchez-vous les mots produits ou services dans Google ?

... Alors pourquoi 95% des sites l'ont dans leurs Urls et très souvent en menu principal !

Je vous propose aujourd'hui un billet d'une connaissance qui m'a fait plaisirs de lire car je rabâche cela depuis une douzaine d'années aux agences Web et à mes clients qui malheureusement ne l'implémentent pas toujours sur leurs sites.

Un des avantages non-cité dans ce billet est que cela réduit d'un niveau l'arborescence des produits ou services spécifiques. Donc, on se rapproche du nom de domaine dans l'Url, ce qui donne plus d'importance aux produits ou services.


Le billet de Simon Éthier d'Adviso.


Bémol
Combiner les conseils aux produits

Ici il faut faire attention que la combinaison comporte des mots-clés semblables ou la même racine. Si je regarde la capture d'écran, la location d'outils et de camion est un peu loin du produit.

Les facettes

J'ai bien hâte de voir comment il va amalgamer les facettes et le SEO dans son prochain billet. Ce n'est vraiment pas évident et cela exige une très bonne collaboration entre le spécialiste en optimisation et le programmeur pour bien présenter les ; fil d'Ariane, Titre et balise Title différentes aux clients et surtout aux moteurs de recherche tout en évitant le contenu dupliqué dans les résultats d'une recherche filtrée avec facettes.

12 janv. 2014

La Chine prend sérieusement les devants sur le Web

Pendant des années, Hugo Barra a été un des cadres des plus visibles chez Google. Il a été un chef de produit pour son équipe du système Android. Chaque année, à la plus grande conférence de Google, Google I/O, Hugo Barra a montrer les plus récentes nouveautés de Android au monde entier. Puis, en août 2013, Barra a quitté Google de travailler pour une entreprise chinoise. En décembre, il a donné une conférence au Web Tech à Paris en expliquant comment il a été totalement époustouflé par la dynamique chinoise des nouvelles technologies et du système d'éducation.

Voici sa présentation du Web Tech de Paris en décembre  2013 publié dans le Business Insider:



Les chinois sont incroyablement éduqués avec 8 millions de diplômés par an — plus qu'aux États-Unis.

Le revenu des chinois est de plus en plus élevé. Il a triplé au cours des 8 dernières années.

La Chine a au moins 122 milliardaires, deuxième après les États-Unis.

La Chine a 600 millions d'utilisateurs Internet - avec 50 % de croissance en 3 ans.

Les énormes et récentes IPOs du marché boursier chinois.

 Les entreprises Internet chinoises ont un bassin énorme d'utilisateurs. MAU est l'accronyme de « monthly active users », QZone en a 600 millions !

 Alibaba, propriété de Taobao, - un site de shopping en ligne -, est deux fois plus important que eBay et Amazon combinés

Le jour de la fête appelée « Jour des célibataires » Taobao a fait plus de deux fois de ventes que tous les sites de commerce électronique américains ont fait avec le « Cyber Monday ». 

Certains sites comme JD, effectue la livraison en seulement 3 heures.

 JD a une application, où vous pouvez voir où est le livreur avec votre commande.

Alipay est comme Paypal aux États-Unis, sauf que c'est beaucoup plus gros et plus versatile. Ont l'utilise même pour payer son taxi.

Weibo est comme Twitter, sauf qu'il est beaucoup plus gros. Barra avait 6,000 followers sur Twitter quand il était aux États-Unis. Après deux mois en Chine, il a déjà 200,000 adeptes sur Weibo.

Hugo Barra utilise WeChat pour gérer tous ses réseaux sociaux. Il l'utilise comme téléphone, courriel ou messagerie texte. WeChat a également une application semblable à Instagram.

L'« Uber of China » est une application surnommée Didi. Avec elle, vous laissez un message vocal au chauffeur d'un  taxi pour lui dire où aller vous chercher, ou vous désirez aller et vous s'aurez combien il vous en coûtera.

Momo est une application de "dating" qui que vous permet de parler à des étrangers qui sont à proximité de vous. Il y a 100 millions d'utilisateurs.

Barra dit qu'il aime la Chine et est en train d'apprendre à parler la langue. Ici, il est à sa place favorite de dumpling.
Xiaomi20



10 janv. 2014

Commerce électronique : La Chine en première place mondiale en 2013

L'année 2013 se souviendra comme celle de la Chine qui a dépassé les États-Unis comme plus grand bassin pour le commerce de détail numérique du monde. L'an dernier, les acheteurs chinois en ligne ont dépensé... RMB 1,3 billions en ligne (234,7 milliard $ca, - voir note 1 -), une somme qui a augmenté de plus de 70 % par an depuis 2009 et devrait continuer sur sa trajectoire étonnante, qui atteindra 3,3 billions de RMB (593 milliard $ca) en 2015 (voir Figure 1-2). Le commerce de détail numérique a transformé sérieusement les habitudes d'achat , ouvrant d'immenses possibilités pour les détaillants et marques a prêter attention aux changements de marché et à la modification du comportement des consommateurs.



Source : Bain & Company 

La Chine est aussi numéro 1 en commerce 1.0 ;-) selon le journal Le Monde.

Note 1 : Il s’est dépensé 21.3 milliards $ en ligne au Canada en 2012 et 225.5 milliards $ aux Etats-Unis sur la même période.

2 déc. 2013

Un exemple à suivre : La finlande enseigne la programmation aux élèves du primaire

J'espère que le ministère de l'éducation du Québec verra cette nouvelle. Spécialement avec nos politiciens qui ne cessent de ce gargariser avec la cité du multimédia et les technopoles, il serait temps de former dès leurs jeunes âge nos futurs "whiz kids".

10 sept. 2013

Google dérape

Très rare de voir un dérapage semblable de Google qui affiche 5 premiers résultats d'un même site et plus loin trois autres encore d'un même domaine.

26 juin 2013

Le monde de la recherche bouleversé par les réseaux sociaux et par Google qui veut être plus blanc que blanc

Depuis quelques mois les intervenants en marketing Web et en SEO s'apercevaient de changements assez significatifs dans les données analytiques de leurs résultats. Mais depuis la troisième semaine de mai le monde de la recherche Web est sérieusement ébranlé. Google perd son poste de bon premier de classe contre... Facebook à l'échelle mondiale. Je peux confirmer que chez certains de mes clients Facebook est rendu le 2e référant.

Pour la première fois depuis plus de 10 ans Google passe sous les 40% de portée (Reach).

Hier j'ai mis un billet en ligne en ne consultant que mes propres chiffres, et selon mon instinct des derniers mois, sans validation externe.

Aujourd'hui j'ai été voir des outils et forums spécialisés en recherche Web et j'ai été conforté par ce que j'ai lu. Il y a un fil chez le plus ancien forum dédié au SEO nommé "The State of the Internet (2013) - Summarised perspectives. " chez Webmaster World avec 272 commentaires qui traite beaucoup de Google et ses multiples changements récents d'algorithmes pas toujours très efficaces et qui tendent à "uniformiser" le Web. Mais le Web c'est des humains !

Il y plusieurs autres facteurs qui ont influencés les statistiques mais  la conjecture entre l'uniformisation des résultats organiques et la plus grande utilissation des Facebook, Twiitter, Pinterest et autres font que nous allons voir plus de sites en passant par ces réseaux sociaux et leur WoM que par simple recherche.

25 juin 2013

Google en baisse et Bing en assez forte hausse

Ceci est un comparatif de janvier à juin 2013 versus la même période en 2012. L'échantillon compte près de 5 millions de visiteurs.

1 - Site avec forte présence sur réseaux sociaux
Google -26.14%
Bing       -16.16%

2 - Très gros bottin municipal sans présence sur réseaux sociaux
Google 11.33%
Bing       36.73%

3 - Site touristique sans présence sur réseaux sociaux
Google -5.28%
Bing         11.59%

4 - Site touristique avec moyenne présence sur réseaux sociaux
Google -7.25%
Bing        28.54%

Site e-commerce sans présence sur réseaux sociaux
Google -15.56%
Bing          17.63%

Total     
Google   -8.58%  
Bing       15,66%

Après des années a compiler des statistiques c'est la première fois que je suis autant surpris de voir de tels chiffres depuis 2002.

PS: Ceci n'a rien de scientifique mais cela est fondé sur près de 20 années de stats Web..

Retour sur la vie privée

Voici un retour sur un billet de novembre 2007 que j'avais écrit suite à une lecture sur autre blogue. Avec Prism, anciennement Échelon, on oublie beaucoup ces temps-ci que le secteur commercial vous espionne aussi depuis très longtemps.

19 juin 2013

Marketing : Push, Pull et SEO

L'avenir de push ou pull marketing sera toujours au coeur d'un vif débat.

Avec les médias sociaux sans cesse à la hausse, il y a une tendance à ne pas tenir compte de push marketing dans son intégralité. C'est une tendance à la hausse mais ne pas tenir compte du push serait une erreur.

Non seulement y a-t-il une place pour les deux, vous limiter à un ou l'autre empêchera votre capacité d'accéder à une croissance rentable.

Le push marketing

Le Push marketing est la publicité traditionnelle, dans laquelle vous « poussez » votre message sur le marché. Campagne de marketing par courriels, bannières, PpC, pub télé et radio sur les médias de masse, vente directe, foires commerciales et direct marketing sont inclus dans cette catégorie.

En un mot, le push marketing est d'acheter de l'intérêt populaire plutôt que de la mériter, d'utiliser une communication unidirectionnelle plutôt qu'une communication bidirectionnelle.

Nombreuses sont les stratégies push permettent un ciblage étroit pour s'assurer que vous ne gaspiller pas vos impressions payées sur des prospects non qualifiés.

Cas d'espèce : Même si le publipostage peut sembler désuet, il permet un ciblage sans précédent par le biais de base de données ciblant les consommateurs par; appartenances communautaires, produits intérêts, démographie de ménages et bien plus encore. Et même si une très grande proportion n'est jamais lu, le volume utilisé fait que cela demeure encore rentable.

Le pull marketing

En pull marketing, vous vous faites visible en fournissant des informations pertinentes ou un divertissement (viral) dans l'espoir que les acheteurs potentiels feront le lien avec ce que vous faites, qu'ils visitent votre site Web ou prennent contact avec vous pour en savoir plus.

Exemples des techniques de pull marketing ; l'optimisation Web (SEO), les médias sociaux, la messagerie instantanée incluant twitter, l'infographie actuarielle (représentations graphiques de données), des livres blancs, blogues, relations publiques et présentations. La nécessité de stratégies pull marketing est à la hausse.

Considérons que plus de 200 millions d'américains ont enregistré leur téléphone sur la liste « Ne pas appeler ». Plus de 40 % du publipostage n'est jamais ouvert. Plus 85 pour cent des consommateurs sautent les publicités télévisées. C'est pourquoi les commerçants rapportent qu'ils investiront plus en pull marketing cette année qu'auparavant.

Certaines techniques de pull marketing requierrent plus de temps a mettre en oeuvre et ainsi a rapporter comme les blogues, réseaux sociaux tandis que d'autres comme le SEO, les relations publiques et les présentation prennent moins de ressources et donnent des résultats plus rapidement.

Parce que votre appel à l'action marketing push est plus directe, le « temps de la première vente » est souvent plus court, bien que l'investissement initial en espèces est beaucoup plus élevé.  Mais limiter votre stratégie globale de marketing à une ou l'autre portera atteinte à votre capacité d'atteindre toutes les catégories de l'acheteur éventuel mais la tendance actuelle et future va de plus en plus vers le pull marketing.

Ou peut-être vous avez une solution qui est tellement nouveau que vos prospects ne même pas sûr comment une recherche. Dans ces cas, push marketing est nécessaire afin d'aider les prospects se rendent compte de leurs besoins et envisager votre solution.  La ligne du bas : pour offrir la couverture d'un grand marché, génération de leads et croissance des ventes rentable, nous devons pousser et tirer une variété de leviers.

Quand on y pense le SEO est aussi du push & pull, le push envers les moteurs de recherche et le pull envers le grand public qui les utilisent.



13 juin 2013

Les réseaux sociaux convertissent et Facebook n'est pas si pire que ça pour les affaires hein Michelle

Avec un taux de conversion de 1,75% comparativement à 2,89% pour le site, l'utilité de Facebook n'en apparait pas moins bonne pour ce site de tourisme, qui oui a une page Facebook, mais que celle-ci est complètement statique, sans "post" et n'a que la section "À Propos" de remplit manuellement.

Donc ces visiteurs de Facebook viennent de leurs propres fils d'actualités et ont convertit en réservations sur le site de mon  client. Pas si mal en 7 mois et sans aucun effort (15 min. au max).


Même si ce 56,749$ ne représente que 0,5% du total des réservations, aucun effort et argent (pub) n'a été dépensé pour arrivé à ce montant. Donc les réseaux sociaux c'est tout de même nn bon début et on peut se demander avant l'avénement de ceux-ci commment ou combien le bouche à oreilles aurait pu générer ?

À toi la parole !

12 juin 2013

Utiliser les numéros de téléphone pour le renforcement des liens locaux

Construire des liens n'est pas très dur, tout ce que vous devez faire c'est de trouver des sites locaux crédibles qui se trouvent dans votre créneau particulier. Si vous souhaitez créer des backlinks pour un magasin d'électronique, il suffit de trouver les sites qui parlent de l'électronique ce qui est simple dans Google. Toutefois, si vous essayez de mettre l'accent sur le marketing local, cela peut être beaucoup plus difficile. Heureusement, les numéros de téléphone sont uniques. L'expérience a été de prendre les numéros de téléphone des entreprises concurrentes, puis les utiliser pour trouver des liens dans Google. Puis, prenant ces liens, il donnerait une liste de sites qui offrent des backlinks vers les entreprises locales.

Le résultat : Dans cette expérience particulière, une série de sites ont été trouvés avec des backlinks pour beaucoup des magasins concurrents. Ceci a permis de trouver des répertoires crédibles qui listes les entreprises de votre créneau et ainsi de mieux performer dans les résultats locaux.

La source : http://ontolo.com/blog/phone-number-co-citation-analysis-local-link-builders

11 juin 2013

L'importance des émotions dans les mots clés

Essayer de bien se positionner pour des mots clés courants ou compétitifs comme 'Rédacteur SEO' peut être incroyablement difficile spécialement si votre site est jeune. Mais un bon rédacteur SEO ajoutera des émotions à la tâche. Au lieu de focaliser sur ces mots précis, il ajoutera des sentiments comme la 'meilleure' et 'pire' à son site, afin d'essayer d'aider le positionnement du mot-clé principal.

Le résultat : Etonnamment cela a fonctionné, non seulement pour le « meilleur rédacteur SEO » mais aussi « pire ». Pourtant, parce que la plupart des gens en général chercheront celui qui convient, il n'est pas grave et peut s'avérer très utile.

La source : http://loudcow.com.au/funny-seo-experiment-a-must-read-for-all-seo-copywriters-in-da-world/

10 juin 2013

Un bon classement est-il possible pour un nouveau site ? Tout dans le secret de la recette !

Classement d'un tout nouveau site rapidement :

Avec la mise à jour de Pingouin, Google a rendu beaucoup plus difficile pour les petits sites à se positionner rapidement sur des mots-clés. Maintenant, l'algorithme se concentre sur les grands sites faisant autorités avec beaucoup d'histique et de backlinks. Est-il donc toujours possible pour un nouveau site de se classer rapidement pour un mot clé ?

Cette étude de cas a suivi un nouveau site avec un mot-clé spécifique, ainsi qu'une série de backlinks moussés sur des sites faisant autorités. La stratégie de liaison a été de placer non seulement le mot-clé lui-même, mais aussi bien des expressions semblables (ce qui est un must depuis Pengouin) et de diffuser ces liens sur plusieurs sites.

Le résultat : moins de deux mois après le début de l'expérience, le site a réussi à atteindre la 4ème position pour le mot clé. Ce qui prouve que même après ces changements d'algorithme de Google, il est toujours possible pour un petit site, et tout frais, de bien se positionner dans les classements quand le référencement est effectué.

La source : http://www.seomoz.org/blog/postpenguin-anchor-text-case-study

Cas de spam et SEO

Récupération d'une sanction de SEO : 

Si vous avez travaillé en SEO pendant un certain temps, vous le savez probablement que sur les mises à jour de Google, comment cette cie modifie constamment son algorithme pour tenter de supprimer les sites de spam. Il y a eu la mise à jour de Florida et plus récemment Panda et Pingouin en particulier qui a fait que beaucoup de sites ont perdu leur classement. Parfois, la raison derrière cette pénalité peut être difficile à reperer, mais si vous ne l'a trouvez pas, il est difficile de récupérer ? En analysant les données avant et après un tel changement, un groupe de spécialistes du marketing ont regardé leur logiciel d'analyse pour savoir de quel temps il a fallu pour eux d'augmenter leur PageRank.

Le résultat : il s'avère que cette récupération après une telle sanction est difficile et il faut un certain temps. Et même si vous corriger le problème, il est difficle de récupérer votre classement complètement. L'expérience a montré que vous pouvez reprendre sur le classement précédent que vous avez utilisé pour avoir au fil du temps.

La source : http://www.seomoz.org/blog/recovering-from-the-penguin-update-a-true-story

Tests techniques de SEO négatifs :

Du marketing en ligne est toujours prompt à nous dire comment nous devrions nous en tenir aux techniques white hat, toujours utiliser des méthodes qui sont autorisées par Google et évitent d'utiliser des raccourcis qui peuvent sembler attrayant, mais apparemment ces faits peuvent provoquer que votre site perdre le classement si il est découvert. Mais ces avertissements ne sont vraiment réel ? Les techniques de SEO négatifs conduisent à une perte de rang ? Pour tester ceci, un site classé en 3ème position pour un mot-clé spécifique a été vérifié, et beaucoup de liens de spam ont été ajoutés. Au total, 7 000 liens forum, 45 000 Commentaires de blog et 4 000 liens de barre latérale.

Le résultat : Tout en suivant le classement, tout de suite l'expérience a montré qu'une perte de classement. Dans moins d'un mois, le site avait pris la 14e position pour ce même mot clé.

La source : http://www.tastyplacement.com/infographic-testing-negative-seo

5 juin 2013

Études de cas SEO

Si vous possédez une entreprise en ligne, ou travaillez dans le monde de l'optimisation Web (SEO), alors vous savez sans doute maintenant que le SEO n'est pas une science exacte. Contrairement à la chimie, il n'y a pas de formule qui garantit le succès. Il ne suffit pas de mélanger les ingrédients ensemble afin d'obtenir une substance qui sera la même chaque fois. Les changements des algorithmes de recherche, près de 200 fois par année, fait qu'il faut constamment s'adapter. En fait très peu de gens vont s'en tenir à un seul système toute leur vie, et un bom stratège en marketing fera constamment des expériences et des tests afin de voir ce qui fonctionne et ce qui ne fonctionne plus.
Voici une liste de 5 études de cas qui ont été testé, et si ils s'est avéré pour être réussie ou non.

1. Un URL en plein texte sans lien :

Dans cette expérience, un groupe de commerçants du secteur académique ont remarqué quelque chose d'assez intéressant dans certains des sites Web dans les domaines universitaires et collégiaux. Beaucoup de fois, quand un article scientifique ou autre texte académique serait produit, la convention dit que liens devrait être précisée, écrit sur la page sans avoir un lien. Par exemple, ils écriraient http://example.com au lieu d'avoir un mot/expression clé avec un lien. Donc ils ont voulu savoir quelle différence qui fait pour les moteurs de recherche et de découverte.

Le résultat : Malheureusement, le test n'a donné aucun résultat positif. Il semble que les gens n'allaient pas vers le nouvel URL en plein texte mais sans lien. Une chose qu'ils ont noté toutefois est que Google va découvrir l'URL en texte brut.

La source : http://dejanseo.com.au/seo-experiment-with-non-link-references

2. L'expérience de résultats de recherche influant sur Google + et Twitter :

Quand Google a présenté les résultats de recherche en temps réel, cela signifiait que les tweets étaient tout à coup, faisaient partie des résultats. Cela veut dire quevos tweets étaient maintenant visible dans les résultats de la recherche. Mais peu de temps après, la compagnie a désapprouvé ses résultats. Les tweets influencent-ils encore les résultats de recherche ? Cette expérience est centrée autour d'un seul tweet reliant à une URL non indexé.

Ce qui est vite devenu clair, c'est que Google ne semble plus avoir accès au fil d'information de Twitter, il y a assez mais avec le "scraping" et autres sites agrégateurs rend pretinant certains résultats de recherche, quoiqu'un peu plus lentement. Mais Google + vit une transition beaucoup plus rapide dans le social, avec des résultats qui apparaissent en quelques minutes.

Le résultat : il ne fait aucun doute de cette expérience qu'un tweet et un billet Google + influence les résultats de recherche, même si Google + semble avoir un effet plus immédiat.

La source : http://www.seomoz.org/blog/do-tweets-still-effect-rankings

3. Le PageRank dépend du nombre de liens :

La question ici est de savoir si oui ou non le nombre de liens sortants sur un site fait autorité en terme de PageRank. Donc pour le savoir, l'expérience a utilisé deux sites tout nouveau et a ajouté un backlink unique. Le premier était un site qui a eu un nombre modéré de liens déjà, tandis que le second site en a des milliers. Le but ici était de voir si Google pénalisé les backlinks sur des sites qui avaient déjà trop de liens.

Le résultat : Ce qu'a montré ce test est qu'il semble être sans incidence sur le nombre de backlinks existant actuellement. Les deux sites augmentent leur classement vers le haut de la même façon pendant des mois.

La source : http://dejanseo.com.au/pagerank-split-experiment

4. Un blogue très actif :

Une petite entreprise financière avec un site en ligne a un trafic plafonnant pendant des mois. Et finalement ils ont reçu les fonds nécessaires et go pour une campagne de marketing en ligne. Ce qu'ils voulaient tester était si à l'aide des billets réguliers, combinées avec les médias sociaux, si il pourrait augmenter leur trafic de recherche à long terme. Ils ont blogué pour 100 jours d'affilée, prenant des questions de Twitter auprès de leurs clients et en prime réalise des vidéos pour générer du trafic vers leur site.

Le résultat: Parce que leurs chiffres de trafic avaient été stables pendant si longtemps, ils avaient une belle base de comparaison. Quand ils ont commencé à bloguer, ils ont tout de suite vu leurs chiffres de trafic grimper. En prime ils ont pu suivre mots clés longue traîne, montrant que le trafic était en hausse. Il ne fait aucun doute que dans cette expérience, une augmentation du SEO était un bon investissement.

La source : http://www.ryanhanley.com/results-small-business-seo-experiment

5. Le détournement de texte (Hijacking) :

Dans le cadre de son algorithme, Google a une règle que le contenu dupliqué ne sera pas affichée dans ses résultats. Cela signifie que si un second site copie une page d'un premier site, et ses commentaires, alors cette copie ne sera pas affiché dans Google.

Toutefois, il est possible pour le second site de détourner ce contenu, et faire apparaître ce contenude manière légitime. La façon dont Google décide quel site sera affiché est celui qui a la plus haut PageRank. Donc tout ce que le site qui copie a à faire c'est s'assurer qu'ils obtiennent plus de backlinks.

Le résultat : L'expérience a montré qu'il est en effet possible pour un tout nouveau site de détourner le contenu d'un site légitime. Cependant, il y a certaines défenses qui peuvent aider à éviter cela. L'un est en utilisant la balise canonical, et l'autre est d'avoir un profil Google + avec un balisage de paternité.


3 juin 2013

Google admet enfin que le SEO négatif existe

Pendant des années, Google tenait mordicus sur la position qu'il y avait peu de chance que vos concurrents de Google puissent nuire à votre site Web.

Comme les liens "naturels" sont devenus plus précieuses et les liens payants ont été dévaluées ou pénalisés, Google a changé légèrement son attitude sur la question, mais a toujours maintenu que ce n'était pas un problème répandu. Sauf que Matt Cuttsm ingénieur spam  chez Google lui admettait que le SEO négatif n'est pas impossible, mais il est difficile.

Puis est venu l'Outil désavouer des liens, qui permet aux webmestres de désavouer des liens payés ou de basses qualités  et nettoyer leur profil de backlink, peu importe si vous, ou un concurrent, était responsable de ces backlinks de liens à un votre site Web.

Maintenant Google a modifié sa position une fois de plus, disant simplement que Google travaille à empêcher des concurrents d'utiliser le SEO négatif.

Le changement a été noté sur la page d'aide « Vos concurrents peuvent nuire classement? » dans le Google Webmaster Tools.

  1. À la première mouture de la page, elle disait simplement « Il n'y a rien qu'un concurrent peut faire pour nuire à votre positionnement ou d'avoir votre site supprimé de notre index. » 
  2. L'an dernier, quand le SEO négatif est devenu beaucoup plus répandu, le libellé a été modifié pour « Il n'y a presque rien qu'un concurrent peut faire pour nuire à votre positionnement ou d'avoir votre site supprimé de notre index. »
  3. Cette semaine, les webmestres ont remarqué que le libellé a été modifié une fois de plus « Google travaille dur pour empêcher les autres webmestres d'être capable de nuire à votre positionnement ou d'avoir votre site supprimé de notre index. »

C'est un aveu clair que oui, le SEO négatif existe et il peut entraîner des tierces parties, d'être en mesure de supprimer de l'index de recherche Google les sites concurrents ou au moins nuire à leur classement de recherche.