| Audit SEO Gratuit | Fil RSS |


11 juin 2013

L'importance des émotions dans les mots clés

Essayer de bien se positionner pour des mots clés courants ou compétitifs comme 'Rédacteur SEO' peut être incroyablement difficile spécialement si votre site est jeune. Mais un bon rédacteur SEO ajoutera des émotions à la tâche. Au lieu de focaliser sur ces mots précis, il ajoutera des sentiments comme la 'meilleure' et 'pire' à son site, afin d'essayer d'aider le positionnement du mot-clé principal.

Le résultat : Etonnamment cela a fonctionné, non seulement pour le « meilleur rédacteur SEO » mais aussi « pire ». Pourtant, parce que la plupart des gens en général chercheront celui qui convient, il n'est pas grave et peut s'avérer très utile.

La source : http://loudcow.com.au/funny-seo-experiment-a-must-read-for-all-seo-copywriters-in-da-world/

10 juin 2013

Un bon classement est-il possible pour un nouveau site ? Tout dans le secret de la recette !

Classement d'un tout nouveau site rapidement :

Avec la mise à jour de Pingouin, Google a rendu beaucoup plus difficile pour les petits sites à se positionner rapidement sur des mots-clés. Maintenant, l'algorithme se concentre sur les grands sites faisant autorités avec beaucoup d'histique et de backlinks. Est-il donc toujours possible pour un nouveau site de se classer rapidement pour un mot clé ?

Cette étude de cas a suivi un nouveau site avec un mot-clé spécifique, ainsi qu'une série de backlinks moussés sur des sites faisant autorités. La stratégie de liaison a été de placer non seulement le mot-clé lui-même, mais aussi bien des expressions semblables (ce qui est un must depuis Pengouin) et de diffuser ces liens sur plusieurs sites.

Le résultat : moins de deux mois après le début de l'expérience, le site a réussi à atteindre la 4ème position pour le mot clé. Ce qui prouve que même après ces changements d'algorithme de Google, il est toujours possible pour un petit site, et tout frais, de bien se positionner dans les classements quand le référencement est effectué.

La source : http://www.seomoz.org/blog/postpenguin-anchor-text-case-study

Cas de spam et SEO

Récupération d'une sanction de SEO : 

Si vous avez travaillé en SEO pendant un certain temps, vous le savez probablement que sur les mises à jour de Google, comment cette cie modifie constamment son algorithme pour tenter de supprimer les sites de spam. Il y a eu la mise à jour de Florida et plus récemment Panda et Pingouin en particulier qui a fait que beaucoup de sites ont perdu leur classement. Parfois, la raison derrière cette pénalité peut être difficile à reperer, mais si vous ne l'a trouvez pas, il est difficile de récupérer ? En analysant les données avant et après un tel changement, un groupe de spécialistes du marketing ont regardé leur logiciel d'analyse pour savoir de quel temps il a fallu pour eux d'augmenter leur PageRank.

Le résultat : il s'avère que cette récupération après une telle sanction est difficile et il faut un certain temps. Et même si vous corriger le problème, il est difficle de récupérer votre classement complètement. L'expérience a montré que vous pouvez reprendre sur le classement précédent que vous avez utilisé pour avoir au fil du temps.

La source : http://www.seomoz.org/blog/recovering-from-the-penguin-update-a-true-story

Tests techniques de SEO négatifs :

Du marketing en ligne est toujours prompt à nous dire comment nous devrions nous en tenir aux techniques white hat, toujours utiliser des méthodes qui sont autorisées par Google et évitent d'utiliser des raccourcis qui peuvent sembler attrayant, mais apparemment ces faits peuvent provoquer que votre site perdre le classement si il est découvert. Mais ces avertissements ne sont vraiment réel ? Les techniques de SEO négatifs conduisent à une perte de rang ? Pour tester ceci, un site classé en 3ème position pour un mot-clé spécifique a été vérifié, et beaucoup de liens de spam ont été ajoutés. Au total, 7 000 liens forum, 45 000 Commentaires de blog et 4 000 liens de barre latérale.

Le résultat : Tout en suivant le classement, tout de suite l'expérience a montré qu'une perte de classement. Dans moins d'un mois, le site avait pris la 14e position pour ce même mot clé.

La source : http://www.tastyplacement.com/infographic-testing-negative-seo

5 juin 2013

Études de cas SEO

Si vous possédez une entreprise en ligne, ou travaillez dans le monde de l'optimisation Web (SEO), alors vous savez sans doute maintenant que le SEO n'est pas une science exacte. Contrairement à la chimie, il n'y a pas de formule qui garantit le succès. Il ne suffit pas de mélanger les ingrédients ensemble afin d'obtenir une substance qui sera la même chaque fois. Les changements des algorithmes de recherche, près de 200 fois par année, fait qu'il faut constamment s'adapter. En fait très peu de gens vont s'en tenir à un seul système toute leur vie, et un bom stratège en marketing fera constamment des expériences et des tests afin de voir ce qui fonctionne et ce qui ne fonctionne plus.
Voici une liste de 5 études de cas qui ont été testé, et si ils s'est avéré pour être réussie ou non.

1. Un URL en plein texte sans lien :

Dans cette expérience, un groupe de commerçants du secteur académique ont remarqué quelque chose d'assez intéressant dans certains des sites Web dans les domaines universitaires et collégiaux. Beaucoup de fois, quand un article scientifique ou autre texte académique serait produit, la convention dit que liens devrait être précisée, écrit sur la page sans avoir un lien. Par exemple, ils écriraient http://example.com au lieu d'avoir un mot/expression clé avec un lien. Donc ils ont voulu savoir quelle différence qui fait pour les moteurs de recherche et de découverte.

Le résultat : Malheureusement, le test n'a donné aucun résultat positif. Il semble que les gens n'allaient pas vers le nouvel URL en plein texte mais sans lien. Une chose qu'ils ont noté toutefois est que Google va découvrir l'URL en texte brut.

La source : http://dejanseo.com.au/seo-experiment-with-non-link-references

2. L'expérience de résultats de recherche influant sur Google + et Twitter :

Quand Google a présenté les résultats de recherche en temps réel, cela signifiait que les tweets étaient tout à coup, faisaient partie des résultats. Cela veut dire quevos tweets étaient maintenant visible dans les résultats de la recherche. Mais peu de temps après, la compagnie a désapprouvé ses résultats. Les tweets influencent-ils encore les résultats de recherche ? Cette expérience est centrée autour d'un seul tweet reliant à une URL non indexé.

Ce qui est vite devenu clair, c'est que Google ne semble plus avoir accès au fil d'information de Twitter, il y a assez mais avec le "scraping" et autres sites agrégateurs rend pretinant certains résultats de recherche, quoiqu'un peu plus lentement. Mais Google + vit une transition beaucoup plus rapide dans le social, avec des résultats qui apparaissent en quelques minutes.

Le résultat : il ne fait aucun doute de cette expérience qu'un tweet et un billet Google + influence les résultats de recherche, même si Google + semble avoir un effet plus immédiat.

La source : http://www.seomoz.org/blog/do-tweets-still-effect-rankings

3. Le PageRank dépend du nombre de liens :

La question ici est de savoir si oui ou non le nombre de liens sortants sur un site fait autorité en terme de PageRank. Donc pour le savoir, l'expérience a utilisé deux sites tout nouveau et a ajouté un backlink unique. Le premier était un site qui a eu un nombre modéré de liens déjà, tandis que le second site en a des milliers. Le but ici était de voir si Google pénalisé les backlinks sur des sites qui avaient déjà trop de liens.

Le résultat : Ce qu'a montré ce test est qu'il semble être sans incidence sur le nombre de backlinks existant actuellement. Les deux sites augmentent leur classement vers le haut de la même façon pendant des mois.

La source : http://dejanseo.com.au/pagerank-split-experiment

4. Un blogue très actif :

Une petite entreprise financière avec un site en ligne a un trafic plafonnant pendant des mois. Et finalement ils ont reçu les fonds nécessaires et go pour une campagne de marketing en ligne. Ce qu'ils voulaient tester était si à l'aide des billets réguliers, combinées avec les médias sociaux, si il pourrait augmenter leur trafic de recherche à long terme. Ils ont blogué pour 100 jours d'affilée, prenant des questions de Twitter auprès de leurs clients et en prime réalise des vidéos pour générer du trafic vers leur site.

Le résultat: Parce que leurs chiffres de trafic avaient été stables pendant si longtemps, ils avaient une belle base de comparaison. Quand ils ont commencé à bloguer, ils ont tout de suite vu leurs chiffres de trafic grimper. En prime ils ont pu suivre mots clés longue traîne, montrant que le trafic était en hausse. Il ne fait aucun doute que dans cette expérience, une augmentation du SEO était un bon investissement.

La source : http://www.ryanhanley.com/results-small-business-seo-experiment

5. Le détournement de texte (Hijacking) :

Dans le cadre de son algorithme, Google a une règle que le contenu dupliqué ne sera pas affichée dans ses résultats. Cela signifie que si un second site copie une page d'un premier site, et ses commentaires, alors cette copie ne sera pas affiché dans Google.

Toutefois, il est possible pour le second site de détourner ce contenu, et faire apparaître ce contenude manière légitime. La façon dont Google décide quel site sera affiché est celui qui a la plus haut PageRank. Donc tout ce que le site qui copie a à faire c'est s'assurer qu'ils obtiennent plus de backlinks.

Le résultat : L'expérience a montré qu'il est en effet possible pour un tout nouveau site de détourner le contenu d'un site légitime. Cependant, il y a certaines défenses qui peuvent aider à éviter cela. L'un est en utilisant la balise canonical, et l'autre est d'avoir un profil Google + avec un balisage de paternité.


3 juin 2013

Google admet enfin que le SEO négatif existe

Pendant des années, Google tenait mordicus sur la position qu'il y avait peu de chance que vos concurrents de Google puissent nuire à votre site Web.

Comme les liens "naturels" sont devenus plus précieuses et les liens payants ont été dévaluées ou pénalisés, Google a changé légèrement son attitude sur la question, mais a toujours maintenu que ce n'était pas un problème répandu. Sauf que Matt Cuttsm ingénieur spam  chez Google lui admettait que le SEO négatif n'est pas impossible, mais il est difficile.

Puis est venu l'Outil désavouer des liens, qui permet aux webmestres de désavouer des liens payés ou de basses qualités  et nettoyer leur profil de backlink, peu importe si vous, ou un concurrent, était responsable de ces backlinks de liens à un votre site Web.

Maintenant Google a modifié sa position une fois de plus, disant simplement que Google travaille à empêcher des concurrents d'utiliser le SEO négatif.

Le changement a été noté sur la page d'aide « Vos concurrents peuvent nuire classement? » dans le Google Webmaster Tools.

  1. À la première mouture de la page, elle disait simplement « Il n'y a rien qu'un concurrent peut faire pour nuire à votre positionnement ou d'avoir votre site supprimé de notre index. » 
  2. L'an dernier, quand le SEO négatif est devenu beaucoup plus répandu, le libellé a été modifié pour « Il n'y a presque rien qu'un concurrent peut faire pour nuire à votre positionnement ou d'avoir votre site supprimé de notre index. »
  3. Cette semaine, les webmestres ont remarqué que le libellé a été modifié une fois de plus « Google travaille dur pour empêcher les autres webmestres d'être capable de nuire à votre positionnement ou d'avoir votre site supprimé de notre index. »

C'est un aveu clair que oui, le SEO négatif existe et il peut entraîner des tierces parties, d'être en mesure de supprimer de l'index de recherche Google les sites concurrents ou au moins nuire à leur classement de recherche.

28 mai 2013

Les tableaux de bord Analytics sont de très précieux outils

Voici  ma dernière création. Avoir en un seul tableau de bord plusieurs informations centralisées sur une seule page pour avoir les statistiques des vos réseaux sociaux.dans Google Analytics.

Tableau de bord réseaux sociaux
Veuillez m'écrire par courriel pour y avoir accès si vous le trouvez intéressant.

27 mai 2013

Design Parallax : Le dernier joujou des designers et publicitaires Web pour remplacer Flash

Le design parallax est très à la mode dans les boîtes Web "trendy" en ce moment. Surtout si ses principaux dirigeants viennent du monde de la pub, il y a de bonnes chances qu'ils bandent là-dessus... Un peu comme à l'apparition du Flash de Macromédia en 96 et devenu populaire en agence vers 98-99 et qui perdura jusqu'en 2010.

Les problématiques du design parallaxe

La conception de sites Web en parallaxe n'est simplement pas SEO-friendly. En raison de la nature des sites Web fait en parallaxe, tout le contenu du site est habituellement sur une seule page. Cela signifie que vous manquez l'occasion de définir d'importantes données; comme les balises titre, balises meta-description et balises H1/H2 dans le site, qui sont un des facteurs plus importants pour déterminer le classement de la page dans les moteurs de recherche.

En prime le temps de chargement du site qui parfois atteint plus de 5 secondes et j'en ai vu jusqu'à 13 secondes sur haute vitesse cablé !!! Et très dur à mettre en responsive design pour les tablettes et mobiles.

Voici un exemple du point de vue moteur de recherche en réponse à un client de la part d'un site en parallaxe:

- Le client demande au moteur un service très spécifique pour comblé ses besoins.
- Le site en Paralaxe lui répond : Voici l'histoire de ma compagnie, les biographies de mes employés, la liste de mes produits et services, mes réalisations ou mon portefolio, la location de nos points de ventes et les façons de nous contacter.

Disons que le client est déjà chez vos compétiteurs car tout déblatérer, comme le fait un site parallaxe, n'est pas une réponse proprice et ne vous positionnera jamais pour des requêtes pointues qui sont en très grande majoritées celles qui convertissent le mieux un visiteur en un client.

Voici un exemple de site en parallaxe :

Très beau et pour une marque de jus très hip et à la mode mais avec une campagne marketing énorme pour l'appuyer : http://activatedrinks.com/

23 mai 2013

Le nouveau Google Maps et le SEO

Avec l'arrivée imminente du nouveau Google Maps on se rend compte de l'utilité de parler de services ou produits connexes dans nos site Web.

Un des secteurs le plus évident est le domaine touristique mais cela aussi vaut dans beaucoup d'autres secteurs. Voici une recherche effectué sur Google Maps avec comme requête "croisière aux baleines, La Malbaie" :
Plusieurs auberges, hôtels et camping sont affichés sur la carte car dans leur site Web ils ont une section "Activités" où il mentionne les croisières aux baleines dans la région.
Cela met en évidence de parler de sujets autres que ce que l'on a principalement à vendre sur son site. Plus on donne d'importance au sujet dans ses pages, et en prime si l'on a une page Google+, plus le point rouge sera volumineux. Les icones avec un carré indique les fournisseurs de croisières.

20 mai 2013

Optimisation Web d'un site existant versus refonte optimisée

Voici une étude cas typique d'optimisation versus refonte avec optimisation

Voici le rapport des visiteurs d'un site d'un de mes clients avec qui je fais des affaires depuis 2008 pour ses clients et en 2010 pour un de ses propre sites.

À l'époque il avait en moyenne 15 à 19,000 visiteurs par mois et après quelques interventions étalées sur une années on a atteind les 30 à 35,000 visiteurs. Ensuite avec quelques modifications supplémentaires nous atteignons le seuil des 40,000 visiteurs mais on plafonne pour 6 mois.

Finalement avec le lancement du nouveau site optimisé (2ème flèche rouge) nous atteignons les 77,000 visiteurs/mois avec un taux de rebond diminué de 3%. Il faut dire sur ce dernier point que la page Facebook aussi créée amène près de 16% du trafic a elle un taux de rebond supérieur.

Voici un comparatif sur un mois en début de mandat et aujourd'hui :

À quel coût pour mon client ? Moins de 3,700 $ en 3 ans et demi avec une page Facebook en prime.

Morale : Repartir en neuf est souvent plus efficace et beaucoup plus rapide pour atteindre vos objectifs.

17 mai 2013

Bel exemple de viral pour une petite cie aérienne

Il y a près de 500 millions de requêtes par jour posées à Google que le moteur de recherche n'avait jamais vu

Quelques autres statistiques intéressante ici provenant de John Wiley qui est designer en chef dans la division recherche chez Google :


  • Google dit qu'il a trouvé 30,000 milliards (30 trillions mais je hais ce mot ;-) d'adresses uniques sur le Web, c-a-d ; sites Web, applications web et autres bidules connecté à Internet.
  • Chaque jour, les robots de Google visites 20 milliards de site par jour.
  • Google traite les 3,3 milliards de recherches chaque jour.
  • Google traite les 100 milliards de recherches chaque mois.


Source : Business Insider

Internet : Le Québec 7 points en retard sur le reste du Canada

Tout de même surprenant cette étude conjointe du Bureau de la Télévision (BTV) et de BBM Analytics présenté par Emarketer.


On écoute un peu plus la télé et la radio mais heureusement pour certains on lit plus les journaux !

8 mai 2013

Réseaux sociaux : Des pires pratiques aux meilleures

Je suis tombé aujourd'hui sur un billet évocateur des pires pratiques et aussi sur une excellente présentation :

Un exemple des pires pratiques

Les entreprises se sont-elles égarées sur les médias sociaux ?

Ici j'aurais bien aimé savoir de quelle boîte parle ce billet dans la présentation ?

Un exemple des meilleures pratiques dans cette étude de cas



Cette présentation d'une étude de cas de Guillaume Brunet est vraiment géniale tant dans sa présention que dans la qualité. C'est très rare de pouvoir comprendre une diapo à 99% sans avoir à assiter à la présentation par son auteur. Bravo !

Les pages d'affaires de Facebook sont de moins en moins performantes

Vous avez travaillé fort depuis 2-3 ans pour vous monter une belle base de fans de votre pages d'affaires de Facebook et vous penser qu'une grande partie de vos 4000 fans durement acquis veront vos publications de votre page.

Déchanter ! C'est maintenant entre 1% et au gros maximum 10% depuis l'automne dernier et dernièrement l'algorithme EdgeRank de Facebook a été modifié et c'est plutôt entre 1% et 5% depuis février.

Pourquoi ?

Pour engranger plus d'argent avec les "promoted post" qui eux vont apparaître sur les fils d’actualités de vos fans et qui ont été lancés l'été dernier.

Cela explique en partie la montée des petits nouveaux comme Pinterest, Instagram et la plus grande utilisation de Google+ et Linkedin.

Source :
Forbes
VB Social

25 avr. 2013

Google Shopping dans les résultats fait mal aux commerçants

Google Shopping qui est passé en mode payant depuis quelques mois apparait depuis le 13 février dernier dans des encadrés assez envahissant dans les résultats de recherche dans certains pays.

En Angleterre

En France

En Angleterre, Danemark, France, Japon, Espagne, Pays Bas, Brésil, Australie et Suisse ces encadtrés y apparaissent sur certaines requêtes et comme vous le voyez dans le cas de la France, ces encadrés prennent énormément de place dans les résultats.

Selon certaines sources certains sites ont perdu jusqu'à 66% de leur clientèle depuis l'apparition de ces nouveaux encadrés.

Google semble vouloir faire de la concurrence à Amazon mais aussi à ses propres Adwords. J'ai hâte de voir l'évolution de ce fait et de la réponse des utilisateurs de Google !

Pour mieux comprendre le nouveau modèle payant de Google Shopping.

24 avr. 2013

Google : Refonte discutable des présentations des résultats

Pour avoir accès maintenant à la page en cache, il faut maintenant cliquer sur une minuscule flèche verte pour y avoir accès. L'aperçu instantané est maintenant aussi disparu, ce qui me fait moins de peine.
C'est exactement la même petite flèche que sur Bing ?

22 avr. 2013

Millième client formé

La semaine dernière j'ai formé mon 1000ème client en 17 ans. En fait c'était un groupe de cinq en formation à distance par Skype avec partage d'écran et note de cours. Pour être plus précis, cela ne compte pas les conférences où ce nombre aurait été bien supérieur.

Cooment se déroule mes formations?

Dépendamment de la taille du client et de ses besoins, cela se procède habituellement de 2 façons.
  1. Pour les boîtes Web, agences de publicité, agences gouvernementales ou grandes entreprises c'est habituellement un audit du ou des sites, suivit de deux guides/rapports qui son habituellement subdivisés par corps de métiers Web. Un guide technique qui couvrent les divers points du/des sites et un guide sémantique/marketing/médias sociaux. Ensuite la formation se fait par bloc de une à trois heures selon les corps de métiers impliqués dans le/les sites. Normalement, le chargé de projet ou chargé de compte, lui suit tous les blocs de formation.
  2. Pour les petits clients c'est habituelllement un audit avec un ou deux guides qui parlent des points techniques et sémantiques mais qui se concentre sur leur site spécifiquement.


 Durée des formations ?

De 3 à 8 heures par jour et rarement plus de 16 heures pour les très gros clients.



Voici quelques clients formés dans mes dix-sept dernière années :

Desjardins Sécurité Financière, La SEPAQ, ATRAQ, SATQ, Tourisme-Charlevoix, Radio-Canada (3x), TFO, TQS, Taleo Corporation, Cyclovac, Blax, SAT, M-Biance, Creo, Têtes à Claques, Adviso, Ixmedia, Cosette (2), BBDO, Fjord intéractif, VDL2, Why Not Blue, Croix Bleue, Patrimoine Canada, Ministère Affaires Indiennes, Ministère Anciens Combattants, Le CRIM, Réseau d'Âge, Hébergement Charlevoix, Têtes à Claques, Adviso, Autonet, AgentSolo, etc.

Et le coût ?

Une farce comparé à la concurrence. De six cents (pour les très petits clients) à quelques milliers de dollars. La moyenne se situe de 1,200 à 2,500$.

3 avr. 2013

SELO comme dans Search Engine Local Optimization

Anecdocte/ : Je reçois ce matin un message téléphonique d'une Snowbird inconnu de Floride : "Ici Colette, pouvez-vous me rappeler au (954) xxx-xxxx pour Google."

Hum... Kossé cé ça ? Je rapelle Colette et elle m'explique qu'elle à cherché sur Internet "Google, Internet  et des villes de sa région" et qu'elle a trouvé mon no. de téléphone et qu'elle voudrait avoir un numéro de Google Voice. Assez sidéré que j'ai été. /Anecdocte

Pourquoi un nouvel acronyme comme SELO. Parce que le service à la Pages Jaunes qui a été dans Google Maps, ensuite Google Local, ensuite Google Place, est ... maintenant Google Places for Business. Fiou ! Pas facile de si retrouver et cela implique maintenant plusieurs services. Une simple inscription à un endroit ne suffira plus. Il faudra y mettre le temps et l'expertise.

Hier ce lancement (aux États-Unis et pour l'instant pour les chanceux qui ont reçu un compte test) qui combinera aussi Google +, si vous y aviez un compte. Et si oui, les résultats de ce combo pourra aussi apparaître dans les résultats de Google comme le nombre de cercle que vous partagé, les avis, etc...

Donc une bonne optimisation de tous ces services auront comme bénéfice un bon rayonnement Web grâce au SELO.

1 avr. 2013

Déceler vos mots-clés Not Provided dans Google Analytics

En octobre 2011, Google a subitement eu une illumination sur la confidentialité pour les utilisateurs de son moteur de recherche. La conséquence pour les propriétaires de sites ? De beaux caviardages des mots-clés utilisés en recherche. Dans les premier mois on avait environ 15 à 18%, puis 40% et voici maintenant ce qui parfois peut vous arriver. Ici, 8 sur 10, et même 22 mots-clés sur les 25 premiers sont caviardés (not provided).

Bon ok, il y a toujours la variable secondaire (secondary dimension) -> Page de destination (landing page) mais ce n'est pas très précis sur l'expression-clé exacte utilisée lors de la recherche.

Comme plusieurs d'entre-vous l'on remarqué, j'ai des données supplémentaires dans mon tableau les (1), (2),..(7), et (10) sont tirées d'un filtre installé pour avoir la position de ces mots-clés dans les résultats de Google. Je suis assez surpris que ce filtre fonctionne encore depuis la mise en place de cet excès '"d'intimité" de Google.

Quoi qu'il en soit, avec la variable secondaire, le filtre sur la position des mots-clés et une recheche sur ce mot-clé pour valider sa position, on commence à pouvoir avoir une bonne idée des mots-clés performants.