Si vous n'avez pas entendu parler de balisage sémantique et les implications sur le référencement, vous avez surement vécu dans une grotte sombre et sans WiFi dans les quelques dernières années. Ou peut-être, vous êtes un bleu en optimisation Web. Dans ce dernier cas, je ne vais pas vous tapez sur les doigts, mais vous devriez vraiment prendre note à cette nouvelle fonctionnalité, car c'est l'avenir.
Cela dit, je parie que la plupart des gens qui lisent ce billet connaissent le balisage sémantique, - ou en ont entendu parler - , et le principe des données structurées. Plus que probablement, vous avez déjà un peu de ce balisage sur votre site et vous avez probablement quelques extraits enrichis (rich snippets) attractifs qui émergent dans les résultats de recherche.
Des extraits enrichis organiques comme celui-ci sont la raison pourquoi la plupart des référenceurs mettent en œuvre un balisage sémantique. Je ne pense pas que nous devons en débattre. Tout le monde veut obtenir ces beaux et attractifs appels au clic (CTR) et, dans certains cas, vous êtes en désavantage concurrentiel si vous ne les avez pas. (Yééééééééé vs Snifffffffffffff).Car 50% de plus de lignes en description dans les extraits c'est un taux de clic assurément plus élevé !
Si vous êtes comme moi, vous aimez voir votre site qui acquière des extraits enrichis dans les résultats de recherche de Google. Je l'ai tellement aimé que je me laisse croire que tel était le but final du balisage sémantique: l'apparition de l'extrait enrichi. Quand j'ai mis en œuvre un balisage pour les différentes entités sur les sites que où je travaillais, après avoir ajoutée les codes au site, et vérifiez qu'ils ont été indexés avec succès, Victoire!
Voici les deux gabarits utilisés ici dans le dernier résultat.
Le gabarit des commentaires
Le gabarit des recettes
Pourquoi suivre le retour sur l'investissement du balisage sémantique
Eh bien, je suis venu a réaliser que cela peut tout simplement pas être la mesure finale de la réussite de la stratégie de référencement sémantique!
Quelle différence que l'extrait enrichi fait vraiment ? Allez, soyez honnête. Savez-vous quel est l'impact réel ? Pouvez-vous parler à votre patron ou/et à votre client sur la façon dont les pages d'un type spécifique de balisage effectue par rapport à leurs homologues non balisés?
Une autre question à se poser: Est-ce que l'effet de levier que les données sémantiques ont sur vos statistiques sont-ils maximiser à fond ?
Y at-il un moyen de suivre plus efficacement le retour sur investissement de la mise en œuvre de balisage sémantique tout en nous donnant simultanément un niveau plus profond de compréhension en ce qui concerne le comment?
... À suivre bientôt sur ce même blogue, mais probablement pas à la même heure.
Du mot-clé à l'intention | Offre de services en SEO/SXO & marketing Web
Le référencement et le marketing de contenu constituent l'épine dorsale de tous vos efforts de marketing,
le canal qui contribue au plus haut pourcentage de trafic et à une croissance régulière.
29 oct. 2014
23 oct. 2014
Conseils pratiques pour une meilleure rédaction et optimisation des pages Web
Le truffage de mots-clés comparativement à des pratiques plus avancées de ciblage sur le sujet est beaucoup plus à propos maintenant, - depuis 1 à 2 ans-, et plus judicieux à intégrer ces concepts dans notre contenu grâce à l'amélioration des algorithmes des moteurs de recherche et tout spécialement en anglais. Alors que la plupart d'entre nous n'ont pas les moyens disponibles, - ou l'expérience -, pour calculer les relations sémantiques et les occurrences de l'entité, il ya un certain nombre de mesures simples que nous pouvons prendre lors de la création de contenu optimisé:
La recherche de mots clés constitue votre base primale
Même si les mots clés individuels eux-mêmes ne suffisent pas pour former la base de votre contenu, tout commence par une bonne recherche de mots clés. Vous voulez savoir quelles conditions vous ciblez, la concurrence relative autour de ces mots clés, et la popularité de ces termes. En fin de compte, votre objectif est de connecter votre contenu avec le type de personnes qui tapent les mots-clés dans le champ de recherche.
Recherche sur des sujets et des thématiques
Résistez à la recherche des mots-clés simples, et à la place se focuser sur l'exploration de vos thèmes de expressions clés avec des expressions précises. Examinez les mots-clés secondaires liés à chaque mot-clé. Quand les gens parlent de votre sujet, ce que les mots utilisent-ils pour le décrire? Quelles sont les propriétés de votre sujet? Utilisez ces mots clés à l'appui en tant qu'acteurs pour créer du contenu autour de votre thème central.
Lors de l'élaboration de votre contenu, réponder à autant de questions que vous le pouvez
Un bon contenu répond à des questions, (car c'est la majeure utilisation des moteurs de recherche) et le contenu sémantiquement pertinente en est le reflet. Un classement optimal dans les premiers résultats pour toutes requêtes de recherche, le moteur de recherche estime que votre contenu répond à la meilleure question. Comme vous structurer votre contenu sur des sujets et des thèmes, assurez-vous que vous méritez le premier rang en répondant aux questions et en offrant une meilleure expérience que la compétition pour l'utilisateur.
Utiliser un langage naturel et des variantes
Au cours de votre processus de recherche de mots clés, il est utile d'identifier les autres façons communes que les chercheurs uutilisent pour se référer à votre sujet, et les inclure dans votre contenu dans ces cas. La recherche de mots clés sémantique est souvent inestimable à ce processus.
Placez votre contenu important dans... les sections les plus importantes !
Évitez les pieds de page et des barres latérales pour le contenu important. Ne pas essayer de tromper les moteurs de recherche avec CSS fantaisistes ou des astuces JavaScript. Votre contenu le plus important devrait aller dans les endroits où il est le plus visible et accessible aux lecteurs et idéalement utiliser les balises HTML 5 spécifiques (article, aside, et nav) et/ou des microformats Schema.org.
Structurez votre contenu de façon appropriée
Entêtes, paragraphes, listes et tableaux (spécialement les vieux TH), tous fournissent une structure de contenu de sorte que les moteurs de recherche puissent comprendre le sujet ciblé. Une page Web contient clairement une structure similaire à un bon journal. Employer les introductions appropriées, les conclusions, les sujets organisées en paragraphes, orthographe et la grammaire, et citer vos sources correctement.
A la fin de la journée, nous n'avons pas besoin d'un super-ordinateur pour rendre notre contenu mieux, ou plus facile à comprendre. Si nous écrivons comme les humains pour les humains, notre contenu va un long chemin en devenant optimisé pour les moteurs de recherche. Quels sont vos meilleurs conseils pour sur la page SEO et le sujet de ciblage?
La muse de ce billet est ici
8 oct. 2014
Drôle de pratique de Google avec les snippets
En lisant ces articles du célèbre Search Engine Land sur les fragments structurés (rich snippets), j'ai été surpris de voir que ce n'est pas des microformats ou encore l'emploi des grilles de Schema.org qui produit la parution de ces fragments dans les résultats de Google:
En visionnant le code on voit bien dans les exemples des deux articles que c'est une bonne vieille balise table header (TH) qui provoque ce net avantage dans les résultats !!!
Il me semble que l'emphase devrait être plutôt mis sur l'emploi d'une grille sémantique comme celle proposée par le standard approuvé des trois grands moteurs de recherche qu'est Schema.org qui devrait être prôné !!!
En visionnant le code on voit bien dans les exemples des deux articles que c'est une bonne vieille balise table header (TH) qui provoque ce net avantage dans les résultats !!!
Il me semble que l'emphase devrait être plutôt mis sur l'emploi d'une grille sémantique comme celle proposée par le standard approuvé des trois grands moteurs de recherche qu'est Schema.org qui devrait être prôné !!!
30 sept. 2014
Nouvelle certification pour la mesure d'attention, les clics et pages consultées en prendront pour leur rhume
Résumé : L'entreprise Web Analytics Chartbeat dit qu'elle est la première à être certifiée par la Media Ratings Concil pour une nouvelle façon de mesurer l'attention réelle de lecteurs, dans le cadre d'un mouvement pour que les éditeurs et annonceurs cessent de se concentrer uniquement sur les clics et les pages vues
Depuis quelque temps, les sociétés de médias et les producteurs de contenu de divers types ont essayé de convaincre le reste de l'industrie - et en particulier les annonceurs - de s'éloigner de mesures erronées comme les pages vues et les visiteurs uniques et de se concentrer sur la mesure de l'attention. Le Financial Times, The Economist et même des sites virals comme Upworthy ont été à l'avant-garde de ce mouvement, tout comme l'entreprise Chartbeat - et maintenant Chartbeat proclame qu'il est devenu la première entreprise de l'analyse qui est certifié pour mesurer l'attention du lecteur.
Tony Haile CEO de Chartbeat, dit que la certification est venue des évaluations du Media Ratings Concil, l'organisme national de normalisation qui décide de ce qui peut être utilisé comme un nouveau standard pour la publicité aux Etats-Unis après un processus de vérification de neuf mois qui a enquêté sur toutes les parties du moteur analytique de Chartbeat, le Media Ratings Concil dit que la compagnie est maintenant accrédité pour mesurer les paramètres de l'attention à la fois pour l'affichage publicitaire et le contenu.
Chartbeat scrute une variété de facteurs, y compris la partie de la page qui est dans la fenêtre de visualisation ( de sorte qu'il peut vous dire jusqu'où quelqu'un a eu dans l'article ou élément de contenu). Mais la question cruciale est de détecter si quelqu'un voie actuellement la page, et il le fait par le suivi du mouvement ou de l'interaction. Basé sur le fait que l'utilisateur moyen touche la souris ou le clavier au moins une fois tous les 4,8 secondes.
Le Financial Times a utilisé "le temps d'exposition active" de Chartbeat pour vendre aux annonceurs ce qu'elle croit être une meilleure mesure de la valeur réelle de ce qu'ils reçoivent, et The Economist a expérimenté la même chose. Upworthy a collaboré avec Chartbeat afin de développer ce qu'elle appelle "l'attention minutes," et a mis sa technologie en open-source en la téléchargeant sur Github.
Haile a déclaré que son intention est dans la promotion de l'idée de la "toile d'attention" et d'aider les éditeurs à bâtir des entreprises durables avec la publicité, au lieu de constamment avoir à vérifier où les yeux du lecteur sont situé ou les clics dans le but de générer autant de pages vues ou de visiteurs que possible:
En utilisant le plug-in Scrolll Depth en en créant un tableau combinant les données de celui-ci avec le temps moyen passé sur la page vous serez en mesure de vous approcher grandement de cette mesure d'attention.
Très grandement inspiré de l'article de Mathew Ingram sur Gigaom.
Depuis quelque temps, les sociétés de médias et les producteurs de contenu de divers types ont essayé de convaincre le reste de l'industrie - et en particulier les annonceurs - de s'éloigner de mesures erronées comme les pages vues et les visiteurs uniques et de se concentrer sur la mesure de l'attention. Le Financial Times, The Economist et même des sites virals comme Upworthy ont été à l'avant-garde de ce mouvement, tout comme l'entreprise Chartbeat - et maintenant Chartbeat proclame qu'il est devenu la première entreprise de l'analyse qui est certifié pour mesurer l'attention du lecteur.
Tony Haile CEO de Chartbeat, dit que la certification est venue des évaluations du Media Ratings Concil, l'organisme national de normalisation qui décide de ce qui peut être utilisé comme un nouveau standard pour la publicité aux Etats-Unis après un processus de vérification de neuf mois qui a enquêté sur toutes les parties du moteur analytique de Chartbeat, le Media Ratings Concil dit que la compagnie est maintenant accrédité pour mesurer les paramètres de l'attention à la fois pour l'affichage publicitaire et le contenu.
Nous parlons depuis un certain temps maintenant sur le Web de l'attention, et beaucoup de gens ont dit qu'ils aimaient cette une idée, mais c'était juste une idée. Mais maintenant, c'est officiel -. Maintenant, il peut y avoir une "économie de l'attention", dans lequel les éditeurs et les annonceurs achètent et vendent des minutes d''attention ou une métrique comme mesure.Contrairement aux pages vues, qui mesurent simplement à savoir si une page est chargée, - ou encore un visiteurs uniques - depuis quelques tempps des entreprises des médias soutiennent que cette nouvelle mesure est plus près d'être réelle, comme les lecteurs physiques d'un journal ou un magazine - paramètres de l'attention comme "temps d'exposition actif", ce que Chartbeat traque, et qui peut déterminer combien de temps un lecteur passé avec une pièce de contenu spécifique , en mesurant si elle a été effectivement vue par le lecteur.
Chartbeat scrute une variété de facteurs, y compris la partie de la page qui est dans la fenêtre de visualisation ( de sorte qu'il peut vous dire jusqu'où quelqu'un a eu dans l'article ou élément de contenu). Mais la question cruciale est de détecter si quelqu'un voie actuellement la page, et il le fait par le suivi du mouvement ou de l'interaction. Basé sur le fait que l'utilisateur moyen touche la souris ou le clavier au moins une fois tous les 4,8 secondes.
Le Financial Times a utilisé "le temps d'exposition active" de Chartbeat pour vendre aux annonceurs ce qu'elle croit être une meilleure mesure de la valeur réelle de ce qu'ils reçoivent, et The Economist a expérimenté la même chose. Upworthy a collaboré avec Chartbeat afin de développer ce qu'elle appelle "l'attention minutes," et a mis sa technologie en open-source en la téléchargeant sur Github.
Haile a déclaré que son intention est dans la promotion de l'idée de la "toile d'attention" et d'aider les éditeurs à bâtir des entreprises durables avec la publicité, au lieu de constamment avoir à vérifier où les yeux du lecteur sont situé ou les clics dans le but de générer autant de pages vues ou de visiteurs que possible:
Ceci donne aux marques exactement ce qu'ils veulent de façon transparente - ils veulent l'attention de leur public, ce qui leur ai donné d'une manière complètement mesurable. Et pour les éditeurs, ils veulent savoir ce qu'ils ont créé est quelque chose de précieux et qui retienent l'attention des gens.Paliatif à cette solution
En utilisant le plug-in Scrolll Depth en en créant un tableau combinant les données de celui-ci avec le temps moyen passé sur la page vous serez en mesure de vous approcher grandement de cette mesure d'attention.
Très grandement inspiré de l'article de Mathew Ingram sur Gigaom.
29 sept. 2014
Appronfondir vos analyses statistiques
Les outils d'analyses sont devenus monnaie courante et plusieurs commerçants devraient recueillir et analyser les données. Cependant, de nombreux clients arrêtent leurs efforts avec les données qui sont les plus facile à obtenir. Ces soi-disant mesures "de courtoisie" offrent une vue limitée de l'efficacité du marketing.
Google Analytics est partout, mais pas tous les commerçants mettent à profit à leur avantage. Creusez un peu plus dans les chiffres. Avec un effort supplémentaire sur Google Analytics, vous pouvez évaluer les campagnes, augmenter les revenus et d'optimiser votre site.
Voici quelques conseils importants que vous pouvez utiliser pour tirer le meilleur parti de Google Analytics:
Vous ne pouvez pas optimiser sans données
L'optimisation de données ne se fait pas en devinant. Malheureusement, 40% des gens en marketing prennent des décisions à l'aide de l'instinct, pas de l'analyse des données. Quel genre de choses que vous pouvez optimiser? Souvent, ils ne tiennent compte que des; titres, des graphiques et vidéos, des formulaires ou des boutons d'appel à l'action.
Les leviers d'expériences de Google Analytics, qui sont des tests A / B qui vous permettent de déterminer, -avecdes données- qu'elle sont les versions qui convertissent le mieux. Lorsque vous configurez Google Analytics pour suivre et mesurer vos résultats, vous serez en mesure de prouver que votre campagne est en fait traduite par un retour sur l'investissement.
Les données d'orgueil (vanity metrics) sont sortis, les mesures réalisables sont là
Qui n'a pas un petit frisson quand leurs nombres de pages vues passent à travers le toit? Aussi intéressant qu'ils sont, les pages vues n'aident pas vraiment de prendre des actions sur vos données. Selon une analyse récente de Google Analytics, les mesures concrètes sont celles qui convertissent sur l'impact et les revenus.
Par exemple, un taux de rebond est une statistique facile à trouver, mais il ne vous donne pas toute l'image. Le taux de rebond par source, d'autre part, peut indiquer comment bien qualifié votre trafic provient d'une source individuelle. Cette connaissance peut vous aider à prendre des décisions importantes au sujet de vos dépenses de marketing.
Calcul du Retour Sur l'Investissement n'est pas une option, c'est une exigence
Seulement un tiers des acheteurs de calcul le retour sur investissement, ce qui signifie que la majorité des acheteurs ne sont pas sûrs que leurs efforts portent fruit. Avec l'analyse, vous pouvez résoudre le flou et et résoudre l'équation. Et qui ne veut pas prouver que leurs campagnes marketing ont un impact sur les recettes?
Le Calcul du RSI ne prend que quelques étapes à mettre en place, mais la récompense est énorme. Mettre des valeurs à vos objectifs/buts (goals) vous montrera les actions des clients qui entraînent le plus de revenus. Une fois que vous savez cela, vous pouvez optimiser votre page avec un retour sur investissement à l'esprit.
Donner du crédit lorsque le crédit est dû
Un utilisateur pourrait vous vérifier d'abord par un poste Twitter, revenir plus tard par l'intermédiaire de la recherche organique, et faire un achat à partir d'un e-mail. Si vous ne payez que l'attention à la dernière interaction du client, vous pourriez ne pas attribuer une valeur précise à votre présence sociale ou SEO.
Il est beaucoup plus facile (et plus lucratif!) si les clients visitent une fois et fasses l'achat immédiatement. Malheureusement, c'est un rêve et non pas la réalité. Depuis que Google Analytics vous permet de suivre les conversions assistées, vous pouvez surveiller les canaux qui ont un impact sur les clients qui se déplacent dans votre entonnoir.
Faire des UTMs* votre meilleur amis
Google Analytics a quelques astuces pratiques pour le suivi de l'efficacité de vos campagnes. Que vous utilisiez les médias sociaux, e-mail, PPC, ou un autre type de promotion, vous pouvez suivre les sources individuellement dans Google Analytics.
Les UTMs (Urchan Tracking Module) vous aider à percer vers le bas dans les canaux qui vous fournissent le meilleur trafic. Disons que vous utilisez Facebook et un blog invité à générer du trafic vers une page d'atterrissage.
*Un code UTM est un simple code que vous pouvez attacher à une URL personnalisée pour suivre une source, un médium, une campagne, etc.
Faire attention
Ne soyez pas tenté de collecter chaque petites données disponibles. Les chiffres pour les chiffres n'est pas la solution, vous devez donc réfléchir pour savoir lesquelles des données sont les plus utiles à votre entreprise.
La mise en place de Google Analytics pour recueillir des données n'est que la première étape. Aucun outil d'analyse peut faire l'analyse complète pour vous. Plus important encore, toujours construire dans le temps de regarder les données de sorte que vous pouvez tirer des conclusions concrètes.
Tout simplement
La définition des buts et l'utilisation des UTMs sont une bonne façon d'obtenir de meilleurs retours sur investissement.
Bonus : Une petite astuce qui ne nécessite pas de donnée statistique
Avec les systèmes téléphoniques d'aujourd'hui, il est aisé d'ajouter de nouveaux numéros de téléphone à votre entreprise. Donc en utilisant sur votre site un numéro qui se retrouve uniquement sur votre site Web, vous pourrez ainsi avoir une donnée solide et concrète de la performance du site versus les autre médiums.
Ceci peut évidemment être valable dans d'autres campagnes marketing sur des médiums différents.
Très grandement inspiré du billet de Cris Lucas sur 60secondmarketer.
12 sept. 2014
Géo-localisation du serveur Web
J'ai un client qui a payé plusieurs milliers de dollars pour son nom de domaine qui est le titre de sa profession. Mais avec une recherche sur ce titre il n'apparaissait pas dans la première page des résultats et obtenait qu'une 17ème position ce qui est anormal.Normalement une recherche sur un nom de domaine qui a quelques liens externes on obtient normalement un top trois au minimum.
Mon client en plus avait fait affaire avec une des deux plus grosse boîte d'optimisation Web du Québec. Et cette boîte n'a jamais mentionné que la géo-localisation du serveur Web avait une grande influence sur le positionnement Web. Comme son serveur était en Angleterre il ne se positionnait moyennement avec une 4ème position en Angleterre mais au Canada où la clientèle ciblé de mon client est située.
Du à des facteurs technique il était impossible de déménager le serveur au Québec. Alors en utilisant l'outil Webmaster Tools de Google on peut mentionner où se situe notre clientèle même si le serveur Web se trouve dans un autre pays.
À la suite de cette modification, le site de mon client c'est retrouvé immédiatement en 7ème position. En bonifiant ensuite sa page d'accueil, il est maintenant en première position sur son titre de profession autant au singulier et au pluriel et son trafic c'est accru de 375%.
Mon client en plus avait fait affaire avec une des deux plus grosse boîte d'optimisation Web du Québec. Et cette boîte n'a jamais mentionné que la géo-localisation du serveur Web avait une grande influence sur le positionnement Web. Comme son serveur était en Angleterre il ne se positionnait moyennement avec une 4ème position en Angleterre mais au Canada où la clientèle ciblé de mon client est située.
Du à des facteurs technique il était impossible de déménager le serveur au Québec. Alors en utilisant l'outil Webmaster Tools de Google on peut mentionner où se situe notre clientèle même si le serveur Web se trouve dans un autre pays.
À la suite de cette modification, le site de mon client c'est retrouvé immédiatement en 7ème position. En bonifiant ensuite sa page d'accueil, il est maintenant en première position sur son titre de profession autant au singulier et au pluriel et son trafic c'est accru de 375%.
28 avr. 2014
L'Asie en tête de la révolution mondiale du paiement par mobile
46% des consommateurs en Asie-Pacifique utilisent leur mobile pour acheter des biens et services, plus que dans toute autre région (soit 27% en Europe et uniquement 17% en Amérique du Nord).
42% des consommateurs d'Asie-Pacifique qui utilisent leur mobile pour acheter des biens et services veulent en faire plus, plus que dans toute autre région (dont 24% en Europe et 15% en Amérique du Nord).
- Plus de téléphones intelligents: La Chine, déjà le plus grand marché du "smartphone" du monde, est près d'ajouter 400 autres millions de téléphones intelligents en 2014.
- Qui a la croissance la plus rapide en ce moment.? L'Inde, avec une croissance de 167% au Q4 2013 (Gartner, Janvier et Février 2014)
- Consommateurs non bancarisés. Dans de nombreux pays d'Asie, la pénétration du mobile dépasse l'accès aux services bancaires traditionnels. Il ya environ trois fois plus de téléphones mobiles que il ya des cartes bancaires en Chine (MasterCard, Septembre 2013)
- Culture de périphérique: L'absence des technologies traditionnelles, - qui prévalent dans le nord de l'Amérique et de l'Europe (oui, nous parlons de PC) - , ont entraîné millions de consommateurs asiatiques à adopter le téléphone intelligent comme un portail principal de l'espace en ligne, et - de plus en plus - un assistant de vie.
Les forces structurelles profondes peuvent être le moteur de la montée du paiement par mobile en Asie.
Mais au fond, les tendances sont sur les personnes - et leurs besoins -, fondamentalement et immuablement profonds, soit les besoins et les désirs parfois compulsifs.
Les forces qui incitent au paiement mobile en Asie sont de nouvelles façons de servir les besoins et désirs, et cela signifie que les méthodes de paiement sont:
- Rapide
- Plus pratique
- Plus sécure
- Autorise l'accès à de nouveaux types d'informations personnalisées et décisionnelles
- Autorise l'accès à de nouveaux services, ou de nouvelles combinaisons de services
24 avr. 2014
Le point faible de la majorité des sites ayant des points de vente
Au moins 90% des sites manufacturiers ou toute compagnie qui a des; points de vente, distributeurs, détaillants, marchands ou revendeurs, n'optimisent pas correctement cette section de leur site. C'est pourtant la section de loin la plus importante pour la vente !
J'ai testé plusieurs types de sites, de l'électronique à l'alimentation et j'ai aussi fouillé dans les portfolio d'agence SEO et je n'ai rien vu de vraiment satisfaisant quoique ces derniers sont légèrement mieux, mais en général c'est vraiment pathétique comme gestion SEO de ces sections qui sont pourtant primordiales pour le business.
J'ai décliné 4 grandes méthodes primaires pour fournir cette information essentielle pour le manufacturier et ses points de vente :
Le simple formulaire
Cette méthode est archaïque et est totalement à proscrire. Aucune information directement accessible aux internautes et surtout aux moteurs de recherche en plus de monopolisé une ressource humaine pour rien dans la majorité des cas.
La recherche par code postal
Une méthode rapide pour accéder rapidement à l'information. Un seul hic au Québec, le fleuve St-Laurent !
De Hull en passant par Montréal jusqu'à Sorel c'est très performant, mais plus on va vers l'est, plus les résultats peuvent être frustrants. Ici à La Malbaie j'obtiens dans la majorité des cas des résultats de 10 à 50 km à vol d'oiseau par défaut. Mais par la route, ce rendre à Rivière-du-Loup ou Kamouraska comme souvent proposé ici, c'est 4 à 5 heures de route alors que Chicoutimi est à moins de 2h comme Québec d'ailleurs. Donc le long du St-Laurent, où la majorité des Québécois vivent, c'est parfois un peu décevant.
Les répertoires
Le répertoire par zones géographiques est une solution très bonne pour le SEO mais fastidieuse pour l'utilisateur car elle nécessite souvent plusieurs clics pour finalement trouver le vendeur.
Quand je dis très bonne pour le SEO, c'est vraiment le cas, quand les infomations géo-locatives sont bien structuré et implanté dans le texte et dans les balises Html et évidemment avec des microformats.
La carte Google Maps
C'est très pratique et ergonomique, mais quand elle n'est pas combiné avec la recherche par code postal c'est pitoyable pour le SEO surtout si les résultats n'apparaissent que dans les bulles.
Le choix idéal
Une combinaison des trois dernières solutions avec un focus sur les répertoires bien délimités par régions et villes et surtout une page spécifique pour chaque; points de vente, distributeurs, détaillants, marchands ou revendeurs.
Conclusion
Quand c'est bien fait, selon mon expérience avec mes clients, c'est de 40% à 3,500% d'augmentation des ventes avec une moyenne autour de 150%. Cela dépend de l'état initial de cette section. Et le plus surprenant c'est que ce n'est pas dispendieux à mettre en place et que l'amortissement se fait en quelques mois à peine !
J'ai testé plusieurs types de sites, de l'électronique à l'alimentation et j'ai aussi fouillé dans les portfolio d'agence SEO et je n'ai rien vu de vraiment satisfaisant quoique ces derniers sont légèrement mieux, mais en général c'est vraiment pathétique comme gestion SEO de ces sections qui sont pourtant primordiales pour le business.
J'ai décliné 4 grandes méthodes primaires pour fournir cette information essentielle pour le manufacturier et ses points de vente :
Le simple formulaire
Cette méthode est archaïque et est totalement à proscrire. Aucune information directement accessible aux internautes et surtout aux moteurs de recherche en plus de monopolisé une ressource humaine pour rien dans la majorité des cas.
La recherche par code postal
Une méthode rapide pour accéder rapidement à l'information. Un seul hic au Québec, le fleuve St-Laurent !
De Hull en passant par Montréal jusqu'à Sorel c'est très performant, mais plus on va vers l'est, plus les résultats peuvent être frustrants. Ici à La Malbaie j'obtiens dans la majorité des cas des résultats de 10 à 50 km à vol d'oiseau par défaut. Mais par la route, ce rendre à Rivière-du-Loup ou Kamouraska comme souvent proposé ici, c'est 4 à 5 heures de route alors que Chicoutimi est à moins de 2h comme Québec d'ailleurs. Donc le long du St-Laurent, où la majorité des Québécois vivent, c'est parfois un peu décevant.
Les répertoires
Le répertoire par zones géographiques est une solution très bonne pour le SEO mais fastidieuse pour l'utilisateur car elle nécessite souvent plusieurs clics pour finalement trouver le vendeur.
Quand je dis très bonne pour le SEO, c'est vraiment le cas, quand les infomations géo-locatives sont bien structuré et implanté dans le texte et dans les balises Html et évidemment avec des microformats.
La carte Google Maps
C'est très pratique et ergonomique, mais quand elle n'est pas combiné avec la recherche par code postal c'est pitoyable pour le SEO surtout si les résultats n'apparaissent que dans les bulles.
Le choix idéal
Une combinaison des trois dernières solutions avec un focus sur les répertoires bien délimités par régions et villes et surtout une page spécifique pour chaque; points de vente, distributeurs, détaillants, marchands ou revendeurs.
Conclusion
Quand c'est bien fait, selon mon expérience avec mes clients, c'est de 40% à 3,500% d'augmentation des ventes avec une moyenne autour de 150%. Cela dépend de l'état initial de cette section. Et le plus surprenant c'est que ce n'est pas dispendieux à mettre en place et que l'amortissement se fait en quelques mois à peine !
17 avr. 2014
Mobiles et tablettes: Metteriez-vous dans votre magasin vos produits à 5 pieds du sol ?
Non je ne palerai pas d'inondation ici.
C'est une analogie à l'indiférence d'une très grande majorité des sites Web qui ne se soucis pas de leur clientèle (persona) qui utilise les téléphones intelligents ou les tablettes. Le "5 pieds du sol" correspond à peu près au nombre de clients qui aurait difficilement accès à vos produits (ou services) sur votre site Web qui n'est pas adapté aux mobiles.
Hier je vous présentais un billet où 27% des visiteurs d'un client utilisaient ces appareils avec un comparatif sur une année pour les trente derniers jours.
http://intercommunication.blogspot.ca/2014/04/les-mobiles-represente-maintenant-27-du.html
Comme ce client était dans un domaine spécifiquement niché aux utilisateurs de mobile, je vous présente ici un autre cas. Ce client est un portail communautaire qui lui est moins susceptible d'avoir une clientèle techno.
Aux États-Unis
Voici des chiffres de nos voisins de Restive Labs qui eux sont un petit peu mieux :
Conclusion
Donc il y a 2 choix le site adaptatif ou réactif (responsive design) ou le site spécifique aux mobiles. À mon avis le premier est de loin la meilleure solution, si il est minutieusement programmé, car il ne nécessite pas un déboublement des tâches de conception, maintenance et veille.
Pour avoir un site réactif et performant aux mobiles je vous conseille une très bonne piste qui est le RWD Summit (Responsive Web Design).
C'est une analogie à l'indiférence d'une très grande majorité des sites Web qui ne se soucis pas de leur clientèle (persona) qui utilise les téléphones intelligents ou les tablettes. Le "5 pieds du sol" correspond à peu près au nombre de clients qui aurait difficilement accès à vos produits (ou services) sur votre site Web qui n'est pas adapté aux mobiles.
Hier je vous présentais un billet où 27% des visiteurs d'un client utilisaient ces appareils avec un comparatif sur une année pour les trente derniers jours.
http://intercommunication.blogspot.ca/2014/04/les-mobiles-represente-maintenant-27-du.html
Comme ce client était dans un domaine spécifiquement niché aux utilisateurs de mobile, je vous présente ici un autre cas. Ce client est un portail communautaire qui lui est moins susceptible d'avoir une clientèle techno.
Tout de même tout près de 25% des visiteurs qui ont utilisés un mobile ou une tablette le mois dernier.
Aux États-Unis
Voici des chiffres de nos voisins de Restive Labs qui eux sont un petit peu mieux :
- 36% des sites évalués sont sensibles aux mobiles, de ceux-ci environ 60% ont des sous-domaines dédiés aux mobiles, domaines dédiés ou sous-répetoires spécifiques.
- Seulement 6% de tous les sites sont considérés comme rapide ou de haute performance, le reste étant considéré comme lent ou à faible rendement. Seulement 3% de tous les sites sont à la fois sensible et rapide.
Conclusion
Donc il y a 2 choix le site adaptatif ou réactif (responsive design) ou le site spécifique aux mobiles. À mon avis le premier est de loin la meilleure solution, si il est minutieusement programmé, car il ne nécessite pas un déboublement des tâches de conception, maintenance et veille.
Pour avoir un site réactif et performant aux mobiles je vous conseille une très bonne piste qui est le RWD Summit (Responsive Web Design).
16 avr. 2014
Les mobiles représente maintenant 27% du trafic sur le Web
Je dois mentionner au débart que cette statistique s'applique pour un très gros site Québécois du domaine touristique qui est plus suceptible d'attirer de la clientèle mobile qu'un domaine comme disons l'immobilier. Voici donc un comparatif d'un mois sur l'année précédente avec un échantillonage d'un peu plus de 400,000 visites.
Je suis surpris du déclin de 13% des Desktops et je crois que la grande partie de ce déclin vient principalement des tablettes.
Je suis surpris du déclin de 13% des Desktops et je crois que la grande partie de ce déclin vient principalement des tablettes.
5 mars 2014
Les filtres sont disparus de Google : Astuces pour les retrouver
Eh, oui ! Google nous a enlevé en douce les filtres de recherche pour je ne sais quelle raison ou du moins la seule que je vois c'est pour faire plus de recherches et vendre ainsi plus de la publicité.
Voici les filtres que nous avions au lancement des filtres vers 2009 :
Il y avait eu l'ajout de Vols et Recettes par la suite.
Voici depuis les filtres depuis la fin du mois de janvier. Je ne l'ai découvert que vers la mi-février et j'étais en .... pour être polie "en beau fusil." comme on dit en québécois. J'ai aussi été extrement surpris que personne ou presque n'en fasse de cas ! Google n'a même pas corrigé sa section Help sur les filtres !!!
Voici aujourd'hui les quelques filtres qui sont toujours disponibles :
J'utilisais beaucoup le filtre Blogs, spécialement pour la politique, - car souvent les médias sont associé à un parti -, et aussi pour les critiques de produits non-biaisés par les annonceurs des sites où ce font ces comparaisons.
Les Astuces pour les retrouver
Voici les filtres que nous avions au lancement des filtres vers 2009 :
Il y avait eu l'ajout de Vols et Recettes par la suite.
Voici depuis les filtres depuis la fin du mois de janvier. Je ne l'ai découvert que vers la mi-février et j'étais en .... pour être polie "en beau fusil." comme on dit en québécois. J'ai aussi été extrement surpris que personne ou presque n'en fasse de cas ! Google n'a même pas corrigé sa section Help sur les filtres !!!
Voici aujourd'hui les quelques filtres qui sont toujours disponibles :
J'utilisais beaucoup le filtre Blogs, spécialement pour la politique, - car souvent les médias sont associé à un parti -, et aussi pour les critiques de produits non-biaisés par les annonceurs des sites où ce font ces comparaisons.
Les Astuces pour les retrouver
1 mars 2014
Cherchez-vous les mots produits ou services dans Google ?
... Alors pourquoi 95% des sites l'ont dans leurs Urls et très souvent en menu principal !
Je vous propose aujourd'hui un billet d'une connaissance qui m'a fait plaisirs de lire car je rabâche cela depuis une douzaine d'années aux agences Web et à mes clients qui malheureusement ne l'implémentent pas toujours sur leurs sites.
Un des avantages non-cité dans ce billet est que cela réduit d'un niveau l'arborescence des produits ou services spécifiques. Donc, on se rapproche du nom de domaine dans l'Url, ce qui donne plus d'importance aux produits ou services.
Le billet de Simon Éthier d'Adviso.
Bémol
Combiner les conseils aux produits
Ici il faut faire attention que la combinaison comporte des mots-clés semblables ou la même racine. Si je regarde la capture d'écran, la location d'outils et de camion est un peu loin du produit.
Les facettes
J'ai bien hâte de voir comment il va amalgamer les facettes et le SEO dans son prochain billet. Ce n'est vraiment pas évident et cela exige une très bonne collaboration entre le spécialiste en optimisation et le programmeur pour bien présenter les ; fil d'Ariane, Titre et balise Title différentes aux clients et surtout aux moteurs de recherche tout en évitant le contenu dupliqué dans les résultats d'une recherche filtrée avec facettes.
Je vous propose aujourd'hui un billet d'une connaissance qui m'a fait plaisirs de lire car je rabâche cela depuis une douzaine d'années aux agences Web et à mes clients qui malheureusement ne l'implémentent pas toujours sur leurs sites.
Un des avantages non-cité dans ce billet est que cela réduit d'un niveau l'arborescence des produits ou services spécifiques. Donc, on se rapproche du nom de domaine dans l'Url, ce qui donne plus d'importance aux produits ou services.
Le billet de Simon Éthier d'Adviso.
Bémol
Combiner les conseils aux produits
Ici il faut faire attention que la combinaison comporte des mots-clés semblables ou la même racine. Si je regarde la capture d'écran, la location d'outils et de camion est un peu loin du produit.
Les facettes
J'ai bien hâte de voir comment il va amalgamer les facettes et le SEO dans son prochain billet. Ce n'est vraiment pas évident et cela exige une très bonne collaboration entre le spécialiste en optimisation et le programmeur pour bien présenter les ; fil d'Ariane, Titre et balise Title différentes aux clients et surtout aux moteurs de recherche tout en évitant le contenu dupliqué dans les résultats d'une recherche filtrée avec facettes.
12 janv. 2014
La Chine prend sérieusement les devants sur le Web
Pendant des années, Hugo Barra a été un des cadres des plus visibles chez Google. Il a été un chef de produit pour son équipe du système Android. Chaque année, à la plus grande conférence de Google, Google I/O, Hugo Barra a montrer les plus récentes nouveautés de Android au monde entier. Puis, en août 2013, Barra a quitté Google de travailler pour une entreprise chinoise. En décembre, il a donné une conférence au Web Tech à Paris en expliquant comment il a été totalement époustouflé par la dynamique chinoise des nouvelles technologies et du système d'éducation.
Voici sa présentation du Web Tech de Paris en décembre 2013 publié dans le Business Insider:
Le revenu des chinois est de plus en plus élevé. Il a triplé au cours des 8 dernières années.
La Chine a au moins 122 milliardaires, deuxième après les États-Unis.
La Chine a 600 millions d'utilisateurs Internet - avec 50 % de croissance en 3 ans.
Les énormes et récentes IPOs du marché boursier chinois.
Les entreprises Internet chinoises ont un bassin énorme d'utilisateurs. MAU est l'accronyme de « monthly active users », QZone en a 600 millions !
Alibaba, propriété de Taobao, - un site de shopping en ligne -, est deux fois plus important que eBay et Amazon combinés.
Le jour de la fête appelée « Jour des célibataires » Taobao a fait plus de deux fois de ventes que tous les sites de commerce électronique américains ont fait avec le « Cyber Monday ».
Certains sites comme JD, effectue la livraison en seulement 3 heures.
JD a une application, où vous pouvez voir où est le livreur avec votre commande.
Alipay est comme Paypal aux États-Unis, sauf que c'est beaucoup plus gros et plus versatile. Ont l'utilise même pour payer son taxi.
Weibo est comme Twitter, sauf qu'il est beaucoup plus gros. Barra avait 6,000 followers sur Twitter quand il était aux États-Unis. Après deux mois en Chine, il a déjà 200,000 adeptes sur Weibo.
Hugo Barra utilise WeChat pour gérer tous ses réseaux sociaux. Il l'utilise comme téléphone, courriel ou messagerie texte. WeChat a également une application semblable à Instagram.
L'« Uber of China » est une application surnommée Didi. Avec elle, vous laissez un message vocal au chauffeur d'un taxi pour lui dire où aller vous chercher, ou vous désirez aller et vous s'aurez combien il vous en coûtera.
Momo est une application de "dating" qui que vous permet de parler à des étrangers qui sont à proximité de vous. Il y a 100 millions d'utilisateurs.
Barra dit qu'il aime la Chine et est en train d'apprendre à parler la langue. Ici, il est à sa place favorite de dumpling.
Voici sa présentation du Web Tech de Paris en décembre 2013 publié dans le Business Insider:
Les chinois sont incroyablement éduqués avec 8 millions de diplômés par an — plus qu'aux États-Unis.
Le revenu des chinois est de plus en plus élevé. Il a triplé au cours des 8 dernières années.
La Chine a au moins 122 milliardaires, deuxième après les États-Unis.
La Chine a 600 millions d'utilisateurs Internet - avec 50 % de croissance en 3 ans.
Les énormes et récentes IPOs du marché boursier chinois.
Les entreprises Internet chinoises ont un bassin énorme d'utilisateurs. MAU est l'accronyme de « monthly active users », QZone en a 600 millions !
Alibaba, propriété de Taobao, - un site de shopping en ligne -, est deux fois plus important que eBay et Amazon combinés.
Le jour de la fête appelée « Jour des célibataires » Taobao a fait plus de deux fois de ventes que tous les sites de commerce électronique américains ont fait avec le « Cyber Monday ».
Certains sites comme JD, effectue la livraison en seulement 3 heures.
JD a une application, où vous pouvez voir où est le livreur avec votre commande.
Alipay est comme Paypal aux États-Unis, sauf que c'est beaucoup plus gros et plus versatile. Ont l'utilise même pour payer son taxi.
Weibo est comme Twitter, sauf qu'il est beaucoup plus gros. Barra avait 6,000 followers sur Twitter quand il était aux États-Unis. Après deux mois en Chine, il a déjà 200,000 adeptes sur Weibo.
Hugo Barra utilise WeChat pour gérer tous ses réseaux sociaux. Il l'utilise comme téléphone, courriel ou messagerie texte. WeChat a également une application semblable à Instagram.
L'« Uber of China » est une application surnommée Didi. Avec elle, vous laissez un message vocal au chauffeur d'un taxi pour lui dire où aller vous chercher, ou vous désirez aller et vous s'aurez combien il vous en coûtera.
Momo est une application de "dating" qui que vous permet de parler à des étrangers qui sont à proximité de vous. Il y a 100 millions d'utilisateurs.
Barra dit qu'il aime la Chine et est en train d'apprendre à parler la langue. Ici, il est à sa place favorite de dumpling.
10 janv. 2014
Commerce électronique : La Chine en première place mondiale en 2013
L'année 2013 se souviendra comme celle de la Chine qui a dépassé les États-Unis comme plus grand bassin pour le commerce de détail numérique du monde. L'an dernier, les acheteurs chinois en ligne ont dépensé... RMB 1,3 billions en ligne (234,7 milliard $ca, - voir note 1 -), une somme qui a augmenté de plus de 70 % par an depuis 2009 et devrait continuer sur sa trajectoire étonnante, qui atteindra 3,3 billions de RMB (593 milliard $ca) en 2015 (voir Figure 1-2). Le commerce de détail numérique a transformé sérieusement les habitudes d'achat , ouvrant d'immenses possibilités pour les détaillants et marques a prêter attention aux changements de marché et à la modification du comportement des consommateurs.
Source : Bain & Company
La Chine est aussi numéro 1 en commerce 1.0 ;-) selon le journal Le Monde.
Note 1 : Il s’est dépensé 21.3 milliards $ en ligne au Canada en 2012 et 225.5 milliards $ aux Etats-Unis sur la même période.
Source : Bain & Company
La Chine est aussi numéro 1 en commerce 1.0 ;-) selon le journal Le Monde.
Note 1 : Il s’est dépensé 21.3 milliards $ en ligne au Canada en 2012 et 225.5 milliards $ aux Etats-Unis sur la même période.
4 déc. 2013
2 déc. 2013
Un exemple à suivre : La finlande enseigne la programmation aux élèves du primaire
J'espère que le ministère de l'éducation du Québec verra cette nouvelle. Spécialement avec nos politiciens qui ne cessent de ce gargariser avec la cité du multimédia et les technopoles, il serait temps de former dès leurs jeunes âge nos futurs "whiz kids".
10 sept. 2013
Google dérape
Très rare de voir un dérapage semblable de Google qui affiche 5 premiers résultats d'un même site et plus loin trois autres encore d'un même domaine.
26 juin 2013
Le monde de la recherche bouleversé par les réseaux sociaux et par Google qui veut être plus blanc que blanc
Depuis quelques mois les intervenants en marketing Web et en SEO s'apercevaient de changements assez significatifs dans les données analytiques de leurs résultats. Mais depuis la troisième semaine de mai le monde de la recherche Web est sérieusement ébranlé. Google perd son poste de bon premier de classe contre... Facebook à l'échelle mondiale. Je peux confirmer que chez certains de mes clients Facebook est rendu le 2e référant.
Hier j'ai mis un billet en ligne en ne consultant que mes propres chiffres, et selon mon instinct des derniers mois, sans validation externe.
Aujourd'hui j'ai été voir des outils et forums spécialisés en recherche Web et j'ai été conforté par ce que j'ai lu. Il y a un fil chez le plus ancien forum dédié au SEO nommé "The State of the Internet (2013) - Summarised perspectives. " chez Webmaster World avec 272 commentaires qui traite beaucoup de Google et ses multiples changements récents d'algorithmes pas toujours très efficaces et qui tendent à "uniformiser" le Web. Mais le Web c'est des humains !
Il y plusieurs autres facteurs qui ont influencés les statistiques mais la conjecture entre l'uniformisation des résultats organiques et la plus grande utilissation des Facebook, Twiitter, Pinterest et autres font que nous allons voir plus de sites en passant par ces réseaux sociaux et leur WoM que par simple recherche.
Pour la première fois depuis plus de 10 ans Google passe sous les 40% de portée (Reach). |
Hier j'ai mis un billet en ligne en ne consultant que mes propres chiffres, et selon mon instinct des derniers mois, sans validation externe.
Aujourd'hui j'ai été voir des outils et forums spécialisés en recherche Web et j'ai été conforté par ce que j'ai lu. Il y a un fil chez le plus ancien forum dédié au SEO nommé "The State of the Internet (2013) - Summarised perspectives. " chez Webmaster World avec 272 commentaires qui traite beaucoup de Google et ses multiples changements récents d'algorithmes pas toujours très efficaces et qui tendent à "uniformiser" le Web. Mais le Web c'est des humains !
Il y plusieurs autres facteurs qui ont influencés les statistiques mais la conjecture entre l'uniformisation des résultats organiques et la plus grande utilissation des Facebook, Twiitter, Pinterest et autres font que nous allons voir plus de sites en passant par ces réseaux sociaux et leur WoM que par simple recherche.
25 juin 2013
Google en baisse et Bing en assez forte hausse
Ceci est un comparatif de janvier à juin 2013 versus la même période en 2012. L'échantillon compte près de 5 millions de visiteurs.
1 - Site avec forte présence sur réseaux sociaux
Google -26.14%
Bing -16.16%
2 - Très gros bottin municipal sans présence sur réseaux sociaux
Google 11.33%
Bing 36.73%
3 - Site touristique sans présence sur réseaux sociaux
Google -5.28%
Bing 11.59%
4 - Site touristique avec moyenne présence sur réseaux sociaux
Google -7.25%
Bing 28.54%
Site e-commerce sans présence sur réseaux sociaux
Google -15.56%
Bing 17.63%
Total
Google -8.58%
Bing 15,66%
Après des années a compiler des statistiques c'est la première fois que je suis autant surpris de voir de tels chiffres depuis 2002.
PS: Ceci n'a rien de scientifique mais cela est fondé sur près de 20 années de stats Web..
1 - Site avec forte présence sur réseaux sociaux
Google -26.14%
Bing -16.16%
2 - Très gros bottin municipal sans présence sur réseaux sociaux
Google 11.33%
Bing 36.73%
3 - Site touristique sans présence sur réseaux sociaux
Google -5.28%
Bing 11.59%
4 - Site touristique avec moyenne présence sur réseaux sociaux
Google -7.25%
Bing 28.54%
Site e-commerce sans présence sur réseaux sociaux
Google -15.56%
Bing 17.63%
Total
Google -8.58%
Bing 15,66%
Après des années a compiler des statistiques c'est la première fois que je suis autant surpris de voir de tels chiffres depuis 2002.
PS: Ceci n'a rien de scientifique mais cela est fondé sur près de 20 années de stats Web..
Retour sur la vie privée
Voici un retour sur un billet de novembre 2007 que j'avais écrit suite à une lecture sur autre blogue. Avec Prism, anciennement Échelon, on oublie beaucoup ces temps-ci que le secteur commercial vous espionne aussi depuis très longtemps.
19 juin 2013
Marketing : Push, Pull et SEO
L'avenir de push ou pull marketing sera toujours au coeur d'un vif débat.
Avec les médias sociaux sans cesse à la hausse, il y a une tendance à ne pas tenir compte de push marketing dans son intégralité. C'est une tendance à la hausse mais ne pas tenir compte du push serait une erreur.
Non seulement y a-t-il une place pour les deux, vous limiter à un ou l'autre empêchera votre capacité d'accéder à une croissance rentable.
Le push marketing
Le Push marketing est la publicité traditionnelle, dans laquelle vous « poussez » votre message sur le marché. Campagne de marketing par courriels, bannières, PpC, pub télé et radio sur les médias de masse, vente directe, foires commerciales et direct marketing sont inclus dans cette catégorie.
En un mot, le push marketing est d'acheter de l'intérêt populaire plutôt que de la mériter, d'utiliser une communication unidirectionnelle plutôt qu'une communication bidirectionnelle.
Nombreuses sont les stratégies push permettent un ciblage étroit pour s'assurer que vous ne gaspiller pas vos impressions payées sur des prospects non qualifiés.
Cas d'espèce : Même si le publipostage peut sembler désuet, il permet un ciblage sans précédent par le biais de base de données ciblant les consommateurs par; appartenances communautaires, produits intérêts, démographie de ménages et bien plus encore. Et même si une très grande proportion n'est jamais lu, le volume utilisé fait que cela demeure encore rentable.
Le pull marketing
En pull marketing, vous vous faites visible en fournissant des informations pertinentes ou un divertissement (viral) dans l'espoir que les acheteurs potentiels feront le lien avec ce que vous faites, qu'ils visitent votre site Web ou prennent contact avec vous pour en savoir plus.
Exemples des techniques de pull marketing ; l'optimisation Web (SEO), les médias sociaux, la messagerie instantanée incluant twitter, l'infographie actuarielle (représentations graphiques de données), des livres blancs, blogues, relations publiques et présentations. La nécessité de stratégies pull marketing est à la hausse.
Considérons que plus de 200 millions d'américains ont enregistré leur téléphone sur la liste « Ne pas appeler ». Plus de 40 % du publipostage n'est jamais ouvert. Plus 85 pour cent des consommateurs sautent les publicités télévisées. C'est pourquoi les commerçants rapportent qu'ils investiront plus en pull marketing cette année qu'auparavant.
Certaines techniques de pull marketing requierrent plus de temps a mettre en oeuvre et ainsi a rapporter comme les blogues, réseaux sociaux tandis que d'autres comme le SEO, les relations publiques et les présentation prennent moins de ressources et donnent des résultats plus rapidement.
Parce que votre appel à l'action marketing push est plus directe, le « temps de la première vente » est souvent plus court, bien que l'investissement initial en espèces est beaucoup plus élevé. Mais limiter votre stratégie globale de marketing à une ou l'autre portera atteinte à votre capacité d'atteindre toutes les catégories de l'acheteur éventuel mais la tendance actuelle et future va de plus en plus vers le pull marketing.
Ou peut-être vous avez une solution qui est tellement nouveau que vos prospects ne même pas sûr comment une recherche. Dans ces cas, push marketing est nécessaire afin d'aider les prospects se rendent compte de leurs besoins et envisager votre solution. La ligne du bas : pour offrir la couverture d'un grand marché, génération de leads et croissance des ventes rentable, nous devons pousser et tirer une variété de leviers.
Quand on y pense le SEO est aussi du push & pull, le push envers les moteurs de recherche et le pull envers le grand public qui les utilisent.
Avec les médias sociaux sans cesse à la hausse, il y a une tendance à ne pas tenir compte de push marketing dans son intégralité. C'est une tendance à la hausse mais ne pas tenir compte du push serait une erreur.
Non seulement y a-t-il une place pour les deux, vous limiter à un ou l'autre empêchera votre capacité d'accéder à une croissance rentable.
Le push marketing
Le Push marketing est la publicité traditionnelle, dans laquelle vous « poussez » votre message sur le marché. Campagne de marketing par courriels, bannières, PpC, pub télé et radio sur les médias de masse, vente directe, foires commerciales et direct marketing sont inclus dans cette catégorie.
En un mot, le push marketing est d'acheter de l'intérêt populaire plutôt que de la mériter, d'utiliser une communication unidirectionnelle plutôt qu'une communication bidirectionnelle.
Nombreuses sont les stratégies push permettent un ciblage étroit pour s'assurer que vous ne gaspiller pas vos impressions payées sur des prospects non qualifiés.
Cas d'espèce : Même si le publipostage peut sembler désuet, il permet un ciblage sans précédent par le biais de base de données ciblant les consommateurs par; appartenances communautaires, produits intérêts, démographie de ménages et bien plus encore. Et même si une très grande proportion n'est jamais lu, le volume utilisé fait que cela demeure encore rentable.
Le pull marketing
En pull marketing, vous vous faites visible en fournissant des informations pertinentes ou un divertissement (viral) dans l'espoir que les acheteurs potentiels feront le lien avec ce que vous faites, qu'ils visitent votre site Web ou prennent contact avec vous pour en savoir plus.
Exemples des techniques de pull marketing ; l'optimisation Web (SEO), les médias sociaux, la messagerie instantanée incluant twitter, l'infographie actuarielle (représentations graphiques de données), des livres blancs, blogues, relations publiques et présentations. La nécessité de stratégies pull marketing est à la hausse.
Considérons que plus de 200 millions d'américains ont enregistré leur téléphone sur la liste « Ne pas appeler ». Plus de 40 % du publipostage n'est jamais ouvert. Plus 85 pour cent des consommateurs sautent les publicités télévisées. C'est pourquoi les commerçants rapportent qu'ils investiront plus en pull marketing cette année qu'auparavant.
Certaines techniques de pull marketing requierrent plus de temps a mettre en oeuvre et ainsi a rapporter comme les blogues, réseaux sociaux tandis que d'autres comme le SEO, les relations publiques et les présentation prennent moins de ressources et donnent des résultats plus rapidement.
Parce que votre appel à l'action marketing push est plus directe, le « temps de la première vente » est souvent plus court, bien que l'investissement initial en espèces est beaucoup plus élevé. Mais limiter votre stratégie globale de marketing à une ou l'autre portera atteinte à votre capacité d'atteindre toutes les catégories de l'acheteur éventuel mais la tendance actuelle et future va de plus en plus vers le pull marketing.
Ou peut-être vous avez une solution qui est tellement nouveau que vos prospects ne même pas sûr comment une recherche. Dans ces cas, push marketing est nécessaire afin d'aider les prospects se rendent compte de leurs besoins et envisager votre solution. La ligne du bas : pour offrir la couverture d'un grand marché, génération de leads et croissance des ventes rentable, nous devons pousser et tirer une variété de leviers.
Quand on y pense le SEO est aussi du push & pull, le push envers les moteurs de recherche et le pull envers le grand public qui les utilisent.
13 juin 2013
Les réseaux sociaux convertissent et Facebook n'est pas si pire que ça pour les affaires hein Michelle
Avec un taux de conversion de 1,75% comparativement à 2,89% pour le site, l'utilité de Facebook n'en apparait pas moins bonne pour ce site de tourisme, qui oui a une page Facebook, mais que celle-ci est complètement statique, sans "post" et n'a que la section "À Propos" de remplit manuellement.
Donc ces visiteurs de Facebook viennent de leurs propres fils d'actualités et ont convertit en réservations sur le site de mon client. Pas si mal en 7 mois et sans aucun effort (15 min. au max).
Donc ces visiteurs de Facebook viennent de leurs propres fils d'actualités et ont convertit en réservations sur le site de mon client. Pas si mal en 7 mois et sans aucun effort (15 min. au max).
Même si ce 56,749$ ne représente que 0,5% du total des réservations, aucun effort et argent (pub) n'a été dépensé pour arrivé à ce montant. Donc les réseaux sociaux c'est tout de même nn bon début et on peut se demander avant l'avénement de ceux-ci commment ou combien le bouche à oreilles aurait pu générer ?
À toi la parole !
12 juin 2013
Utiliser les numéros de téléphone pour le renforcement des liens locaux
Construire des liens n'est pas très dur, tout ce que vous devez faire c'est de trouver des sites locaux crédibles qui se trouvent dans votre créneau particulier. Si vous souhaitez créer des backlinks pour un magasin d'électronique, il suffit de trouver les sites qui parlent de l'électronique ce qui est simple dans Google. Toutefois, si vous essayez de mettre l'accent sur le marketing local, cela peut être beaucoup plus difficile. Heureusement, les numéros de téléphone sont uniques. L'expérience a été de prendre les numéros de téléphone des entreprises concurrentes, puis les utiliser pour trouver des liens dans Google. Puis, prenant ces liens, il donnerait une liste de sites qui offrent des backlinks vers les entreprises locales.
Le résultat : Dans cette expérience particulière, une série de sites ont été trouvés avec des backlinks pour beaucoup des magasins concurrents. Ceci a permis de trouver des répertoires crédibles qui listes les entreprises de votre créneau et ainsi de mieux performer dans les résultats locaux.
La source : http://ontolo.com/blog/phone-number-co-citation-analysis-local-link-builders
Le résultat : Dans cette expérience particulière, une série de sites ont été trouvés avec des backlinks pour beaucoup des magasins concurrents. Ceci a permis de trouver des répertoires crédibles qui listes les entreprises de votre créneau et ainsi de mieux performer dans les résultats locaux.
La source : http://ontolo.com/blog/phone-number-co-citation-analysis-local-link-builders
11 juin 2013
L'importance des émotions dans les mots clés
Essayer de bien se positionner pour des mots clés courants ou compétitifs comme 'Rédacteur SEO' peut être incroyablement difficile spécialement si votre site est jeune. Mais un bon rédacteur SEO ajoutera des émotions à la tâche. Au lieu de focaliser sur ces mots précis, il ajoutera des sentiments comme la 'meilleure' et 'pire' à son site, afin d'essayer d'aider le positionnement du mot-clé principal.
Le résultat : Etonnamment cela a fonctionné, non seulement pour le « meilleur rédacteur SEO » mais aussi « pire ». Pourtant, parce que la plupart des gens en général chercheront celui qui convient, il n'est pas grave et peut s'avérer très utile.
La source : http://loudcow.com.au/funny-seo-experiment-a-must-read-for-all-seo-copywriters-in-da-world/
Le résultat : Etonnamment cela a fonctionné, non seulement pour le « meilleur rédacteur SEO » mais aussi « pire ». Pourtant, parce que la plupart des gens en général chercheront celui qui convient, il n'est pas grave et peut s'avérer très utile.
La source : http://loudcow.com.au/funny-seo-experiment-a-must-read-for-all-seo-copywriters-in-da-world/
10 juin 2013
Un bon classement est-il possible pour un nouveau site ? Tout dans le secret de la recette !
Classement d'un tout nouveau site rapidement :
Avec la mise à jour de Pingouin, Google a rendu beaucoup plus difficile pour les petits sites à se positionner rapidement sur des mots-clés. Maintenant, l'algorithme se concentre sur les grands sites faisant autorités avec beaucoup d'histique et de backlinks. Est-il donc toujours possible pour un nouveau site de se classer rapidement pour un mot clé ?
Cette étude de cas a suivi un nouveau site avec un mot-clé spécifique, ainsi qu'une série de backlinks moussés sur des sites faisant autorités. La stratégie de liaison a été de placer non seulement le mot-clé lui-même, mais aussi bien des expressions semblables (ce qui est un must depuis Pengouin) et de diffuser ces liens sur plusieurs sites.
Le résultat : moins de deux mois après le début de l'expérience, le site a réussi à atteindre la 4ème position pour le mot clé. Ce qui prouve que même après ces changements d'algorithme de Google, il est toujours possible pour un petit site, et tout frais, de bien se positionner dans les classements quand le référencement est effectué.
La source : http://www.seomoz.org/blog/postpenguin-anchor-text-case-study
Avec la mise à jour de Pingouin, Google a rendu beaucoup plus difficile pour les petits sites à se positionner rapidement sur des mots-clés. Maintenant, l'algorithme se concentre sur les grands sites faisant autorités avec beaucoup d'histique et de backlinks. Est-il donc toujours possible pour un nouveau site de se classer rapidement pour un mot clé ?
Cette étude de cas a suivi un nouveau site avec un mot-clé spécifique, ainsi qu'une série de backlinks moussés sur des sites faisant autorités. La stratégie de liaison a été de placer non seulement le mot-clé lui-même, mais aussi bien des expressions semblables (ce qui est un must depuis Pengouin) et de diffuser ces liens sur plusieurs sites.
Le résultat : moins de deux mois après le début de l'expérience, le site a réussi à atteindre la 4ème position pour le mot clé. Ce qui prouve que même après ces changements d'algorithme de Google, il est toujours possible pour un petit site, et tout frais, de bien se positionner dans les classements quand le référencement est effectué.
La source : http://www.seomoz.org/blog/postpenguin-anchor-text-case-study
Cas de spam et SEO
Récupération d'une sanction de SEO :
Si vous avez travaillé en SEO pendant un certain temps, vous le savez probablement que sur les mises à jour de Google, comment cette cie modifie constamment son algorithme pour tenter de supprimer les sites de spam. Il y a eu la mise à jour de Florida et plus récemment Panda et Pingouin en particulier qui a fait que beaucoup de sites ont perdu leur classement. Parfois, la raison derrière cette pénalité peut être difficile à reperer, mais si vous ne l'a trouvez pas, il est difficile de récupérer ? En analysant les données avant et après un tel changement, un groupe de spécialistes du marketing ont regardé leur logiciel d'analyse pour savoir de quel temps il a fallu pour eux d'augmenter leur PageRank.
Le résultat : il s'avère que cette récupération après une telle sanction est difficile et il faut un certain temps. Et même si vous corriger le problème, il est difficle de récupérer votre classement complètement. L'expérience a montré que vous pouvez reprendre sur le classement précédent que vous avez utilisé pour avoir au fil du temps.
La source : http://www.seomoz.org/blog/recovering-from-the-penguin-update-a-true-story
Tests techniques de SEO négatifs :
Du marketing en ligne est toujours prompt à nous dire comment nous devrions nous en tenir aux techniques white hat, toujours utiliser des méthodes qui sont autorisées par Google et évitent d'utiliser des raccourcis qui peuvent sembler attrayant, mais apparemment ces faits peuvent provoquer que votre site perdre le classement si il est découvert. Mais ces avertissements ne sont vraiment réel ? Les techniques de SEO négatifs conduisent à une perte de rang ? Pour tester ceci, un site classé en 3ème position pour un mot-clé spécifique a été vérifié, et beaucoup de liens de spam ont été ajoutés. Au total, 7 000 liens forum, 45 000 Commentaires de blog et 4 000 liens de barre latérale.
Le résultat : Tout en suivant le classement, tout de suite l'expérience a montré qu'une perte de classement. Dans moins d'un mois, le site avait pris la 14e position pour ce même mot clé.
La source : http://www.tastyplacement.com/infographic-testing-negative-seo
Si vous avez travaillé en SEO pendant un certain temps, vous le savez probablement que sur les mises à jour de Google, comment cette cie modifie constamment son algorithme pour tenter de supprimer les sites de spam. Il y a eu la mise à jour de Florida et plus récemment Panda et Pingouin en particulier qui a fait que beaucoup de sites ont perdu leur classement. Parfois, la raison derrière cette pénalité peut être difficile à reperer, mais si vous ne l'a trouvez pas, il est difficile de récupérer ? En analysant les données avant et après un tel changement, un groupe de spécialistes du marketing ont regardé leur logiciel d'analyse pour savoir de quel temps il a fallu pour eux d'augmenter leur PageRank.
Le résultat : il s'avère que cette récupération après une telle sanction est difficile et il faut un certain temps. Et même si vous corriger le problème, il est difficle de récupérer votre classement complètement. L'expérience a montré que vous pouvez reprendre sur le classement précédent que vous avez utilisé pour avoir au fil du temps.
La source : http://www.seomoz.org/blog/recovering-from-the-penguin-update-a-true-story
Tests techniques de SEO négatifs :
Du marketing en ligne est toujours prompt à nous dire comment nous devrions nous en tenir aux techniques white hat, toujours utiliser des méthodes qui sont autorisées par Google et évitent d'utiliser des raccourcis qui peuvent sembler attrayant, mais apparemment ces faits peuvent provoquer que votre site perdre le classement si il est découvert. Mais ces avertissements ne sont vraiment réel ? Les techniques de SEO négatifs conduisent à une perte de rang ? Pour tester ceci, un site classé en 3ème position pour un mot-clé spécifique a été vérifié, et beaucoup de liens de spam ont été ajoutés. Au total, 7 000 liens forum, 45 000 Commentaires de blog et 4 000 liens de barre latérale.
Le résultat : Tout en suivant le classement, tout de suite l'expérience a montré qu'une perte de classement. Dans moins d'un mois, le site avait pris la 14e position pour ce même mot clé.
La source : http://www.tastyplacement.com/infographic-testing-negative-seo
5 juin 2013
Études de cas SEO
Si vous possédez une entreprise en ligne, ou travaillez dans le monde de l'optimisation Web (SEO), alors vous savez sans doute maintenant que le SEO n'est pas une science exacte. Contrairement à la chimie, il n'y a pas de formule qui garantit le succès. Il ne suffit pas de mélanger les ingrédients ensemble afin d'obtenir une substance qui sera la même chaque fois. Les changements des algorithmes de recherche, près de 200 fois par année, fait qu'il faut constamment s'adapter. En fait très peu de gens vont s'en tenir à un seul système toute leur vie, et un bom stratège en marketing fera constamment des expériences et des tests afin de voir ce qui fonctionne et ce qui ne fonctionne plus.
Voici une liste de 5 études de cas qui ont été testé, et si ils s'est avéré pour être réussie ou non.
1. Un URL en plein texte sans lien :
Dans cette expérience, un groupe de commerçants du secteur académique ont remarqué quelque chose d'assez intéressant dans certains des sites Web dans les domaines universitaires et collégiaux. Beaucoup de fois, quand un article scientifique ou autre texte académique serait produit, la convention dit que liens devrait être précisée, écrit sur la page sans avoir un lien. Par exemple, ils écriraient http://example.com au lieu d'avoir un mot/expression clé avec un lien. Donc ils ont voulu savoir quelle différence qui fait pour les moteurs de recherche et de découverte.
Le résultat : Malheureusement, le test n'a donné aucun résultat positif. Il semble que les gens n'allaient pas vers le nouvel URL en plein texte mais sans lien. Une chose qu'ils ont noté toutefois est que Google va découvrir l'URL en texte brut.
La source : http://dejanseo.com.au/seo-experiment-with-non-link-references
2. L'expérience de résultats de recherche influant sur Google + et Twitter :
Quand Google a présenté les résultats de recherche en temps réel, cela signifiait que les tweets étaient tout à coup, faisaient partie des résultats. Cela veut dire quevos tweets étaient maintenant visible dans les résultats de la recherche. Mais peu de temps après, la compagnie a désapprouvé ses résultats. Les tweets influencent-ils encore les résultats de recherche ? Cette expérience est centrée autour d'un seul tweet reliant à une URL non indexé.
Ce qui est vite devenu clair, c'est que Google ne semble plus avoir accès au fil d'information de Twitter, il y a assez mais avec le "scraping" et autres sites agrégateurs rend pretinant certains résultats de recherche, quoiqu'un peu plus lentement. Mais Google + vit une transition beaucoup plus rapide dans le social, avec des résultats qui apparaissent en quelques minutes.
Le résultat : il ne fait aucun doute de cette expérience qu'un tweet et un billet Google + influence les résultats de recherche, même si Google + semble avoir un effet plus immédiat.
La source : http://www.seomoz.org/blog/do-tweets-still-effect-rankings
3. Le PageRank dépend du nombre de liens :
La question ici est de savoir si oui ou non le nombre de liens sortants sur un site fait autorité en terme de PageRank. Donc pour le savoir, l'expérience a utilisé deux sites tout nouveau et a ajouté un backlink unique. Le premier était un site qui a eu un nombre modéré de liens déjà, tandis que le second site en a des milliers. Le but ici était de voir si Google pénalisé les backlinks sur des sites qui avaient déjà trop de liens.
Le résultat : Ce qu'a montré ce test est qu'il semble être sans incidence sur le nombre de backlinks existant actuellement. Les deux sites augmentent leur classement vers le haut de la même façon pendant des mois.
La source : http://dejanseo.com.au/pagerank-split-experiment
4. Un blogue très actif :
Une petite entreprise financière avec un site en ligne a un trafic plafonnant pendant des mois. Et finalement ils ont reçu les fonds nécessaires et go pour une campagne de marketing en ligne. Ce qu'ils voulaient tester était si à l'aide des billets réguliers, combinées avec les médias sociaux, si il pourrait augmenter leur trafic de recherche à long terme. Ils ont blogué pour 100 jours d'affilée, prenant des questions de Twitter auprès de leurs clients et en prime réalise des vidéos pour générer du trafic vers leur site.
Le résultat: Parce que leurs chiffres de trafic avaient été stables pendant si longtemps, ils avaient une belle base de comparaison. Quand ils ont commencé à bloguer, ils ont tout de suite vu leurs chiffres de trafic grimper. En prime ils ont pu suivre mots clés longue traîne, montrant que le trafic était en hausse. Il ne fait aucun doute que dans cette expérience, une augmentation du SEO était un bon investissement.
La source : http://www.ryanhanley.com/results-small-business-seo-experiment
5. Le détournement de texte (Hijacking) :
Dans le cadre de son algorithme, Google a une règle que le contenu dupliqué ne sera pas affichée dans ses résultats. Cela signifie que si un second site copie une page d'un premier site, et ses commentaires, alors cette copie ne sera pas affiché dans Google.
Toutefois, il est possible pour le second site de détourner ce contenu, et faire apparaître ce contenude manière légitime. La façon dont Google décide quel site sera affiché est celui qui a la plus haut PageRank. Donc tout ce que le site qui copie a à faire c'est s'assurer qu'ils obtiennent plus de backlinks.
Le résultat : L'expérience a montré qu'il est en effet possible pour un tout nouveau site de détourner le contenu d'un site légitime. Cependant, il y a certaines défenses qui peuvent aider à éviter cela. L'un est en utilisant la balise canonical, et l'autre est d'avoir un profil Google + avec un balisage de paternité.
Voici une liste de 5 études de cas qui ont été testé, et si ils s'est avéré pour être réussie ou non.
1. Un URL en plein texte sans lien :
Dans cette expérience, un groupe de commerçants du secteur académique ont remarqué quelque chose d'assez intéressant dans certains des sites Web dans les domaines universitaires et collégiaux. Beaucoup de fois, quand un article scientifique ou autre texte académique serait produit, la convention dit que liens devrait être précisée, écrit sur la page sans avoir un lien. Par exemple, ils écriraient http://example.com au lieu d'avoir un mot/expression clé avec un lien. Donc ils ont voulu savoir quelle différence qui fait pour les moteurs de recherche et de découverte.
Le résultat : Malheureusement, le test n'a donné aucun résultat positif. Il semble que les gens n'allaient pas vers le nouvel URL en plein texte mais sans lien. Une chose qu'ils ont noté toutefois est que Google va découvrir l'URL en texte brut.
La source : http://dejanseo.com.au/seo-experiment-with-non-link-references
2. L'expérience de résultats de recherche influant sur Google + et Twitter :
Quand Google a présenté les résultats de recherche en temps réel, cela signifiait que les tweets étaient tout à coup, faisaient partie des résultats. Cela veut dire quevos tweets étaient maintenant visible dans les résultats de la recherche. Mais peu de temps après, la compagnie a désapprouvé ses résultats. Les tweets influencent-ils encore les résultats de recherche ? Cette expérience est centrée autour d'un seul tweet reliant à une URL non indexé.
Ce qui est vite devenu clair, c'est que Google ne semble plus avoir accès au fil d'information de Twitter, il y a assez mais avec le "scraping" et autres sites agrégateurs rend pretinant certains résultats de recherche, quoiqu'un peu plus lentement. Mais Google + vit une transition beaucoup plus rapide dans le social, avec des résultats qui apparaissent en quelques minutes.
Le résultat : il ne fait aucun doute de cette expérience qu'un tweet et un billet Google + influence les résultats de recherche, même si Google + semble avoir un effet plus immédiat.
La source : http://www.seomoz.org/blog/do-tweets-still-effect-rankings
3. Le PageRank dépend du nombre de liens :
La question ici est de savoir si oui ou non le nombre de liens sortants sur un site fait autorité en terme de PageRank. Donc pour le savoir, l'expérience a utilisé deux sites tout nouveau et a ajouté un backlink unique. Le premier était un site qui a eu un nombre modéré de liens déjà, tandis que le second site en a des milliers. Le but ici était de voir si Google pénalisé les backlinks sur des sites qui avaient déjà trop de liens.
Le résultat : Ce qu'a montré ce test est qu'il semble être sans incidence sur le nombre de backlinks existant actuellement. Les deux sites augmentent leur classement vers le haut de la même façon pendant des mois.
La source : http://dejanseo.com.au/pagerank-split-experiment
4. Un blogue très actif :
Une petite entreprise financière avec un site en ligne a un trafic plafonnant pendant des mois. Et finalement ils ont reçu les fonds nécessaires et go pour une campagne de marketing en ligne. Ce qu'ils voulaient tester était si à l'aide des billets réguliers, combinées avec les médias sociaux, si il pourrait augmenter leur trafic de recherche à long terme. Ils ont blogué pour 100 jours d'affilée, prenant des questions de Twitter auprès de leurs clients et en prime réalise des vidéos pour générer du trafic vers leur site.
Le résultat: Parce que leurs chiffres de trafic avaient été stables pendant si longtemps, ils avaient une belle base de comparaison. Quand ils ont commencé à bloguer, ils ont tout de suite vu leurs chiffres de trafic grimper. En prime ils ont pu suivre mots clés longue traîne, montrant que le trafic était en hausse. Il ne fait aucun doute que dans cette expérience, une augmentation du SEO était un bon investissement.
La source : http://www.ryanhanley.com/results-small-business-seo-experiment
5. Le détournement de texte (Hijacking) :
Dans le cadre de son algorithme, Google a une règle que le contenu dupliqué ne sera pas affichée dans ses résultats. Cela signifie que si un second site copie une page d'un premier site, et ses commentaires, alors cette copie ne sera pas affiché dans Google.
Toutefois, il est possible pour le second site de détourner ce contenu, et faire apparaître ce contenude manière légitime. La façon dont Google décide quel site sera affiché est celui qui a la plus haut PageRank. Donc tout ce que le site qui copie a à faire c'est s'assurer qu'ils obtiennent plus de backlinks.
Le résultat : L'expérience a montré qu'il est en effet possible pour un tout nouveau site de détourner le contenu d'un site légitime. Cependant, il y a certaines défenses qui peuvent aider à éviter cela. L'un est en utilisant la balise canonical, et l'autre est d'avoir un profil Google + avec un balisage de paternité.
3 juin 2013
Google admet enfin que le SEO négatif existe
Pendant des années, Google tenait mordicus sur la position qu'il y avait peu de chance que vos concurrents de Google puissent nuire à votre site Web.
Comme les liens "naturels" sont devenus plus précieuses et les liens payants ont été dévaluées ou pénalisés, Google a changé légèrement son attitude sur la question, mais a toujours maintenu que ce n'était pas un problème répandu. Sauf que Matt Cuttsm ingénieur spam chez Google lui admettait que le SEO négatif n'est pas impossible, mais il est difficile.
Puis est venu l'Outil désavouer des liens, qui permet aux webmestres de désavouer des liens payés ou de basses qualités et nettoyer leur profil de backlink, peu importe si vous, ou un concurrent, était responsable de ces backlinks de liens à un votre site Web.
Maintenant Google a modifié sa position une fois de plus, disant simplement que Google travaille à empêcher des concurrents d'utiliser le SEO négatif.
Le changement a été noté sur la page d'aide « Vos concurrents peuvent nuire classement? » dans le Google Webmaster Tools.
C'est un aveu clair que oui, le SEO négatif existe et il peut entraîner des tierces parties, d'être en mesure de supprimer de l'index de recherche Google les sites concurrents ou au moins nuire à leur classement de recherche.
Comme les liens "naturels" sont devenus plus précieuses et les liens payants ont été dévaluées ou pénalisés, Google a changé légèrement son attitude sur la question, mais a toujours maintenu que ce n'était pas un problème répandu. Sauf que Matt Cuttsm ingénieur spam chez Google lui admettait que le SEO négatif n'est pas impossible, mais il est difficile.
Puis est venu l'Outil désavouer des liens, qui permet aux webmestres de désavouer des liens payés ou de basses qualités et nettoyer leur profil de backlink, peu importe si vous, ou un concurrent, était responsable de ces backlinks de liens à un votre site Web.
Maintenant Google a modifié sa position une fois de plus, disant simplement que Google travaille à empêcher des concurrents d'utiliser le SEO négatif.
Le changement a été noté sur la page d'aide « Vos concurrents peuvent nuire classement? » dans le Google Webmaster Tools.
- À la première mouture de la page, elle disait simplement « Il n'y a rien qu'un concurrent peut faire pour nuire à votre positionnement ou d'avoir votre site supprimé de notre index. »
- L'an dernier, quand le SEO négatif est devenu beaucoup plus répandu, le libellé a été modifié pour « Il n'y a presque rien qu'un concurrent peut faire pour nuire à votre positionnement ou d'avoir votre site supprimé de notre index. »
- Cette semaine, les webmestres ont remarqué que le libellé a été modifié une fois de plus « Google travaille dur pour empêcher les autres webmestres d'être capable de nuire à votre positionnement ou d'avoir votre site supprimé de notre index. »
C'est un aveu clair que oui, le SEO négatif existe et il peut entraîner des tierces parties, d'être en mesure de supprimer de l'index de recherche Google les sites concurrents ou au moins nuire à leur classement de recherche.
1 juin 2013
28 mai 2013
Les tableaux de bord Analytics sont de très précieux outils
Voici ma dernière création. Avoir en un seul tableau de bord plusieurs informations centralisées sur une seule page pour avoir les statistiques des vos réseaux sociaux.dans Google Analytics.
Veuillez m'écrire par courriel pour y avoir accès si vous le trouvez intéressant.
Tableau de bord réseaux sociaux |
27 mai 2013
Design Parallax : Le dernier joujou des designers et publicitaires Web pour remplacer Flash
Le design parallax est très à la mode dans les boîtes Web "trendy" en ce moment. Surtout si ses principaux dirigeants viennent du monde de la pub, il y a de bonnes chances qu'ils bandent là-dessus... Un peu comme à l'apparition du Flash de Macromédia en 96 et devenu populaire en agence vers 98-99 et qui perdura jusqu'en 2010.
Les problématiques du design parallaxe
La conception de sites Web en parallaxe n'est simplement pas SEO-friendly. En raison de la nature des sites Web fait en parallaxe, tout le contenu du site est habituellement sur une seule page. Cela signifie que vous manquez l'occasion de définir d'importantes données; comme les balises titre, balises meta-description et balises H1/H2 dans le site, qui sont un des facteurs plus importants pour déterminer le classement de la page dans les moteurs de recherche.
En prime le temps de chargement du site qui parfois atteint plus de 5 secondes et j'en ai vu jusqu'à 13 secondes sur haute vitesse cablé !!! Et très dur à mettre en responsive design pour les tablettes et mobiles.
Voici un exemple du point de vue moteur de recherche en réponse à un client de la part d'un site en parallaxe:
- Le client demande au moteur un service très spécifique pour comblé ses besoins.
- Le site en Paralaxe lui répond : Voici l'histoire de ma compagnie, les biographies de mes employés, la liste de mes produits et services, mes réalisations ou mon portefolio, la location de nos points de ventes et les façons de nous contacter.
Disons que le client est déjà chez vos compétiteurs car tout déblatérer, comme le fait un site parallaxe, n'est pas une réponse proprice et ne vous positionnera jamais pour des requêtes pointues qui sont en très grande majoritées celles qui convertissent le mieux un visiteur en un client.
Voici un exemple de site en parallaxe :
Très beau et pour une marque de jus très hip et à la mode mais avec une campagne marketing énorme pour l'appuyer : http://activatedrinks.com/
Les problématiques du design parallaxe
La conception de sites Web en parallaxe n'est simplement pas SEO-friendly. En raison de la nature des sites Web fait en parallaxe, tout le contenu du site est habituellement sur une seule page. Cela signifie que vous manquez l'occasion de définir d'importantes données; comme les balises titre, balises meta-description et balises H1/H2 dans le site, qui sont un des facteurs plus importants pour déterminer le classement de la page dans les moteurs de recherche.
En prime le temps de chargement du site qui parfois atteint plus de 5 secondes et j'en ai vu jusqu'à 13 secondes sur haute vitesse cablé !!! Et très dur à mettre en responsive design pour les tablettes et mobiles.
Voici un exemple du point de vue moteur de recherche en réponse à un client de la part d'un site en parallaxe:
- Le client demande au moteur un service très spécifique pour comblé ses besoins.
- Le site en Paralaxe lui répond : Voici l'histoire de ma compagnie, les biographies de mes employés, la liste de mes produits et services, mes réalisations ou mon portefolio, la location de nos points de ventes et les façons de nous contacter.
Disons que le client est déjà chez vos compétiteurs car tout déblatérer, comme le fait un site parallaxe, n'est pas une réponse proprice et ne vous positionnera jamais pour des requêtes pointues qui sont en très grande majoritées celles qui convertissent le mieux un visiteur en un client.
Voici un exemple de site en parallaxe :
Très beau et pour une marque de jus très hip et à la mode mais avec une campagne marketing énorme pour l'appuyer : http://activatedrinks.com/
23 mai 2013
Le nouveau Google Maps et le SEO
Avec l'arrivée imminente du nouveau Google Maps on se rend compte de l'utilité de parler de services ou produits connexes dans nos site Web.
Un des secteurs le plus évident est le domaine touristique mais cela aussi vaut dans beaucoup d'autres secteurs. Voici une recherche effectué sur Google Maps avec comme requête "croisière aux baleines, La Malbaie" :
Plusieurs auberges, hôtels et camping sont affichés sur la carte car dans leur site Web ils ont une section "Activités" où il mentionne les croisières aux baleines dans la région.
Cela met en évidence de parler de sujets autres que ce que l'on a principalement à vendre sur son site. Plus on donne d'importance au sujet dans ses pages, et en prime si l'on a une page Google+, plus le point rouge sera volumineux. Les icones avec un carré indique les fournisseurs de croisières.
Un des secteurs le plus évident est le domaine touristique mais cela aussi vaut dans beaucoup d'autres secteurs. Voici une recherche effectué sur Google Maps avec comme requête "croisière aux baleines, La Malbaie" :
Plusieurs auberges, hôtels et camping sont affichés sur la carte car dans leur site Web ils ont une section "Activités" où il mentionne les croisières aux baleines dans la région.
Cela met en évidence de parler de sujets autres que ce que l'on a principalement à vendre sur son site. Plus on donne d'importance au sujet dans ses pages, et en prime si l'on a une page Google+, plus le point rouge sera volumineux. Les icones avec un carré indique les fournisseurs de croisières.
20 mai 2013
Optimisation Web d'un site existant versus refonte optimisée
Voici une étude cas typique d'optimisation versus refonte avec optimisation
Voici le rapport des visiteurs d'un site d'un de mes clients avec qui je fais des affaires depuis 2008 pour ses clients et en 2010 pour un de ses propre sites.
À l'époque il avait en moyenne 15 à 19,000 visiteurs par mois et après quelques interventions étalées sur une années on a atteind les 30 à 35,000 visiteurs. Ensuite avec quelques modifications supplémentaires nous atteignons le seuil des 40,000 visiteurs mais on plafonne pour 6 mois.
Finalement avec le lancement du nouveau site optimisé (2ème flèche rouge) nous atteignons les 77,000 visiteurs/mois avec un taux de rebond diminué de 3%. Il faut dire sur ce dernier point que la page Facebook aussi créée amène près de 16% du trafic a elle un taux de rebond supérieur.
Voici un comparatif sur un mois en début de mandat et aujourd'hui :
À quel coût pour mon client ? Moins de 3,700 $ en 3 ans et demi avec une page Facebook en prime.
Morale : Repartir en neuf est souvent plus efficace et beaucoup plus rapide pour atteindre vos objectifs.
17 mai 2013
Il y a près de 500 millions de requêtes par jour posées à Google que le moteur de recherche n'avait jamais vu
Quelques autres statistiques intéressante ici provenant de John Wiley qui est designer en chef dans la division recherche chez Google :
Source : Business Insider
- Google dit qu'il a trouvé 30,000 milliards (30 trillions mais je hais ce mot ;-) d'adresses uniques sur le Web, c-a-d ; sites Web, applications web et autres bidules connecté à Internet.
- Chaque jour, les robots de Google visites 20 milliards de site par jour.
- Google traite les 3,3 milliards de recherches chaque jour.
- Google traite les 100 milliards de recherches chaque mois.
Source : Business Insider
Internet : Le Québec 7 points en retard sur le reste du Canada
Tout de même surprenant cette étude conjointe du Bureau de la Télévision (BTV) et de BBM Analytics présenté par Emarketer.
On écoute un peu plus la télé et la radio mais heureusement pour certains on lit plus les journaux !
On écoute un peu plus la télé et la radio mais heureusement pour certains on lit plus les journaux !
8 mai 2013
Réseaux sociaux : Des pires pratiques aux meilleures
Je suis tombé aujourd'hui sur un billet évocateur des pires pratiques et aussi sur une excellente présentation :
Un exemple des pires pratiques
Les entreprises se sont-elles égarées sur les médias sociaux ?
Ici j'aurais bien aimé savoir de quelle boîte parle ce billet dans la présentation ?
Un exemple des meilleures pratiques dans cette étude de cas
Cette présentation d'une étude de cas de Guillaume Brunet est vraiment géniale tant dans sa présention que dans la qualité. C'est très rare de pouvoir comprendre une diapo à 99% sans avoir à assiter à la présentation par son auteur. Bravo !
Un exemple des pires pratiques
Les entreprises se sont-elles égarées sur les médias sociaux ?
Ici j'aurais bien aimé savoir de quelle boîte parle ce billet dans la présentation ?
Un exemple des meilleures pratiques dans cette étude de cas
Étude exclusive - Web, mobilité, réseaux sociaux: promouvoir son évènement et valoriser ses commanditaires - panorama numérique de nos événements majeurs from Guillaume Brunet
Cette présentation d'une étude de cas de Guillaume Brunet est vraiment géniale tant dans sa présention que dans la qualité. C'est très rare de pouvoir comprendre une diapo à 99% sans avoir à assiter à la présentation par son auteur. Bravo !
Les pages d'affaires de Facebook sont de moins en moins performantes
Vous avez travaillé fort depuis 2-3 ans pour vous monter une belle base de fans de votre pages d'affaires de Facebook et vous penser qu'une grande partie de vos 4000 fans durement acquis veront vos publications de votre page.
Déchanter ! C'est maintenant entre 1% et au gros maximum 10% depuis l'automne dernier et dernièrement l'algorithme EdgeRank de Facebook a été modifié et c'est plutôt entre 1% et 5% depuis février.
Pourquoi ?
Pour engranger plus d'argent avec les "promoted post" qui eux vont apparaître sur les fils d’actualités de vos fans et qui ont été lancés l'été dernier.
Cela explique en partie la montée des petits nouveaux comme Pinterest, Instagram et la plus grande utilisation de Google+ et Linkedin.
Source :
Forbes
VB Social
Déchanter ! C'est maintenant entre 1% et au gros maximum 10% depuis l'automne dernier et dernièrement l'algorithme EdgeRank de Facebook a été modifié et c'est plutôt entre 1% et 5% depuis février.
Pourquoi ?
Pour engranger plus d'argent avec les "promoted post" qui eux vont apparaître sur les fils d’actualités de vos fans et qui ont été lancés l'été dernier.
Cela explique en partie la montée des petits nouveaux comme Pinterest, Instagram et la plus grande utilisation de Google+ et Linkedin.
Source :
Forbes
VB Social
S'abonner à :
Messages (Atom)