| Audit SEO Gratuit | Fil RSS |


24 oct. 2019

Indexation vous vous rappelez ?

Série nostalgie 

 Je suis tombé ce matin sur un article de blogue de 2009 qui parlait de moi et qui relatait un bulletin que j'ai écrit à l'époque « avant blogue »
dans mon bulletin Le Référenceur, en... 2000.

Le rayonnement sur le web a connu deux grands bouleversements depuis l’an 2000 qui ont changé profondément les règles à suivre pour profiter au maximum d’une présence web. Le premier fut l’introduction du concept PageRank par Google et le deuxième a été l’utilisation du web social en affaires qui a fait ses débuts il y a cinq ans. Ces deux changements ont eu pour effet de démocratiser considérablement l’accès aux bons résultats dans les moteurs de recherches et introduit également la possibilité pour une petite organisation, à la limite un agent libre, de se bâtir un capital d’influence croissante dans des marchés de niche. En guise de survol rapide de l’évolution du rayonnement web, je vous fais part dans le texte qui suit de mes deux façons différentes de voir la chose dans le temps.
Voici ce que je disais du référencement, – l’ancêtre du rayonnement web -,  dans mon bulletin Le Référenceur, en 2000, qui était envoyé à mes clients à l’époque avant que je n’utilise les blogues pour mes communications :
Qu’est-ce que le référencement (en 2000) ?
Définition en 2000 : Le référencement est un travail de recherche, d’optimisation et de promotion qui permet d’augmenter la visibilité d’un site sur Internet et développer son trafic.
Il est habituellement composé de 4 étapes :
  • Une recherche sur votre clientèle cible, sur vos concurrents Web, sur vos stratégies promotionnelles et marketing passées et à venir. (environ 25% du travail)
  • L’optimisation est un enrichissement du code de programmation de vos pages et de votre site internet avec des mots clefs appropriés. (55%)
  • La promotion (inscription) de votre site dans les moteurs et annuaires de recherches. (5%)
  • La promotion de votre site sur des portails et sites spécialisés dans votre créneau. (15%)
Voici ce que je mentionne maintenant en 2009 dans mes notes de formations ou dans mes présentations :
Qu’est-ce que le rayonnement web (en 2009) ?
Définition : L’optimisation des communications d’un client sur le Web.
La définition est maintenant plus simple, mais le travail de rayonnement web recouvre maintenant non seulement le site internet d’un client, mais les divers autres moyens de communication mis à sa disposition sur la Toile, que ce soit son ou ses blogues, sa page Facebook, son profil LinkedIn, son compte Twitter, sa page MySpace, ses messageries instantanées, des micros-applications « embarquées », bientôt « ses vagues » sur Google Wave, etc.
Avant le début des années 2000, la communication sur le Web était une communication unidirectionnelle, de son site vers ses futurs clients tout comme celle des médias traditionnels.
Maintenant avec l’avènement des blogues, réseaux sociaux et solutions de communication Web plus évolués, une autre dynamique fondamentale s’est ajoutée, la bidirectionnalité, c’est-à-dire l’écoute, et sensément, des réponses aux communications envoyées.
Avant les années 2000 les seuls retours d’information étaient les statistiques Web tirées des fichiers journaux des serveurs (log files) ainsi que quelques autres moyens, – qui sont actuellement presque des artéfacts – courriels, formulaires de demande d’information, achats en ligne et téléphones reçus chez le client (avec mention du style « je vous ai vu sur le Web »).
Un des « nouveaux » éléments initiés par le Web 2.0 est donc la veille de ce qui se dit sur vous et votre capacité à bien répondre à vos clients potentiels. Mais avant de bien comprendre ce que nous vivons actuellement et de supputer l’avenir, regardons un peu le passé pour essayer d’anticiper l’avenir des communications sur le Web.
Historique du Rayonnement Web
-      Indexation (95-98)
Au début du « World Wide Web », la meilleure méthode pour une entreprise de se faire connaître était de se créer un site Web et ensuite de le soumettre aux différents répertoires et moteurs de recherche de l’époque comme Lycos, Yahoo, Webcrawler, Magellan, Altavista, Excite, InfoSeek et autres destinations semblables de l’époque.
Le principal moyen de se faire connaître à l’époque était de « s’indexer » dans les moteurs de recherche. L’indexation consistait simplement à soumettre son site dans le formulaire du répertoire ou du moteur de recherche pour que celui-ci liste votre site dans ses résultats et/ou dans son répertoire. L’autre moyen, toujours pertinent à ce jour, était de consulter et participer aux divers forums de discussions sur ses champs d’expertises et d’y inscrire des liens vers son site Web.
-       Référencement (97-2002)
Vers la fin des années 1990, – vers 97-99, la dynamique de recherche d’informations sur le Web change tranquillement et s’en suit une nouvelle évolution qui s’installe avec des moteurs de recherche de plus en plus « intelligents » – pour l’époque -, ou plutôt de moins en moins niais, avec des ébauches de sémantique et d’aggrégation des liens « d’autorités ». Cette dernière « innovation » a été introduite par Google avec le système PageRank qui fait ressortir une adresse de mieux en mieux dans les résultats de recherche au fur et à mesure de l’accumulation des liens, en tenant compte de leur qualité. Ce procédé va révolutionner la recherche sur le Web.
-       Optimisation Web – SEO – (2000- …)
Après l’éclatement de la bulle Internet à la saison chaude de l’été boursier de l’année 2000, la donne changea assez radicalement dans le monde de l’indexation et de l’optimisation Web. Les pratiques de marketing et de sur-optimisation ont dû changer à la suite des modifications apportées aux algorithmes de classement de Google.
Les gestionnaires du moteur de recherche ont réagi à l’accumulation de tours de passe-passe que des fins finauds du référencement avaient imaginés pour obtenir de meilleurs résultats dans les requêtes de recherche. On a optimisé le moteur pour qu’il ne soit plus dupé par ces tactiques de tricherie. Ont alors été mises à l’index les techniques de « bourrage » de mots-clés dans les balises de métadonnées, d’écriture de phrases-clées de la même couleur que le fond de la page, de redirections malicieuses et plusieurs autres techniques semblables. C’est probablement un des facteurs qui a encouragé l’utilisation des publicités contextuelles avec l’achat de mots clés du type Adwords que l’on a vus apparaître dans la plupart des moteurs de recherche.
-       Marketing Web (SEM) (2003- …)
Le terme SEM (search engine marketing) ou marketing Web a coïncidé avec l’arrivée de la publicité contextuelle. Il englobe également l’optimisation Web (SEO) qu’on utilise spécifiquement pour l’indexation optimale de ses contenus par les moteurs de recherche. La rédaction de publicité, la recherche de mots-clés pertinents à acheter dans Adwords et surtout la mise en place de pages de tests A/B (qui servent à l’évaluation de versions de pages différentes) permettront une évolution appréciable dans la pratique du marketing en ligne et dans l’utilisabilité des sites Web.
-       Rayonnement Web (2004- …)
Le terme rayonnement Web que j’affectionne particulièrement pour l’avoir mis au monde vers le milieu des années 2000 englobe toutes les pratiques précédentes, de la signature incluse dans vos courriels jusqu’aux nouvelles « vagues » de Google Wave en incluant évidemment les réseaux sociaux et, autant que possible, les accès aux bases de données informationnelles (API) des diverses sources d’information disponibles sur la Toile.
Le rayonnement Web comprend aussi l’analyse des données recueillies, la configuration d’outils statistiques, la mise en valeur de l’information et de sa pérennité. Et on en passe puisqu’il était impossible de produire davantage qu’un survol rapide de l’évolution passée et actuelle du rayonnement de la communication sur le Web dans aussi peu d’espace. Nous y reviendrons naturellement en abordant chacune de ces questions une par une.

23 oct. 2019

Les taux de clics selon les positions sur Google

Voici deux graphiques provenant d'études qui diffère passablement sur le taux clic sur les positions 1 à 10 de Google.

Le premier vient d'une étude qui a analysé les données du CTR sur 874,929 pages et 5,079,491 requêtes de recherche. 


La deuxième de Optify, les données analysées proviennent de 250 sites choisis au hasard et d'un ensemble initial de 10 000 mots-clés. Disons que la première position ici me semble un peu exagéré et qu'ils ne se rejoignent que pour les positions 7 à 10.

 Et voici une infographie sur les moyennes supérieures.

22 oct. 2019

Service offer

 Service offer

SEO & Web Marketing


    What distinguishes me from many other SEO consultants is my strengths, both on the technical side as a former analyst programmer and on the marketing side. With my 25 years of experience in SEO and
my 10 previous years in electronic publishing  
I have acquired a very good base
in writing at the same time

    while the attendance
    of marketing
 geeks.

Audit and analysis


  • Determine the persona
  • Audit of the current referencing of the site by taking into account its target audience, its market, its products and services offered both technically and semantically
  • Analysis of the site's positioning and tthe main competitors, by product and service categories
  • Analysis of research trends
  • Establishment of the list of keywords, on which the optimization strategy will be based

Setting up

  • Recommendations on "On-Site SEO" = How to optimize organic referencing by designing the site so that it is better positioned in search engines
  • Clear and detailed recommendations for integrations to be made in your site by your internal team or supplier.
  • Identification of the tags to be integrated
  • Identification of conversion objectives to be measured on site.
  • Configuration of Google Analytics and Webmaster Tools, activation of conversion objectives in the Analytics tool.
  • Recommendations on the "Off-Site SEO", i. e. on the means to be taken outside the site to optimize SEO in organic results.
  • Registration in the relevant directories (link building).
  • Upgrading to Schema.org standards and IndexNow
  • Development of a solid SiteMap.xml and Robots.txt file.


Drafting

From the beginning of your ideas to the end, our editorial team expresses your ideas, projects and needs, for the benefit of your readers, in high quality written french or english, with concise and precise, simple but personalized words. Whatever your field of expertise, the objective is to organize and edit your messages so that they are well understood.

Specialities

  • Recommendations for rich snippets and zero results.
  • Focus on sections for voice search and Q&A (Faq pages).
  • Optimization of POS (Point Of Sales), distributors/resellers section.
  • Jobs/Careers section.

Social networks

  • Implementation of personalized pages for Facebook, Instagram, Pinterest, LinkedIn and Twitter.
  • Advice on the drafting and management of these accounts, or management by us or in shared custody.
  • Analysis of the performance of the "ecosystem", is it optimized, is it sent to Facebook at the right time, what types of content work best, can we track a Facebook fan from the fan page to a transaction on the site, etc.

Multi-channel marketing

  • Guide for traditional2Web campaigns to get accurate indices of conversion measures
  • Monitoring of your brands and statistical monitoring.

What sets me apart

I work closely with my client, researching far beyond the SEO landscape to understand specific challenges. With this knowledge, I execute ad hoc strategies designed to solve problems for well-defined personas.

Some achievements (except for the most recent clients)

- Mandate for Creopack (2016) 
- Mandate for Montel (2016)
- Mandates for GCA Innobilier (2016)
- Mandates for Résidence-Québec (2015-2016)
- Mandates for SOS-Cuisine (2016)
- Mandates for ExoB2C (2014-2015)
- Optimization of Aquam (2015)
- Training and optimization for ATR Saguenjay-Lac-St-Jean and Domaine Forget (2014)
- Training in optimization for Whynotblue (2014)
- Mandate (2) for Radio-Canada with a result for the archives with a increase of 25 times the traffic (24,900%).
- Mandate for Le Devoir newspaper with VDL2 up 27,500% (from 400 UV/month to 1,1M UV ONLY from organic Google)
- Optimization of Espresso-Jobs redesign (2006, 2009, 2013-14). From 25k to 75k to over 100k.
- Social media management (FB and Twitter) for national restaurant chain Chez Cora (Aug. 2012 - Jan. 2013): Handled in-house.
- Social media management (FB, blog and Twitter) for Tourisme-Charlevoix (Sept. 2011 - June. 2012)
- Web optimization training for TFO.org (2012)
- Adviso, Desjardins Sécurité Financière, La SEPAQ, ATRAQ, Têtes à Claques, Radio-Canada (3), Cyclovac, ATR Charlevoix (went from 30 to 50 and then 100k VU/month), Blax, SAT, M-Biance, Creo, SATQ, ATR Mauricie, Le Devoir, Arromdissement.com (went from 50k VU/month to 200k VU/month), etc.
- Analysis for LoJiq, SEPAQ, Blue Cross, Tourisme Laval, ATR Laval, ATR Saguenay Lac-St-Jean, ATR Abitibi-Témiscamingue, Opéra de Montréal, Salambo Productions, SATQ, Analyweb, Challenge your World, le CRIM, AgentSolo, Le Devoir, Adviso, Michelle Blanc, etc.
- Strategist for Hébergement Charlevoix, Oasis and Agence Amiral, BBDO, Cossette, Mignon Media (New York Time and Transcontinental) and many many others.

Training, conferences and technical/semantic audits at ;

- Adviso, Desjardins Financial Security, SEPAQ, ATRAQ, Têtes à Claques, Radio-Canada (3), Cyclovac, ATR Charlevoix (4), ATR Laval, ATR Abitibi-Tesmiscamingue, ATR Saguenay Lac St-Jean, Blax, SAT, M-Biance, Creo, SATQ, ATR Mauricie, Le Devoir, Arromdissement.com, Canoe, Bell, Hydro-Quebec, etc.

- Analysis for LoJiq, SEPAQ (booking increase of  $6 million in the first year), Blue Cross, Permacon & OldCastle (225%  of increase in sale in first year of implementation), Tourisme Laval, ATR Laval, ATR Saguenay Lac-St-Jean, ATR Abitibi-Témiscamingue, Opéra de Montréal, Salambo Productions, SATQ, Analyweb, Challenge your World, CRIM, AgentSolo, Le Devoir, Adviso, Michelle Blanc, etc.

- Strategist for Hébergement Charlevoix, Oasis and Admiral.

Some less recent achievements


- Consultant on the French presidential events site Quel-Candidat with the Dauphiné-Libéré in France and Mignon Média in New York (2007).
PS: Already offline but by searching on Raphaël Benoît's blog you will have some impresssive stats
- Strategic analysis on Canoe's Micasa.ca (2007)
- Marketing and technical analysis on the Ice.com e-commerce site (generates more than $2 million in sales per month) (2007)
- Technical analysis on the IATA.org website (2007)
- Strategic analysis on Canoe's Micasa.ca (2007)
- Development of a monitoring system and various strategic analyses for Taleo Corporation in San Francisco and Paris (2003 to 2007)
- Global evaluation and outreach strategy of the Canoe network (2006)
- Permeability analysis of Cyberpresse's architecture, content structure and archive management (2005-2006)
- Development of recommendations for the structure and content management of the Via Rail Canada site (2004-2005)
- Analysis, recommendations and training for the TQS site (2004-2005)
- Analysis, recommendations and optimization of the HEC site with Adviso (2005)
- Consultant for the implementation of an internal and intranet research solution for Radio-Canada/CBC (2004)
- Proposal for a metadata framework for new media content for CBC/Radio-Canada (2004)
- Optimization of the website of the Conseil des Appellations Agroalimentaires du Québec (CAAQ) (2004)
- Production of an online marketing best practices guide and two conferences on the visibility and outreach of Canadian cultural sites online for Heritage Canada (2003-2004)
- Analysis of the Dublin-Core protocol and proposal for a metadata framework for the Government of Canada (2002-2003)
- Analysis of the influence of the Nomino Technologies site (2003)
- Analysis and recommendations for the influence of the Covéo site (ex-Copernic) (2004)
- Analysis and recommendations for the outreach of the Copernic Technologies site (2002-2003)
- Conference in front of 150 government webmasters at WebMaestro (WebEducation) for the Government of Quebec (2002)

Articles in media about me


2001 Google spying
https://www.01net.com/actualites/mise-a-jour-google-cherche-trop-loin-166451.html
https://www.letemps.ch/no-section/attention-webmasters-google-devenu-tres-indiscret

Google bomb
https://www.cnet.com/tech/services-and-software/obama-gets-cheerful-achievement-googlebomb/
https://www.clubic.com/actualite-43067-.html

Remote working
http://veloptimum.net/autres/Netrouvailles/NET/8/Presse30aout.html
https://dominicarpin.ca/bloguez-votre-bureau-le-resultat-en-photo-928.html

Other SEO subjects
https://ici.radio-canada.ca/radio/techno/commentaires-114901.shtml
https://www.journaldemontreal.com/2014/11/15/souriez-on-vous-regarde-dans-votre-camera-de-securite
https://www.searchenginejournal.com/google-reader-googles-rss-feed-aggregator/2314/
http://www.envuemagazine.ca/2017/enVue05_2017/3D49F18695A8DF9C93E759CF9B500920/enVue_05_17.pdf (pages 7, 12, 14 et 16)
https://www.lapresse.ca/affaires/techno/internet/200907/30/01-888415-les-internautes-ne-changeront-pas-leurs-habitudes.php
https://www.searchenginewatch.com/2005/04/15/copernic-will-not-be-sold-to-mamma-com/
https://www.searchenginewatch.com/2004/10/17/more-google-desktop-privacy-worries-a-microsoftys-fear/
https://www.searchenginewatch.com/2004/09/16/stolen-credit-card-numbers-in-web-engines/
https://ici.radio-canada.ca/radio/techno/accueil-02-12-2009.shtml
https://www.levidepoches.fr/weblog/2009/10/eric-baillargeon-d%C3%A9crypte-deux-bouleversements-majeurs-pour-le-rayonnement-web-depuis-lan-2000.html
https://www.jobboom.com/carriere/blogue-101/
https://www.internetactu.net/2005/05/25/de-lappropriation-des-web-services-et-du-succs-des-google-maps/
https://www.socialmediatoday.com/content/eric-baillargeon-decrypte-deux-bouleversements-majeurs-pour-le-rayonnement-web
https://www.journaldunet.com/solutions/seo-referencement/1124628-google-analytics-5-methodes-pour-trouver-les-mots-cles-not-provided/1124633-le-filtre
https://www.seobythesea.com/2006/04/search-roundup/
http://www.dsi-info.ca/moteurs-de-recherche/2003_03_01_blog-archives.html
https://www.futura-sciences.com/tech/actualites/tech-cartes-google-maps-trafic-routier-crimes-sexuels-texas-6356/
https://affordance.typepad.com/mon_weblog/2006/05/whats_google_ne.html
http://les-zed.com/facebook-generateur-visites-site/
http://www.zecanada.com/2007/04/07/video-delections-politiques-au-yulblog/
At 4.18 min. : https://www.youtube.com/watch?v=k1qmM_QRrSI

LinkedIn Profile: https://www.linkedin.com/in/ericbaillargeon/


21 oct. 2019

Les pays hébergeurs des partis politiques canadiens


Parti
Vitesse
Hébergeur
https://2019.liberal.ca/
41
Toronto  - Amazon.com, Inc.
https://www.conservateur.ca/
59
Ashburn, USA - Cloudflare, Inc.
https://www.npd.ca/
40
Newark, USA - Google LLC
https://www.greenparty.ca/
69
San Antonio, USA - Rackspace Hosting
https://www.blocquebecois.org/
59
Ashburn, USA - Cloudflare, Inc.

Hummm... 80% des sites aux États-Unis, On se demande  pourquoi les GAFA ne sont pas encore taxés.

11 juin 2019

Une décénnie de collaboration avec cette OSBL


Pour une petite OSBL avec en moyenne 1.5 employés à temps plein, je suis assez fier de ce rendement des 10 dernières années !

10 juin 2019

Attention : Comment trouver la meilleure solution SEO pour votre entreprise ?

Transparence
Crédit photo: Journal du Luxe

Une vérification diligente


Je le fais presque chaque semaine, lorsqu'un nouveau client me dit qu'il ou elle fait affaire avec une boîte Web particulière qui fait des ; des sites, de la publicité, du marketing traditionnel, de l'affichage, du SEM/SMO (qui gère AdWords et réseaux sociaux pour vous), du link building, du graphisme, du CRM, des relations publiques et aussi.... du SEO.

Tout cela avec 6 employés qui ont en moyenne 4 ans d'expérience !

Le SEO est aujourd'hui un marché très concurrentiel. Par conséquent, il peut être malaisé de savoir quelle boîte Web ou agence de référencement choisir, et/ou si votre agence actuelle fait un bon travail et ne vous dit pas des mensonges sachant que c'est un domaine très spécialisé et parfois très technique et difficile pour un néophyte qui est souvent rempli d'acronymes en tout genre.

De mauvaises pratiques de référencement peuvent en fait nuire à votre classement et à votre réputation auprès des moteurs de recherche. Il est donc essentiel de choisir une agence de référencement réputée et respectable qui utilise des pratiques de confiance pour contribuer à la visibilité organique de votre site.

La première chose à faire est d'examiner leur portfolio et de voir si les sites se démarquent dans les résultats, indépendamment du nom de domaine du client et de ses propres marques. Également dans une entreprise de services, vérifiez s'il y a des mots-clés géo-localisés affichés bien en vue sur leur site.

Conseils techniques


En outre, vérifiez le côté technique, qui fait très souvent défaut dans les agences multi-services, qui font tout, mais au mieux la moitié du temps.
  • Le fichier robots.txt est-il présent et que contient-il ?
  • Le htaccess est-il présent et que contient-il ? 301, 302 ?
  • Une redirection anti-canonicalisation est-elle efficace ?
  • Une carte du site est-elle présentée en cas d'erreur 404 ?
  • Le site a-t-il un sitemap.xml et est-il à jour ?
  • Est-ce que le site a un Favicon ?
  • Le site a-t-il des failles dans la programmation dynamique ou dans /iframe/javascript ?
  • Le site a-t-il des mots-clés importants dans les images gif/jpeg/png ?
  • Y a-t-il des pages à plus de 3 clics de la page d'accueil ?
  • Y a-t-il un fil d'Ariane sur le site ?
  • Le site dispose-t-il d'un système de gestion de contenu (CMS) ? Ouvert ?
  • Le texte alternatif des images contient-il des textes, en particulier lorsqu'ils servent de liens ?
  • Le poids du code de la page dépasse-t-il 100 k ?
  • Combien de pages sont indexées ?
  • Les pages contiennent-elles plus de 50 liens ?
  • Combien de liens externes au nom de domaine ont-ils acquis ?
  • Le site dispose-t-il d'au moins deux outils statistiques ? Un en temps réel ?
  • Le site a-t-il des liens brisés ?
  • En lisant une URL, comprenez-vous ce que la page contiendra ?
Général
  • Une anlyse concurrentielle sera t'elle envisagée ?
  • Y aura-t'il une section lexique ?
  • Une section FAQ sera-t'elle nécessaire ?
  • Les POS seront-ils forables ?
  • La gestion de GMB (Google My Business) fait-elle partie du devis ?
  • Répondre aux avis (favorable/défavorable) fait-il partie du mandat ? 
  • Y a-t'il un amalgame entre le SEO et les autres stratégies de marketing ?
  • La configuration de tableaux spécifiques et de buts dans Analytics est-elle comprise ?
  • Etc.

Conseils généraux spécifiques au référencement


Suivez nos conseils ci-dessous pour découvrir ce qui fait une bonne et une mauvaise agence de référencement et les signes potentiels à rechercher pour vous aider à trouver le meilleur partenaire SEO possible pour votre entreprise.

Exemple d'une mauvaise agence de référencement :
Fait des promesses basées sur les classements !
⏭  Le référencement est un processus, qui est au mieux à moyen terme,
et dans laquelle il ne devrait y avoir aucune garantie.  ⏮
Toute agence de référencement ou partenaire qui promet d'apparaître sur la première page de Google dans un délai donné n'est pas digne de confiance, car les classements sont entièrement contrôlés par les algorithmes des moteurs de recherche.

Toutes ces promesses devraient déclencher des signaux d'alarme, car il est possible que l'agence utilise des techniques de référencement sournoises pour tenter d'y parvenir.

Toute stratégie de référencement qui viole les règles de Google pour les webmasters pourrait entraîner une pénalité pour Google, ce qui peut être extrêmement dommageable pour les résultats de recherche de tout site Web.

De plus, le classement de votre site Web sur la première page de Google est une promesse ambiguë : le terme de votre marque de recherche va probablement (et devrait) retrouver votre site Web au premier résultat des moteurs de recherche.

Cependant, le référencement ne consiste pas seulement à positionner votre site Web dans les résultats de recherche pour les termes de votre propre entreprise, mais aussi pour des mots-clés de haute intention sans marque qui mèneront à des conversions et à une notoriété de marque.

Un bon partenaire SEO ne promettra jamais un classement spécifique dans les moteurs de recherche, en particulier en n'évaluant pas la concurrence devant vous, mais discutera avec vous de sa stratégie à long terme et comment elle peut affecter ou contribuer au classement de mots clés spécifiques dans le temps.

Garantir un certain nombre de backlinks par mois ?


Un carton rouge! Il est bien connu qu'un profil de backlink fort est la clé de la force organique d'un site Web. Cependant, les moteurs de recherche sont conscients des techniques de référencement en chapeau noir "black hat" qui leur permettent de gagner des backlinks tels que leur achat ou en spam un peu partout.

Si votre site Web contient de nombreux types de backlinks de ce type, Google le comprendra rapidement et vous risquez une pénalité algorithmique.

Par conséquent, il est recommandé de ne pas choisir un partenaire SEO qui promettrait un certain nombre de backlinks par mois, car ceux-ci nécessitent un travail acharné à long terme, et l'acquisition de backlinks rapidement gagnés, qui ont été acquis par des techniques en chapeau noir sont un drapeau rouge perçu par les moteurs de recherche.

Il est également important d'être prudent si vous entendez votre agence parler d'un réseau secret de blogs ou de sites web (aussi appelés blogs ou PBNs de réseaux privés), car ils sont parfois utilisés pour obtenir des backlinks et les moteurs de recherche sont conscients de cette technique "avec un chapeau noir" et pourrait également mettre votre site web dans l'eau chaude.

Un bon partenaire SEO :


Est-il transparent et de confiance ....

Comme toute relation de travail professionnelle, la transparence et la communication sont essentielles à son succès. Une agence respectable et digne de confiance s'assurera qu'elle vous fournit des rapports de présence et de classement, et qu'elle suit avec précision les progrès et les changements majeurs dans les algorithmes de classement.

De plus, si une campagne ou un test spécifique ne s'est pas déroulé comme prévu initialement, une bonne agence de référencement vous l'expliquera plutôt que d'essayer de vous cacher ou de cacher ses erreurs.

Un partenaire SEO transparent sera heureux de partager avec vous son travail précédent ou les campagnes SEO sur lesquelles il a travaillé ou sera en mesure de partager des témoignages ou des commentaires d'autres clients.

En référencement, la réputation et l'expérience sont des éléments clés. Choisissez une agence de référencement avec un bon portefeuille de campagnes.

De plus, une agence transparente partagera toujours ses méthodes de référencement avec vous plutôt que de les garder secrètes. Il ne devrait y avoir aucun secret dans le référencement, et si une agence ne veut pas divulguer ses méthodes de référencement, il est probable qu'elle utilisera des techniques de black-hat, ce qui sera finalement mauvais ou fatal pour votre entreprise.

Une bonne agence de référencement discutera avec vous des indicateurs de performance de votre entreprise et vous promettra non seulement plus de prospects, plus d'appels téléphoniques ou plus de clics. En fin de compte, le référencement n'est pas seulement pour le plaisir, mais pour aider à améliorer votre entreprise et obtenir votre comptable à travailler des heures supplémentaires.

Par conséquent, un bon partenaire s'assurera qu'ils travaillent sur votre site Web et que le référencement qui vous aide à atteindre vos objectifs et moins contribuer sur leurs propres.

Assurez-vous de recevoir les livrables de votre agence de référencement pour prouver qu'ils fonctionnent réellement, ce qui contribuera au succès de votre moteur de recherche organique. De plus, il est important de se rappeler que le référencement est un investissement à moyen/long terme et qu'il faut parfois trois à six mois pour que la situation s'améliore réellement.

A-t-il une bonne réputation


Une excellente façon de vérifier si votre agence de référencement est digne de confiance est de voir si son site Web contient des études de cas. Les études de cas montreront des preuves de travail avec des clients existants ou anciens, et comporteront généralement des témoignages de clients, mais sous forme de références vidéo ou sinon des références téléphoniques.

En outre, vérifiez leur site Web pour voir s'ils ont un blogue qui suit le SEO et les tendances numériques ? Après tout, le référencement est un jeu en constante évolution et, par conséquent, votre agence doit être à jour. De plus, s'ils font confiance à l'industrie, il est très probable que vous puissiez leur faire confiance.

En général....

Si vous savez que votre agence de référencement utilise l'une des techniques Black-Hat suivantes, nous vous recommandons de vous y tenir. Ceux-ci incluent mais ne sont pas limités à : l'achat ou le spamming de backlinks, l'utilisation d'un PBN, la dissimulation, l'empotage de mots-clés, le vol de contenu, les redirections sournoises, etc.

C'est aussi une bonne idée de vérifier s'ils ont de l'expérience en référencement dans votre secteur. Par exemple, si vous êtes un cabinet d'avocats, ont-ils de l'expérience dans ce type d'activité professionnelle ?

Que faire si vous êtes une entreprise de commerce électronique ? Le référencement dans le commerce électronique peut différer du référencement normal, tout comme le référencement local, alors vérifiez si votre agence potentielle a de l'expérience dans votre région.

Enfin, le référencement n'est pas seulement une question de référencement.
⏭  Il s'agit de la synergie de tous les types de marketing numérique, y compris les médias sociaux, le contenu et, ce qui est le plus important, l'alignement avec vos autres stratégies de marketing.   ⏮

Si votre agence a une vision globale qui inclut toutes ces choses, il est évident que c'est un bon signe qu'elle examine la situation mondiale du marketing numérique.

Conclusion :


Le meilleur conseil que nous puissions donner est que si cela semble trop beau pour être vrai, c'est probablement le cas. Il n'y a aucune garantie dans le référencement. De plus, le paysage est en constante évolution, il est donc essentiel d'avoir un partenaire SEO transparent, qui utilise les techniques du chapeau blanc et se tient au courant des dernières tendances.

Si vous cherchez à remplacer votre agence de référencement existante ou si vous souhaitez développer votre site web avec une stratégie de référencement performante, contactez des experts (comme moi) ayant au minimum de 10 à 15 ans d'expérience dans ce secteur.


31 mai 2019

RiteTag : Un précieux outil pour les HashTag

Les hashtag (#) sont de plus en plus tendance. Une bonne partie des réseaux sociaux ont suivit Twitter et Facebook et sont maintenant de plus en plus tendance avec Instagram.

J'ai découvert un petit "plugIn" qui les génèrent automatique à partir d'une photo ou même le texte d'un site Web . En plus de les classifier par couleurs selon leurs importances, vous pouvez aussi consulter un comparatif de leurs statistiques. Assez bluffant comme déduction !

Des images valent milles mots (cliquer sur mes photos pour mieux voir les Hashtag générés) :








Et voici les statistiques quand vous cliquer sur comparer(5). Vous avez pour chaque heure le nombre de ; Tweet, le nombre de partage et l'exposition/porté.


Comme vous l'avez remarquer la déduction des hashtag est tout de même pas si mal, et si vous utiliser l'anglais vous aurez encore plus de mots-clic. Disponible en plus de 20 langues !

Et voici un aperçu des ses fonctions :

1) GÉNÉRER DES HASHTAGS POUR LES IMAGES
Cliquez avec le bouton droit de la souris sur n'importe quelle image d'un site Web et sélectionnez "Obtenir des suggestions de hashtag pour l'image" ou cliquez sur l'icône Télécharger dans la barre RiteTag pour obtenir des suggestions de hashtag pour une image depuis votre ordinateur.

2) GÉNÉRER DES HASHTAGS POUR LES TEXTES
Tapez un hashtag et cliquez sur l'espace pour obtenir des suggestions instantanées de hashtag (fonctionne sur n'importe quel site Web). Alternativement, sélectionnez n'importe quel texte sur la page (par exemple le texte de votre message), faites un clic droit dessus et choisissez "Obtenir des suggestions de hashtag pour le texte".

3) COULEURS INDIQUANT LA FORCE DU HASHTAG
VERT = utilisez ce hashtag pour être vu maintenant
BLEU = utilisez ce hashtag pour être vu dans le temps
ROUGE = n'utilisez pas ce hashtag, vos messages disparaîtront dans la foule.
GRIS = ne pas utiliser ce hashtag, très peu de gens le suivent

CARACTÉRISTIQUES SUPPLÉMENTAIRES****
+ Survolez n'importe quel hashtag dans le bar pour voir une brève recommandation.
+ Cliquez sur n'importe quel hashtag dans la barre pour l'ajouter au message
+ Cliquez sur le bouton Copier pour copier tous les hashtags suggérés dans votre presse-papiers.
+ Cliquez sur Comparer pour comparer les statistiques des hashtags actuellement affichés dans la barre.
+ Cliquez sur le bouton du navigateur RiteTag pour afficher/masquer la barre RiteTag.
+ Désactiver l'extension pour des domaines spécifiques


28 mai 2019

Favicons en résultats mobile : Ne finauder avec Google


L'arrivée des Favicons en résultats mobile

Comme vous le savez peut-être, Google a commencé à déployer la nouvelle interface pour les résultats de recherche sur mobile, qui incluent les favicons situés en haut des extraits. La plupart des référenceurs estiment que cette refonte donne à nouveau aux annonces un aspect plus naturel. Il est donc important maintenant d’avoir un favicon* sur son site.

L'ajouter est facile. Ajoutez simplement un fichier image .ico d'un multiple** de 16x16 pixels. Ensuite, dans les pages Web, ajoutez à l'élément .

Un bon outil gratuit en ligne ici : https://www.favicon.cc/
ou mon préféré plus simple : https://www.favicon-generator.org/

* Attention


Certaines personnes ont commencé à profiter de cela intentionnellement tandis que d'autres ont juste finaudé des favicons à l'encontre des directives de Google pour les favicons. Hier, Google a commencé à pénaliser les sites avec des favicons qui étaient contraires aux directives de Google.

Voici lesrègles de Google sur les favicons, au cas où vous les pas lus :
  •  Le fichier favicon et la page d'accueil doivent pouvoir être explorés par Google (c'est-à-dire qu'ils ne peuvent pas être bloqués pour Google).
  • Votre favicon doit être une représentation visuelle de la marque de votre site Web, afin d'aider les utilisateurs à identifier rapidement votre site lorsqu'ils parcourent les résultats de recherche.
  • Votre favicon doit être un multiple de 48px carré, par exemple : 48x48px, 96x96px, 144x144px et ainsi de suite. Les fichiers SVG, bien sûr, n'ont pas de taille spécifique. Tout format faviconvalide est supporté. Google redimensionnera votre image à 16x16px pour l'utiliser dans les résultats de recherche, alors assurez-vous qu'elle est bonne à cette résolution.
    ** Note : Ne fournissez pas de favicon 16x16px.
  •  L'URL favicon doit être stable (ne changez pas l'URL fréquemment).
  • Google n'affichera aucun favicon qu'il juge inapproprié, y compris de la pornographie ou des symboles de haine (par exemple, des croix gammées). Si ce type d'image est découvert dans une favicon, Google le remplacera par une icône par défaut.

22 mai 2019

Série Nostalgie 2004 : Top Techno Brand - 31 juillet 2004

Voici une serie "Nostalgie 2004" qui provient de mon blogue anglophone de l'année 2004 que je viens de mettre à la mode d'aujourd'hui en changeant uniquement le gabarit de Blogger. Je traduirai mes billets ici en vous donnant ma source originale de l'époque.

Notez bien la perle ici de mon post scriptum de l'époque :

« PS: If Google make the top 10, this will be a major lesson for the "traditional marketers" and ad company are really slow to admit the Web and viral marketing campaign can be really effective without big budget in other media! »
Pour les sceptiques le Wayback Machine (Web Archive) mon billet en habillage d'époque.

L'article original anglais là et cette traduction de l'original ici :

---------------------------------------------------------------------------------------------------------
Top Techno Brand: Quelle position occupera Google l'année prochaine? 

Voici un tableau que je crée avec les 100 meilleures marques (Pdf) créées par Business Week et Interbrand. Pour faire partie de ce club restreint, l’entreprise doit disposer de données marketing et financières disponibles au public. 

Note : On utilisait des GIFs à l'époque ou les PNG n'existait pas pour les tableaux texte ;-)

Il semble qu'AOL sera sorti en 2005.

PS: Si Google se classe dans le top 10, ce sera une leçon majeure pour les 'spécialistes du marketing' et les agences de publicité sont vraiment lents à admettre que la campagne Web et de marketing viral peut être vraiment efficace sans gros budget dans d'autres médias!

---------------------------------------------------------------------------------------------------------

L'historique du classement de Google
sur le palmares Interbrand:

Google dans le top brand
2005         
38ème
2006         
24ème
2007         
20ème
2008         
10ème
2009         
7ème
2010         
4ème
2011         
4ème
2012         
4ème
2013         
2ème
2014         
2ème
2015         
2ème
2016         
2ème
2017         
2ème
2018         
2ème

17 mai 2019

10 conseils SEO souvent méconnus pour indexer le nouveau contenu plus rapidement

Crédit photo : Éric Baillargeon

1. Inspection d'URL Search Console / Fetch & Render


Primo, l'indexation du contenu n'est pas si difficile dans Google. Google nous fournit un certain nombre d'outils. Le plus simple et le plus rapide est probablement l'outil d'inspection d'URL. Il se trouve dans la nouvelle Console de Recherche de Google, anciennement Webmaster Tools et pour les grissonnant il y avait aussi Fetch and Render.  

Le nouvel outil d'inspection d'URL vous permet de soumettre une URL et d'indiquer à Google de l'explorer. Lorsque vous faites cela, ils le mettent dans leur file d'attente d'analyse prioritaire. Cela signifie simplement que Google dispose d'une liste d'URL à explorer. Cela entre dans la priorité, et cela va aller explorer et indexer plus vite.

2. Sitemaps


Une autre technique courante consiste simplement à utiliser des sitemaps. Si vous n'utilisez pas de sitemaps, c'est pourtant l'un des moyens les plus simples et rapides pour indexer vos URL. Lorsque vous les avez dans votre plan Sitemap, vous voulez faire savoir à Google qu'ils sont réellement présents.  Il existe un certain nombre de techniques différentes qui permettent d'optimiser un peu plus ce processus.

Le premier et le plus fondamental dont tout le monde parle c'est simplement de le mettre dans votre fichier robots.txt. Dans votre fichier robots.txt, vous avez une liste de directives et à la fin de votre fichier robots.txt, vous indiquez simplement sitemap et vous indiquez à Google où se trouvent vos sitemaps. Vous pouvez le faire pour les fichiers d'index de sitemap. Vous pouvez répertorier plusieurs sitemaps. C'est vraiment facile.


SitemapLast Modified
https://www.nomdusite.com/post-sitemap1.xml2009-01-06 00:26 +00:00
https://www.nomdusite.com/post-sitemap2.xml2010-03-15 19:26 +00:00
https://www.nomdusite.com/post-sitemap3.xml2019-05-08 11:39 +00:00
https://www.nomdusite.com/page-sitemap.xml2019-04-23 12:14 +00:00

Vous pouvez également le faire en utilisant le rapport Sitemap de la console de recherche, un des rapport de la nouvelle console de recherche. Vous pouvez y aller et vous pouvez soumettre des sitemaps. Vous pouvez supprimer les sitemaps, valider. Vous pouvez également le faire via l'API de la Search Console.  

Mais un moyen vraiment cool d'informer Google de vos sitemaps, que beaucoup de gens n'utilisent pas, consiste simplement à lui envoyer une commande ping. Vous pouvez le faire dans l'URL de votre navigateur. Vous tapez simplement [ping?sitemap=nomdedomaine/sitemap.xml] et vous insérez le plan du site avec l'URL. Vous pouvez l'essayer dès maintenant avec vos sitemaps actuels. Tapez-le dans la barre de navigation et Google mettra instantanément ce sitemap en file d'attente pour l'analyse. Toutes les URL qu'il contient doivent être indexées rapidement si elles respectent le standard de qualité de Google.  

Exemple: https://www.google.com/ping?sitemap=https://votresite.com/sitemap.xml

Vous aller voir :

Sitemap Notification Received

 Your Sitemap has been successfully added to our list of Sitemaps to crawl. If this is the first time you are notifying Google about this Sitemap, please add it via http://www.google.com/webmasters/tools/ so you can track its status. Please note that we do not add all submitted URLs to our index, and we cannot make any predictions or guarantees about when or if they will appear.


3. API d'indexation Google


Au cours des derniers mois, Google et Bing ont tous deux introduit de nouvelles API pour accélérer et automatiser l'exploration et l'indexation des URL.  

Ces deux solutions permettent d'accélérer considérablement l'indexation en soumettant des centaines ou des milliers d'URL via une API.  

Alors que l'API Bing est destinée à toute URL nouvelle / mise à jour, Google indique que son API est spécifiquement destinée à « l'affichage des offres d'emploi ou des données structurées de flux en direct ». Cela étant dit, de nombreux référenceur SEO comme David Sottimano ont expérimenté les API de Google et ont trouvé que cela fonctionnait. avec une variété de types de contenu.  

Si vous souhaitez utiliser ces API d'indexation vous-même, vous avez plusieurs options possibles:  


Yoast a annoncé qu'il prendrait bientôt en charge l'indexation en direct de Google et de Bing au sein de son plugin SEO Wordpress. 

Indexation et classement  


Cela parle d'indexation. Vous pouvez désormais indexer votre contenu plus rapidement et l'aider à se classer un peu plus haut en même temps.  
➤ Si vous connaissiez toutes ces astuces, je vous engage sur le champ !

4. Liens de pages importantes  


Lorsque vous publiez un nouveau contenu, vous devez vous assurer que vous créez des liens à partir de pages importantes, si vous ne faites rien d'autre. Les pages importantes peuvent être votre page d’accueil, en ajoutant des liens vers le nouveau contenu, votre blog, votre page de ressources. C’est une étape fondamentale que vous voulez faire. Vous ne voulez pas rendre orphelines les pages de votre site qui n'ont pas de liens entrants.   

L'ajout des liens indique deux choses à Google. Il indique que nous devrons analyser ce lien à un moment donné dans le futur et qu'il sera placé la file d'attente habituelle pour l'exploration. Mais cela rend également le lien plus important. Google peut se dire: 'Nous avons d'importantes pages qui renvoient à ceci. Nous avons des signaux de qualité qui nous aident à déterminer comment les classer.'  Donc, des liens à partir de pages importantes.

5. Mettre à jour l'ancien contenu  


Mais une étape que les gens oublient souvent n'est pas seulement le lien de vos pages importantes, mais vous souhaitez également revenir à votre ancien contenu et trouver des endroits appropriés pour mettre ces liens. Beaucoup de gens utilisent un lien sur leur page d'accueil ou un lien vers d'anciens articles, mais ils oublient l'étape de revenir aux anciens articles sur votre site et ajouter des liens vers le nouveau contenu.

Maintenant, quelles pages devez-vous ajouter? Une de mes techniques préférées consiste à utiliser cet opérateur de recherche ici, dans lequel vous tapez les mots clés qui concernent votre contenu, puis vous faites simplement un [site: exemple.com mot-clé]. Cela vous permet de trouver sur votre site des pages pertinentes qui traitent de vos mots clés cibles et qui constituent d'excellentes cibles pour ajouter ces liens à partir de votre contenu précédent. 

6. Partagez socialement  


Une étape très évidente, le partage social. Lorsque vous avez un nouveau contenu à partager socialement, il existe une forte corrélation entre les partages sociaux et le classement du contenu. Mais surtout lorsque vous partagez des agrégateurs de contenu, tels que Reddit, ceux-ci créent de véritables liens à explorer par Google. Google peut voir ces signaux, voir cette activité sociale, des sites comme Reddit et Hacker News où ils ajoutent des liens réels, et cela revient à ajouter des liens à partir de votre propre contenu, sauf que c'est encore un peu mieux parce que ce sont des liens externes. Ce sont des signaux externes. 

7. Générer du trafic vers l'URL  


C'est une sorte de technique avancée, dont l'efficacité est quelque peu controversée, mais nous la voyons fonctionner de manière anecdotique à maintes reprises. Cela génère simplement du trafic vers le nouveau contenu. 

 Il existe maintenant un débat quant à savoir si le trafic est un signal de classement. Il existe de vieux brevets Google qui parlent de mesurer le trafic, et Google peut certainement mesurer le trafic avec Chrome. Ils peuvent voir d'où viennent ces sites. Mais à titre d’exemple, les publicités Facebook, vous lancez du nouveau contenu et générez un trafic considérable via des publicités Facebook. Vous payez pour ce trafic, mais en théorie Google peut voir ce trafic parce qu'il mesure les choses en utilisant le navigateur Chrome.

Quand ils voient tout ce trafic se diriger vers une page, ils peuvent dire: 'Hé, c'est peut-être une page que nous devons avoir dans notre index et peut-être devons-nous la classer correctement.'

Classement


Une fois que notre contenu est indexé, discutez de quelques idées pour peut-être classer votre contenu plus rapidement.

8. Générer des clics de recherche


En plus de générer du trafic vers l'URL, vous pouvez en réalité générer des clics de recherche.

Qu'est-ce que je veux dire par là? Alors, imaginez que vous partagez une URL sur Twitter. Au lieu de partager directement sur l'URL, vous partagez un résultat de recherche Google. Les internautes cliquent sur le lien et vous les dirigez vers un résultat de recherche Google contenant les mots clés que vous essayez de classer. Les internautes effectuent une recherche et cliquent sur votre résultat.

Vous voyez des publicités télévisées faire cela, comme dans une publicité du Super Bowl, ils diront: 'Allez sur Google et recherchez des voitures Toyota 2019.' Ce que cela fait, c'est que Google peut voir ce comportement d'un chercheur 'normal'. Au lieu d'aller directement à la page, ils voient des personnes cliquer sur Google et choisir votre résultat.

Au lieu de faire un lien bébête comme un lien sur
mon blogue https://intercommunication.blogspot.com/ partagez ceci:
  1. https://www.google.ca/search?&q=seo+rayonnement+web&num=1
  2. Note: [&num=1]  est ajouter pour n'avoir que le premier résultat organique

Cela fait deux choses. Cela contribue à augmenter votre taux de clics, ce qui peut être un signal de classement. Mais cela vous aide également à classer les requêtes de suggestion automatique. Ainsi, lorsque Google voit les internautes rechercher 'les meilleures voitures Toyota 2019', cela peut s'afficher dans la barre de suggestion, ce qui vous aide également à classer les termes que vous recherchez. Donc, générer des clics de recherche au lieu de créer un lien direct avec votre URL est l’une de ces techniques avancées utilisées par certains référenceurs.

9. La requête cible mérite la fraîcheur


Lorsque vous créez le nouveau contenu, vous pouvez l'aider à se classer plus rapidement si vous choisissez des termes qui, selon Google, méritent d'être actualisés. C’est peut-être mieux si j’utilise juste quelques exemples ici.

Prenons un utilisateur qui recherche le terme 'cafés ouverts à Noël 2019.' C’est un résultat pour lequel Google veut fournir un résultat très frais. Vous voulez les dernières nouvelles sur les cafés et restaurants qui seront ouverts pour Noël 2019. Google va utiliser les pages de préférences créées plus récemment. Ainsi, lorsque vous ciblez ces requêtes, vous pouvez peut-être vous classer un peu plus vite.

Comparez cela à une requête comme 'histoire de la Bible'. Si vous faites une recherche dans Google, vous trouverez probablement beaucoup de très vieilles pages, des pages Wikipedia. Ces résultats ne se mettent pas à jour régulièrement, et il sera plus difficile pour vous de pénétrer dans ces SERP avec un contenu plus récent.

Pour le savoir, tapez simplement les requêtes pour lesquelles vous essayez de classer et voyez l'âge des résultats les plus récents. Cela vous donnera une indication de ce que Google pense de la fraîcheur que cette requête mérite. Choisissez des requêtes qui méritent un peu plus de fraîcheur et vous pourrez peut-être entrer un peu plus tôt.

10. Tirer parti de la structure des URL


Enfin, dernier conseil, il s'agit d'une chose que beaucoup de sites font et que beaucoup ne font pas parce qu'ils ne le savent tout simplement pas. Tirer parti de la structure des URL. Lorsque Google voit une nouvelle URL, une nouvelle page à indexer, ils ne disposent pas encore de tous les signaux pour la classer. Ils ont beaucoup d'algorithmes qui essaient de deviner où ils devraient le classer. Ils ont déjà indiqué dans le passé qu'ils utilisaient la structure d'URL pour en déterminer certaines.

Considérez Le New York Times place toutes ses critiques de livres sous la même URL, newyorktimes.com/book-reviews. Ils ont beaucoup de signaux de classement établis pour toutes ces URL. Lorsqu'une nouvelle URL est publiée à l'aide de la même structure, ils peuvent lui attribuer des signaux temporaires pour la classer correctement.

Si vous avez des URL de haute autorité, par exemple, votre blog, vos ressources sur votre site et si vous exploitez une structure d'URL existante, le nouveau contenu publié à l'aide de la même structure peut présenter un avantage concurrentiel. du moins à court terme, jusqu'à ce que Google puisse comprendre ces informations déjà vu.

Ce ne sont là que quelques-uns des moyens d’obtenir votre contenu indexé et classé plus rapidement.  Il ne s'agit nullement d'une liste exhaustive. Il y a beaucoup d'autres façons. Nous aimerions connaître vos idées et vos conseils. Veuillez nous en informer dans les commentaires ci-dessous.

Source: https://moz.com