Du mot-clé à l'intention | Offre de services en SEO/SXO & marketing Web
Le référencement et le marketing de contenu constituent l'épine dorsale de tous vos efforts de marketing,
le canal qui contribue au plus haut pourcentage de trafic et à une croissance régulière.
20 oct. 2006
Yahoo Finance 2.0
Contrairement à Google Finance qui nous présente beaucoup plus d'informations qui gravitent autour d'un stock boursier, Yahoo Finance se concentrer sur les chartes graphiques.
En passant, Google Finance va bientôt permettre de comparer des stocks, d'enlever les les "flags" de nouvelles et va présenter quelques autres améliorations très bientôt. Je les ai vues hier, et je n'ai malheureusement pas pris de copies d'écran car je croyais que c'était permanent.
Technorati Tags: yahoo+finance, google+finance
19 oct. 2006
Media Trad : NBC Universal amorce le premier le virage
...NBC Universal a annoncé un vaste projet de développement sur Internet et les médias électroniques baptisé «NBCU 2.0». Les économies dans les secteurs classiques seront réinvesties dans cette branche, dont le chiffre d'affaires devrait dépasser un milliard de dollars en 2009, a ajouté le groupe.Il faut dire que les annonceurs poussent !
Via Technaute
Technorati Tags: média, virage+internet, média+2.0
Quand une agences de presse profite de Google
- Accroîtront votre Page Rank
- Attiront plus de traffic
- Amélioront votre positionnement
- Convertiront vos visiteurs en acheteurs
Technorati Tags: united+press, google, pagerank, search+king
Google Earth et Google Maps : Mise a jour du grand Montreal
Tous les résidents de la grande région de Montréal ne sont plus finalement sous couvert nuageux et l'amélioration du niveau de zoom autant dans le service en ligne que dans Google Earth ont été bonifié. Si cela pouvait être pareil dans la vraie vie !
18 oct. 2006
Blackout viral
Alors revenons à ma passion (dirais même folie) et voici quelques liens intéressants, en vrac tout de même, des 650 billets que je me suis tapé en relançant mon Google Reader aujourd'hui :
- Google testerait le CPA en Angleterre (pas innovateur mais une flèche de plus dans le carquois publicitaire de Google)
- Google aurait 25% du marché publicitaire. (surement et même plus quand l'on sait que Google tire 95% de ses revenues de la publicité et que pour les 6 premiers mois de l'année il a déjà + de 4.7 milliards de revenue !
- Les vrais carnets et les faux carnets. Edelman, - dont un conférencier était au dernier Webcom2006 - ce serait fait pincer à promouvoir WalMart à travers d'un faux carnet.
- Petite opérateur fort intéressant et novateur chez MSN. Vous voulez savoir quel sites canadiens le copain Michel aime ?
- La pénalité 98% chez Google. Lu sur plusieurs forums depuis une vingtaine de jours, confirmé par SEW. (Etre relégué en troisième page équivaut à perdre 98% de sa visibilité)
- Nouvel outil chez Google : Web Site Optimizer en version Test sur invitation seulement. Via Philipp Lenssen
13 oct. 2006
Quand le media citoyen bouleverse le media de masse
Suite à l'acquisition de YouTube par Google, la majeure partie des critiques émises parlaient principalement (sauf pour la polémique habituelle des droits d'auteurs) des vidéos "boboches" (de piètres qualité pour les non-québécois) disponibles sur YouTube. Attention la surprise pourra être (et sera surement) grande !
Depuis que j'ai entendu parler de cet achat mirobolant de 1.6 milliard, j'ai cogité. N'était vraiment pas sure de l'énormité du montant payé. Ensuite, j'ai fait un parallèle avec Flickr.
À la fin de l'an dernier, ayant réussi un cliché qui a fait mouche sur Flickr et dans la Toile aussi, j'ai décidé de créer un groupe un peu "select" (nombre très élevé de favoris et de page vues) grâce aux options que nous offre Flickr.
Je n'y était pas retourné depuis plusieurs mois.
Ce soir j'ai été tout simplement "flagerblasté" (bouleversé) par la qualité des photos du simple groupe que j'avais balisé et maintenant disponibles à la vue de tous. Cela frôle la qualité du magazine fétiche de mon enfance au point de vue photos, le seul et unique National Geographic !
La force du simple système des ; groupes, favoris et étiquettes de Flickr prouve que les médias de masse n'ont pas l'exclusivité de la qualité et qu'un simple passionné comme moi peut présenter des photos vraiment exceptionnelles à tous et chacun.
Note: En regardant ce diaporama, j'enrage que ce n'est pas National Geographic qui ai acheter Flickr à la place de Yahoo qui semble être sur une pente très glissante !
12 oct. 2006
WebCom 2006
Une partie de l'audience
Loic Lemeur
Le grand maître du blog en temps réel
Loic Lemeur et le présentateur Stéphane Garneau
Les photos du Webcom 2006
10 oct. 2006
6 oct. 2006
ACAP : Une solution a la Creative Commons pour les éditeurs face aux moteurs de recherche
Technorati Tags: acap, creative-commons
5 oct. 2006
Comment mesurer le retour sur investissement d'un blog
Technorati Tags: blog, roi, carnet, investissement, pr
4 oct. 2006
Webcom Montreal 2006
La table ronde de bloggeurs sera aussi bien garnies avec les Martin Lessard et Sylvain Carle comme bloggeurs officiels et d'autres les épauleront aussi comme Michel Leblanc, MC Turgeon et moi-même qui en profitera aussi pour prendre quelques clichés.
Technorati Tags: webcom+montreal, webcom-2006
29 sept. 2006
Publiez sur le Web ou crevez
Technorati Tags: média, virage+web, quotidien
28 sept. 2006
Bell et pas très simple
Par contre je peux visualiser le rapport de dérangement actif, mais ne peux y ajouter de compléments d'information au technicien qui devrait venir... demain matin. Le seul moyen de communiquer par internet quand l'on a plus de téléphone chez soi et de passer par la section "Pour nous joindre" est de choisir "passer une commande", où enfin l'on peux écrire en 2000 caractères le problème... Sauf que voici la réponse automatique :
RÉPONSE AUTOMATISÉE - AUTOMATED REPLY
NE PAS RÉPONDRE À CE COURRIEL - DO NOT REPLY TO THIS E-MAIL
Bonjour,
Merci d'avoir visité le site Web de Bell. Nous avons reçu votre demande
de renseignements.
Veuillez noter que nous recevons présentement un très haut volume de
courriels et que notre délai de réponse est entre 2 à 4 jours ouvrables.
Merci de votre patience.
Bell est heureuse de vous compter parmi sa clientèle.
Le Centre Internet Bell
Bell et pas très simple !
27 sept. 2006
Des cours de l'universite de Berkeley sur Google Video
Technorati Tags: google+vidéo, berkeley, université, cours
26 sept. 2006
S'inscrire gratuitement à Google Maps
- Son nom d'entreprise
- L'adresse complète
- Un lien vers son site
- Les méthodes de paiement acceptées
- Une courte description
- Des coupons rabais (pas testé encore)
Il faut simplement avoir un compte chez Google et ensuite aller ici (Pour nos voisins américain c'est ici) et tout simplement entrer les informations ci-haut, ensuite choisir une ou plusieurs catégories reliées à vos produits ou services. Ensuite vous choisissez la méthode de vérification que vous préférez, soit par la poste sous forme de carte postale ou encore par le système téléphonique automatisé de Google.
C'est que j'ai choisit et j'ai reçu un appel automatique de Google où l'on doit entrer par le clavier du téléphone le NIP qui apparaît sur la page Web de confirmation de l'information. Et voilà ! Il ne reste qu'a attendre que Google Maps intègre votre fiche, dans mon cas moins d'une semaine plus tard !
L'inscription gratuite à Google Maps peut générer passablement de pages vues par mois et un taux de clic vers votre site ou d'appel téléphonique en moyenne supérieure à une bannière publicitaire. Il faut bien utiliser le maximum des cinq catégories possible et n'hésiter pas à créer la votre si elle n'est pas disponible dans la liste des catégories de Google Maps.
Technorati Tags: google+maps
Publicité dynamique 2.0
La grande force de ce nouveau concept est qu'il permettra aussi de synchroniser ses publicités avec les sujets du jour qui populent Techmeme. Bravo et très bonne idée !
Technorati Tags: publicité+2.0, publicité+dynamique, techmeme, publicité+rss
25 sept. 2006
La fraude aux clic$ fait la une de Business Week
20 sept. 2006
Google vs Belgique : Vive les vieilles autruches
I had a very long conversation about the permissions issue with Margaret Boribon, secretary general of Copiepresse, to try and better understand how they wanted Google to operate. Why not use commonly understood and effective mechanisms such as robots.txt files or meta robots tags to prevent indexing?
"If you do so, you admit that Google does what they want, and if you don't agree, you have to contact them. This is not the legal framework of copyright," Boribon said.
This is an age old issue in the search engine world. By default, search engines assume that permission is granted to index a document, in order to make it searchable. Technically, shouldn't they get explicit permission? Legally, that might make things safer. Logistically, it would never work. Many sites don't have clear contact details. Some domains themselves contain multiple sites. Moreover, there are millions of sites across the web. Contacting them all beforehand simply wouldn't work well.
I asked Boribon about this, how her group would propose search engines undertake such a task.
"I'm sure they can find a very easy system to send an email or a document to alert the site and ask for permission or maybe a system of opt-in or opt-out," she said.
Would it be OK for such a system to work automatically, I asked? Yes, that would be fine. A machine-to-machine connection would be OK, she said. So then, I asked, why not use the existing robots.txt or meta robots systems?
Both mechanisms are easy, automatic ways for publishers to declare if they grant indexing permission or not. In fact, I'd argue that both are a way for search engines to ask beforehand for the very permission that Copiepresse wants them to seek. Major search engines -- not just Google -- all request or check these blocking mechanisms.
Boribon rejected the existing solutions. One issue she had was that they weren't legally endorsed. That's true, but that's also something I think will change over time. In the US, we've had one case recently where opt-out solutions like tags have been accepted.
Je ne peux pas croire que des médias n'essais pas de trouver des solutions originales (sans passer par la voix des tribunaux) face au fait que les moteurs de recherches profitent à tous le monde et sont essentiels à notre patrimoine culturel et informationels mondial.
J'étais déjà estomaquer à l'époque ou en 2001-2002 d'apprendre que l'IAB ne reconnaissait pas le téléchargement de PDF de journaux et de leurs publicités comme étant de la copie distribué*.
Merde, réveillez-vous.
Une des nombreuses solutions facilement applicables des deux cotés pour la libre circulation:
Vous obligez Google news a publier aussi l'annonce de votre régie publicitaire provenant de votre section Monde de 100 x 200 pixels pour un résumé de 100 mots. Ou encore 200 x 600 pixels pour 400 mots ? Google l'aspire comme votre résumé et votre "tracker" assure la page vue et aussi le "click thru". Techniquement compliquer ? Vraiment pas !
Votre annonceur est uniquement local ? Vous passer une entente avec Google News de votre pays uniquement pour une entente similaire avec plus ou mois "d'exposure" publicitaire et partage des revenus.
*Et dire que maintenant la plupart des journaux des grands médias vous donnent des copies gratuites à tour de bras dans n'importe quels évènements et même dans les ventes trottoir de Montréal pour ne pas voir leur nombre de copies décroitre et se faire baisser leur cotes !
Technorati Tags: copiepresse, google, belgique, medias, libre+circulation
Réveil Belge douloureux
- Le billet sur le blog de Renaud Hermal, journaliste de DH Net et La Libre
- Blogging the news : billet 1 et billet 2
Technorati Tags: poursuite, google, belgique, journaux+belges, copiepresse
19 sept. 2006
Les journaux Belges radiés de Google Belgique
"On demande rémunération et autorisation à partir du moment où ils vendent de la publicité et s'enrichissent sur notre contenu", a déclaré lundi à Reuters la secrétaire générale de Copiepresse, Margaret Boribon.Après avoir été condamné pour la mise en ligne d'articles belges sur Google News Belgique, Google a tout simplement décidé de faire disparaître ces journaux de son index en Belgique.
Aux termes du jugement, Google devra donc retirer à partir de lundi tous les articles, représentations graphiques ou photographies des éditeurs belges de la presse francophone, sous peine de devoir payer un million d'euros par jour de retard.
Le hic est que Google News n'a jamais eu de publicité ! Et vlan dans les dents, car maintenant et Google News et l'index principal de Google Belgique ne contiennent plus de nouvelles et de pages indexées de ces journaux !
J'approuve à 100%.
Certains comme Associated Press et Le Monde ont fait autrement et ont conclus des ententes avec Google. Mais le meilleur modèle me semble tout de même celui d'un acteur local, le journal Le Devoir qui apparaît dans Google News mais ou certains de ses articles sont visibles en totalité uniquement avec abonnement. Ceci conjugué avec la mise en ligne de plus de trois annés d'archives du journal, a fait plus que centupler ses visiteurs provenant de Google ce qui est beaucoup plus profitable au niveau publicitaire.
J'espère que ce dernier modèle d'affaire fera réfléchir plusieurs autres médias et qu'un jour on pourra en arriver à ceci.
Qu'on se le dise bien, quand on met quelque chose sur le Web, on est suceptible de se le faire accaparer. On doit penser à adapter nos modèles d'affaires pour le Web.
Technorati Tags: google+belgique, google, belgique, radier, purge
18 sept. 2006
La Chine est probablement LA plus branché
Données tiré de l'excellent bulletin Guanxi (PDF) de la firme américaine Berkshire aidé d'une firme d'analyse de statistiques WOM (Word of Mouth) bien branché sur la Chine et qui confirme plusieurs articles et billets que j'ai consulté dans les derniers mois sur la montée fulgurante des pays asiatiques et spécialement de la Chine sur le Web:
- 40,000,000 utilisateurs de forums
- 6,000,000 de bloggeurs
- Utilisateurs (classique et mobile) : Entre 150 et 200 M (US Jan. 2006 : 154 M)
- Heures en ligne par semaine : 2 milliards (US : 129 millions)
- Flickr : Environ 500,000 photos sont téléchargés par jour
- Cyworld (Corée, Chine, Japon et un peu au US) : Près de 6.2 millions de photos sont téléchargés par jour
Google NetPAC : A l'assaut du plus grand défi
Technorati Tags: netpac, lobbying, google
YouTube le prochain Napster ?
La comprehension du Web au Quebec
Premièrement, qu'une compagnie de service n'est pas nécessairement une compagnie capable de profiter du dialogue. Elle doit pour ça être ouvert à l'écoute. Ou plutôt que l'écoute soit un vecteur important pour sa croissance. Une boîte de RP (comme Edleman) l'est, par définition - elle doit être à l'écoute du marché.Effectivement, comme dans la majorité du secteur des affaires au Québec, très peu de joueurs sont à l'écoute du Web. C'est même exaspérant dans le secteur de la publicité, où seulement une infime part de leurs employés utilisent les carnets Web pour suivre les tendances du marché. Et c'est exactement la même chose pour les sites Web en général. Demande à n'importe quel patron le nombre de visiteurs que son site reçoit ? Il y a 8 chance sur 10 qu'il ne le sache pas où qu'il te donne des chiffres farfelus.
Deuxièmement, qu'une compagnie qui ne comprend pas ce qui m'enrichit n'est pas faite pour moi. Dont acte.
C'est exactement la même chose pour les producteurs de sites Web. Plus de 90% des boites qui concoivent des sites Web ne pensent pas a rendre les sites de leurs clients conviviaux aux moteurs de recherche et perdre ainsi de 30 à 75% des visiteurs potentiels.
15 sept. 2006
Microsoft disparaît du Web
Tout ceci est dû à l'utilisation d'un javascript (gping="/GLinkPing.aspx?) utilisé dans les liens des résultats qui enlève les informations inhérentes au référents comme le site d'où vient le visiteur et les mots-clés utilisés dans sa recherche. Cette dernière information est d'ailleur primordiale pour les personnes en charge du marketing et les rédacteurs.
Mise à jour 21 sept : Maintenant corrigé
Technorati Tags: live+search, log+files, statistiques, analytics
Hittail : Un service d'optimisation automatique
Ceci n'est rien de bien nouveau. La première chose que j'enseigne à mes clients est justement de regarder leur référents-moteur (visiteur provenant des moteurs de recherche avec l'expression-clé utilisée) et de transmettre cette liste de mots-clés aux rédacteurs pour qu'ils utilisent, -si possible-, des synonymes de ces mots-clés à l'avenir dans leurs textes.
Simple logique !
Pourquoi réutilisé les mêmes mots-clés qui vous apportent déjà des visiteurs alors que vous pourriez élargir votre éventail avec des expressions clés similaires ayant du potentiel en vérifiant avec des outils comme Overture.
Le bon coté de ce service est qu'il ouvrira les yeux de certains clients qui pensent qu'en optimisant 10 pages de chaque langue de leur site, l'affaire est faîte. Cela n'est pas la bonne méthode.
Il faudra toujours des humains pour dénicher les bons mots, - et surtout -, les bons endroits pour les utilisés.
14 sept. 2006
Les revers du Web 2.0
- Les foutus spams dans les commentaires ou dans les forums
- La gestion légale de l'informations des commentaires ou forums
- Les zillions de billets qui parlent tous du même article sans vraiment de valeur ajouté
- Des sites aspirateurs de billets que pour vendre des publicités
- La dérive des algorithmes de classification qui t'envoie sur un zolie petit vidéo quand tu es sur Digg pour des articles sur la technologie
- Les manipulations de paquetages de votes
- Les réseaux sociaux bâtit grâce au spam.
- L'envahissement des réseaux sociaux par les gens de marketing
- Des sites poubelle à publicité
Les lecons a tirer d'une catatrophe
Gestion du pic d'affluence
Une page Web allégée devrait être prête a recevoir les informations les plus pertinentes en cas de crise. Une redirection de la page d'accueil habituelle vers cette page soulegera ainsi le(s) serveur(s). C'est d'ailleur ce qu'avait fait CNN un certain jour septembre 2001 et c'est ce qu'a fait hier le site français de Canoe.
Tous les sites Web d'institution ou de moyenne à grosse compagnie devrait aussi être doté d'une telle page avec un accès externe avec gestionnaire de contenu et script de redirection pour mettre à jour les informations pertinentes en cas de crise.
Gestion innefficace des informations du public
Un autre lacune assez évidente pour toutes personnes qui ont suivit les médias Web hier était le chaos total des informations contradictoires. Les sites Web des grand médias gèrent de façon absolument archaïque la collecte d'informations du public.
Radio-Canada, CyberPresse, et TQS nous offre que des adresses de courriel et des numéros de téléphones, alors que sur Canoe/LCN je n'ai rien trouvez du tout !!!
Aucun formulaire qui me permettrait aisément d'envoyer de l'information textuelle et électronique (photos ou vidéos) du style qu'utilisent les grands réseaux sociaux existants à la mode comme les MySpace, Blogger, Flickr, YouTube ou DailyMotion sur la Toile. Pathétique !
Technorati Tags: dawson, médias, trafic, collecte+informations
13 sept. 2006
Fusillade au college Dawson
Ce qui me surprend, c'est qu'encore en 2006, les infrastructures des réseaux téléphoniques et même les sites Web de certains médias et celui du collège sont assez affectés par cet évènements. Je trouve assez inconcevable que les réseaux de cellulaires et que le site du seul média national en français soit fortement affecté !
MàJ 15h : Des photos commencent a faire leurs apparitions sur Flickr.
MàJ 17h59 : Finalement une vingtaine de blessés, une jeune victime et un suspect abattu par la police.
Technorati Tags: dawson, college+dawson, fusillade,
CNN et AOL pousse un peu fort
Après un bref coup d'oeil, je croyais que c'était simplement un liste de mots-clés contenant des noms de vedettes mal géré, mais le descriptif de la publicité nous montre que CNN a bien intentionnellement utilisé la mort du fils d'une vedette pour s'attirer des lecteurs. Et ce n'est pas malheureusement pas les seuls a utiliser cette forme morbide de publicité comme le montre cette autre capture d'écran où une autre publicité de Starware et d'AOL à droite (non-visible ici) utilisent cet évènement pour faire de la publicité !
7 sept. 2006
Zippy : Un métamoteur surprenant
Zippy.co.uk est un métamoteur qui utilisent plusieurs sources pour vous présenter ses résultats. Il utilise principalement les 4 grands (Google, Yahoo, MSN et Ask) pour ses résultats en plus d'offrir les données d'Alexa, de Technorati et celles de Internet Archive.
J'ai testé une foule de moteurs et méta-moteurs depuis ces 12 dernières années et je suis très impressionné par ses résultats. En plus des résultats classiques, il permet aussi d'avoir des informations stratégiques sur les sites comme les données d'Alexa, le PageRank, les liens externes, le nombre de pages indexés, etc.
Grâce au recoupement des résultats des 4 grands (GYMA) et en utilisant le nom de domaine, il permet aussi de voir les pages ou billets les plus populaires d'un site quand ces pages sont positionnés par plus d'un moteur.
À découvrir !
PS: Je parie que vous trouverez des informations sur vous que vous n'aviez jamais vu ailleur !
Technorati Tags: metamoteur, zippy
6 sept. 2006
Google News Archive : Un premier pas vers des archives libres !
Les archives sont pour le moment principalement anglaises mais heureusement deux joueurs québécois, Canoe/LCN et le journal Le Devoir vont parfois percés les résultats. Du coté de nos cousins ; Le Monde, Libération, Le Nouvel observateur et L'Expansion sont aussi présent.
Utilisation
Les archives peuvent être affiché selon deux critères, par le critère Timeline qui est très minimaliste et par articles où la fouille se fait plus en profondeur.
Est-ce la naptérisation d'un autre modèle archaïque ?
Il y a fort a parier qu'un des détenteurs d'archives historiques fera le saut bientôt et qu'évidemment les autres suivront. Le modèle économique archaïque de faire payer l'utilisateur jusqu'à 5$ pour pouvoir consulter un simple article n'a jamais été très viable et le sera de moins en moins. On n'est plus du temps des micro-films et les éditeurs devraient se sortir la tête du sable.
L'ouverture des archives contenant des milliers d'articles au public résoudra deux des grands problèmes actuel des médias et ne nécessite qu'une très simple opération.
L'accès à un plus grand nombre de pages aisément ciblables pour les annonceurs, une plus grande notoriété pour le site - et une autorité (pagerank) accru - et des retombés économiques non négligeables pour le média.
3 sept. 2006
Calcul humain de masse et Etiquetage ludique 2.0
L'idée ici est de résoudre un des grands problèmes informatique, la reconnaissance et l'étiquetage sémantique de photographies et d'images. Les ordinateurs sont impuissant à l'heure actuelle a résoudre ce problème. Comme il y a des centaines de millions d'images et de photographies sur le Web sans valeur informationnelle précise, le problème est titanesque. Et l'informatique actuellle est impuissante à résoudre ce problème. La preuve ultime de ce constat est l'utilisation de CAPTCHA sur les formulaire, pour s'assurer que c'est bien un humain qui remplit le formulaire en question et non pas un programme informatique créer pour flouer le formulaire ou sondage en ligne. Assez paradoxal tout de même de créer un programme informatique que seul l'humain pourra résoudre !
Solution : L'ESP Game qui inspira le Google Image Labeler
Le jeu consiste a mettre en temps réel deux joueurs au hasard ensemble (ceci pour empêcher le SPAM) pour qu'ils puissent étiqueter (tag) des photos provenant de Google Image. Comme le jeu est chronométré, la pertinance des mots-clés doit en patir me dis-je.
Comment bien définir une photo de Martha Stewart par exemple ? Le premier mot venant à l'esprit est "femme" évidemment, mais ceci n'est pas très sémantiquement précis. "Femme d'affaires" ou "Martha Stewart" serait déja mieux. "Criminelle" pourrait aussi lui convenir. Alors comment gérer ces multiples possibilités ?
Tout simplement en re-soumettant une même image plusieurs fois à différents joueurs en leurs mentionnant que certaines étiquettes sont déja utilisées comme le "Off Limits" dans le jeu présenté ci-haut. Ce concept assez génial d'utiliser le procrastinateur internet comme main d'oeuvre gratuite vient du chercheur américain Luis von Ahn du département de science informatique de l'université Carnegie Mellon. Voir cette excellente présentation du bonhommme en question.
Possible d'étiqueter la grande majorité des images du Web ?
Certains en doute, mais moins de 100 heures après le lancement du jeu, les 5 joueurs les plus "intoxiqués" par ce jeux ont déja étiquetés, - à eux cinq seulement-, près de 50,000 images !
Génial !!!
Technorati Tags: google+images+labeler,, tagging, étiquetage, sémantique, jeux, calcul+humain+de+masse
1 sept. 2006
Les fournisseurs d'applications pour les Adwords devront casquer
Les gros utilisateurs de publicité sur Google qui utilisent des applications tierces se verront facturé à l'avenir pour l'extraction de données du programme Adwords.
Google mettra des quotas au début octobre prochain sur les requêtes sur son interface d'application (API - Application Program Interface) pour les dizaines de logiciels ou services en ligne qui utilisent son API pour plus d'un client.
Une bonne nouvelle pour les petits annonceurs qui auront moins de problème avec le panneau de contrôle des Adwords mais un batôn dans l'engrenage des dévelopeurs d'applications tierces et un surcoût pour leur clientèle.
Technorati Tags: adwords, api, quota
31 août 2006
Le Washington Post 2.0
Par contre, l'excellente idée de mettre tous les commentaires d'une personne sous son profil va peut-être servir d'auto-modérateur pour l'usager.
Un autre journal qui fait dans l'intéractivité, - et même de la socialisation avec l'aggrégation des commentaires sous une fiche, entre les lecteurs et ses journalistes. Cela a été long mais, ils n'ont plus beaucoup le choix pour survivre.
À suivre bientôt.
Via Micro Persuasion.
Technorati Tags: washington+post, media, 2.0
Search Marketing Standard
J'ai reçu le numéro 2 du magazine Search Marketing Standard édition automne 2006. Comme son nom l'évoque il traite principalement de marketing internet et d'optimisation Web.
C'est un magazine que je vais référerez surtout à mes clients pour démystifier et vulgariser les pratiques de cette industrie. Pour tous ceux qui évoluent dans le milieu depuis quelques années, il est un tout de même un bon aide-mémoire.
L'outil statistique d'Alexa est completement dans le champs
Outil fiable ?
Voici donc le graphique du nombre de page vues par les utilisateurs de la barre d'outils d'Alexa depuis 2002 sur le site du journal LeDevoir.com:
Comment interpréter ce graphique ? Selon Alexa, il y aurait en moyenne 0,00025 personnes sur 100 utilisateurs de leur barre d'outil qui visionnait le site du Devoir en 2002 ou encore 2,5 utilisateurs sur 1 million. En 2006 le ratio tomberait à environ 1,75 utilisateurs sur 1 million !!!
Sauf que pendant la même période, les référents moteurs* mensuel des fichiers journaux du journal du Devoir nous disent ceci :
Avril 2002 : 5 500 (ancien site avant optimisation)
Juin 2002 : 9 592 (le nouveau site a été lancé le 21 mai)
Novembre 2002 : 71 921
Janvier 2003 : 105 281 (ouverture des archives peu à peu)
Janvier 2006 : 741 682 (ajout de 2 années d'archives en ligne supplémentaire)
Plutôt surprenant non ? Une augmentation de 134 fois des référents moteur et aucune trâce de ceux-ci dans les données d'Alexa !
* Les référents moteurs sont à mon avis la donnée la plus exacte des analyses des fichiers journaux car elle nous permet de voir les provenances exactes des visites en plus des mots-clés utilisés en recherche ce qui empêche de se faire berner par les autres bruits internet (robots spammeur, ping, trackback, etc)
Technorati Tags: alexa, statistiques+web, ledevoir
Les statistiques de fréquentation Web : De plus en plus imparfaite
J'ai dû analyser dans mes 1o dernières années des terabytes de fichiers journaux (log files). Depuis 4 ou 5 ans leurs validités sont en déclins constants et ce indépendamment du logiciel d'analyse utilisé. Même les vieux de la vieille comme WebTrends sont de plus en plus déficiants.
Je préconisais d'ailleurs dans ce billet intitulé "Statistique Web : La perfection n'existe pas" deux systèmes en lignes par étiquetages doublé d'un système par log.
À la suite de ce billet Google Analytic est devenu disponible pour tout le monde. Après quelques comparaison je conseillais seulement celui-là à la grande majorité de mes clients tout en spécifiant que les meilleurs indicateurs sont toujours les témoins codés et leurs ventes ou demandes de renseignements.
Mais depuis la montée de Firefox - et autres fureteurs avec onglets (tab browser)- dans les statisques d'utilisation qui sont à l'heure actuelle de 12% à 60% selon le type de site (genre de site d'un site de météo jusqu'à un site nerds comme Slashdot), nos chers témoins (étiquette javascript et/ou cookies) sont passablement largués par cette nouvelle forme de navigation et ce, sans parler des nouvelles façons de coder les pages avec des layers invisibles, les CSS et l'Ajax !
J'adorerais savoir ce que les Networldmedia, CanoeKlix et même les Adwords comptabilise quand le client qui ouvre dans plusieurs onglets quelques publicités avec un seul cookie et témoin de leur unique fureteur ?
30 août 2006
Liens et reseaux sociaux
Par contre, comme dans la vie en général, il faut usé de modération (surtout quand cela influence les algorithmes des moteurs de recherche) et comprendre les implications des ajouts de liens que l'on implante dans ces pages.
Si votre site ou carnet utilise :
- une longue liste de vos amis ou connaissance (blog roll)
- de multiples catégories
- des billets pour le mois entier
- une multitudes de petits boutons vers des sites sociaux ou de monitoring
- une longue liste de liens divers
- Un nuage de mots-clés (tag cloud)
Donc je conseille vivement uniquement le premier des deux outils, le Social Bookmark Creator mais avec l'option "Drop Down Menu" à la place du "Link List". Pourquoi ? Tout simplement dû au fait que tous les liens inclus dans une boîte défilante (Drop Down Menu) ne sont pas pris en compte par les moteurs de recherche !!!
*Un superbe outil pour afficher le nombre et les liens d'une page est l'extension Web Developer qui ajoute une foule de fonctionnalité très pratique à Firefox.
Technorati Tags: réseaux+sociaux, liens, modération
Second Life : Quand la vraie vie rattrape le virtuel
Je n'ai jamais été fana des univers virtuels et des communautés "trop" ouverte sur la toile, même si j'utilise quotidiennement des ordinateurs réseautés depuis plus de 20 ans. En fait mes premières utilisations de BBS (bulletin board system) remonte à 1983 sur mon modem 300 bauds. Alors la bonne époque de la petite communauté virtuelle facilement gérable.
Dans ce siècle dernier, ces systèmes n'étaient quand même pas trop ouvert et la gestion des forums et téléchargements se faisait assez aisément car il n'y avait pas de multiples façons de se camoufler pour les emmerdeurs sur les lignes filaires.
Puis vient le Web et les premiers forums de discussions, les "trolls" apparurent et la gestion de ses indésarables devenu plus ardu.
Maintenant la plupart des blogs et systèmes de discussions permettent assez facilement de gérer les messages internes, pour peu qu'on s'en donne la peine.
Évidemment plus le système a de l'ampleur et de "l'exposure", plus il faut y mettre les ressources. Les "vrais" hackers ont adoptés les mêmes techniques que les terroristes de la fin du siècle dernier, - évidemment avec des résultats beaucoup moins catastrophique humainement parlant, mais presque autant médiatiquement et avec parfois des dommages économiques assez importants qui nous sont cachés mais qu'on paye chaque mois en frais bancaire et sur nos cartes de crédits.
2006 et les réseaux sociaux virtuels et les hackers 2.0
Revenons à nous moutons et SL (Second Live "pour les nuls"). J'ai des copains qui nous parle assez souvent de Second Life comme vous voyez.
Mon pote Michel y est allé d'un billet sur la frilosité des entreprises québécoises à aller sur Second Life et la découverte de Telus dans cet univers.
Mitch Joel replique plus tard en découvrant l'instigateur de la présence de Telus, qui de son propre chef, a mis un stand et une application de son produit sur SL.
Michel pousse plus a fond quelques jours plus tard, et découvre finalement que personnes aux relations publiques ne connait cette initiative et sont assez perplexe !
La finale :
Encore une mauvaise gestion des communications sur la Toile
La boutique de Telus a été placardé de plywood dans Second Life. Ensuite deux meutres virtuel devant la boutique !
C'est tout beau, tout neuf, mais l'on y répete les mêmes erreurs quand 95-2000. On y mettait des tonnes d'argent en publicité dans de gros portails pour mousser sa marque car leurs propres sites n'avaient aucun rayonnement et étaient "platement conçu", et les communautés naissantes de ces portails étaient souvent frileuses sur le plan du marketing aggressif sur une toile "gratuite". De plus, il ne veillent même pas assez sur ses nouveaux investissements même si c'est dans un univers virtuel.
Pauvre Serge, tu vas avoir du pain sur la planche virtuelle avec ton nouveau poste !
Technorati Tags: veille, second+live, telus, pr, communication, hacker+2.0, relation+publique
29 août 2006
Divertissement 2.0
Les tendances changes assez rapidement selon Google Trends et même ailleurs. Le vidéo musical semble prendre le pas sur le téléchargement de musique dans les nouvelles tendances. De plus, j'ai donné une chance au Mp3 dans ma requête sur Google Trends en utilisant la syntaxe "mp3" OU "music" + "download" contre simplement "music video". Le vidéo musical commence ainsi a reprendre la côte sur le MP3 à partir 2006 !
28 août 2006
Premiere attaque directe de Google sur Microsoft
La seule nouveauté ici, est que vous pourrez avoir votre logo d'entreprise d'intégré dans ces applications en ligne puisque GMail permettait déjà d'avoir votre propre nom de domaine.
Ce service est en phase beta, comme à l'habitude, mais il y a fort a parier que beaucoup d'autres services s'intégreront bientôt à cette offre comme les; Spreadsheet, Writely (traitement de texte), Desktop Search (qui pourrait possiblement être un service de recherche intranet), Maps (qui pourrait entre autres servir de localisateur de succursales), Web Album et Blogger (pour les communications internes et externes), etc.
Je ne crois pas que Google fasse vraiment mal à Microsoft avec ce regroupement de services, mais les Zoho, Thinkfree et Zimbra vont surement en pâtir un peu !
Technorati Tags: google+apps, google+services
25 août 2006
Les recherches sur le Web : Un indicateur économique assez précis
Ce graphique représente les ventes de maisons compilé par l'association nationale des courtiers américains. Assez frappant comment le volume de recherches effectué sur "homes for sale" se reflète dans les ventes effectives ! Ici on peut probablement assumé que les ventes du mois d'août vont problablement être à la hausse.
Source : Le blog de Hitwise
Technorati Tags: recherches, optimisation, indicateur+économique, marketing
23 août 2006
Regles d'optimisation pour les medias
- Sachez cibler votre audience (et la géolocalisation aussi pour vos services)
- Utilisez un vocabulaire simple et axé sur les mots-clés utilisés en recherche
- Pensez prioriterement à la pérennité de votre information (un bon archivage est primordial)
- Travaillez votre capital Liens (Rendez votre site un incontournable)
- Récompensez les liens entrants
- Favorisez la diffusion de votre contenu (Essentiel)
- Encouragez les applications composites (Tout en effectuant une veille serrée)
- Soyez une ressource pour les internautes, sans rechercher aucun retour immédiat
- Récompensez les internautes serviables et de qualité (Les produits promotionnels sont là pour cela)
- Participez
- Soyez créateur de contenu
- Soyez vous-même
- N'oubliez pas vos racines, restez humble
- N'ayez pas peur d'expérimenter des choses nouvelles, gardez votre fraîcheur
- Développez une stratégie d'optimisation pour les médias sociaux
- Rendez convivial l’ajout de tags ou de signets
- Choisissez soigneusement vos tactiques d'optimisation
- Intégrez à votre processus de création et vos meilleures pratiques l'optimisation pour les médias sociaux
Original story
22 août 2006
21 août 2006
Google Checkout : Lent démarrage
Google semble encore une fois avoir lancé trop tôt un service mal ficelé. Plusieurs se plaignent depuis le début, du rôle un peu trop envahissant de Google dans la transaction et du manque d'ouverture de Google sur les données du client pour le suivit après vente du marchant et de quelques délais de traitement de commande très long.
Une nouvelle version de Checkout serait attendu d'ici quelques semaines ce qui pourrait remettre le service en valeur.
15 août 2006
Manque
C'est le constat qui me frappe en pleine gueule ce matin... MANQUE. Pas du soleil, j'en ai eu pleinement ce dernier mois.
Manque de balises. Manque d'unicité. Manque de leadership et surtout manque de vision gouvernementale. Pathétique !
Gros manque d'éducation au Web. Le Web d'ici semble être le Liban d'aujourd'hui !!!
Les jeunes acteurs du Web d'ici pré-baby-boomers n'ont malheureusement pas encore pris les postes des vieux croutons qui ont connu le téléphone à roulette, la télé en noir et blanc et les 78 tours ! Ceux qui performent le font dans leur coin et sans grand rayonnement.
Bon finalement, je pense que je repars quelques jours en vacance ! ;-)
12 juill. 2006
Déclinaisons internationales de Google Vidéo
Technorati Tags: google+video
11 juill. 2006
Tendance : La pub et le virtuel
Technorati Tags: youniversal+branding, young+marketing
7 juill. 2006
Si la tendance se maintient Wikia annonce que le prochain président sera...
Technorati Tags: politic, wikia
4 juill. 2006
Google intègre de plus en plus le Canada dans sa stratégie publicitaire
En prime, sur l'onglet Address l'on voit aussi maintenant la possibilité d'envoyer les informations trouvées sur Google Maps à son téléphone cellulaire ! Il me semble bizarre pourtant que dans la liste des "carrier" il ne semble pas y avoir de "telco" canadienne ?
Technorati Tags: google+maps, send-to-phone
Suivre le tour de France 2006 en temps réel
La carte suit automatiquement le peloton, - grâce à des GPS des suiveurs des pelotons -, au travers des magnifiques images de la France fraîchement mises à jour !
Mode d'emploi en cas de problèmes
- Assurez-vous d'avoir le layer Tour de France 2006
- Ouvrir ce layer et cliquer sur le sous-layer Live TDF
- Cliquez sur le bouton Close follow view
- Vous devriez voir un vélo apparaitre sur la carte (quand l'étape est en cours)
Technorati Tags: tour+de+france+2006, Google+Earth
29 juin 2006
Les publicitaires et le Web
Imaginez maintenant uniquement la période 9 à 17h du lundi au vendredi ou le Web et la radio doivent dominer radicalement !
Technorati Tags: publicité+web, publicitaire
27 juin 2006
Veille et marketing 2.0
Suite à la publication hier soir de mon billet sur le nouveau méta-moteur HuckaBuck j'ai reçu aujourd'hui un courriel du département marketing qui m'invitait a me joindre au cercle d'intimes.
Une bel exemple de veille et de fidélisation de la clientèle qui est plutôt rare par ici !!!
La bulle de 2000, les phylacteres de 2007
Drôle de paradoxe, le premier crash était à cause d'une spéculation trop forte et surtout anticipée quelques années trop tôt. Les modèles d'affaires n'avait pas encore vu le jour. Aujourd'hui, c'est quasiment le contraire, les médias trad voient leur public fuir vers le Web et les annonceurs ne savent plus où donner de la pub !
21 juin 2006
Google testera le modele cout-par-action
Contrairement au PPC (pay-per-click) le client qui annonce ne se verra facturé que si le clic provenant du site où est l'annonce, résulte en une action quelquonque du genre vente directe ou demande d'information. Ceci bonifiera certaine le nombre d'annonceurs chez Google, surtout dans les domaines hautement compétitifs où la fraude au clic est assez importante.
Ceci permettra aussi fort probablement a plusieurs annonceurs de voir, -pour la première fois-, le réel RSI (retour sur investissement) et de les comparer ainsi avec les autres modèles que sont le PPC et le CPM (coût par mille impressions).
Ceci risque d'ébranler de nombreux joueurs dans cette industrie qui voit apparaître dernièrement beaucoup de firmes avec leurs statistiques très élastiques !
En espérant que Google Analytics intègre au plus tôt ce nouveau modèle dans nos statistiques de fréquentation.
19 juin 2006
Tupperware Web Marketing
C'est le type de; compagnies, consultants, analystes ou/et même charlatans qui ont tous, - ou presque-, un unique créneau en parlant du marketing sur le Web. Pour les uns c'est que; des mots-clés et des "Web Focus group", pour les autres ce sont les trads indécrotables et leur banières publicitaires, les gourous des blogues, les sectaires des publicités par clics ou les évangilisateurs des mailing list et aussi plus rare mais bientôt sur vos moniteurs et magazines, les accrocs de l'infolust.
Le marketing Web c'est bien plus que cela. C'est avant tout de l'éducation pour bien gérer la pérénité de l'information et être à l'écoute des nouvelles tendances mais surtout en ayant de solides compétences et expériences de la quincaillerie (back-end) et de l'interface utilisateur (front-end). Ce qui semble manqué à la très grande majorité des intervenants du milieu. Ou alors, si vous faîtes affaires avec une très grosse agence qui supposément sait tout faire, vos besoins et buts risquent de passer par le téléphone arabe d'une ribambelle de personnes en passant par le chargé de compte, le chargé de projet, les employés et finalement les consultants et/ou stratèges externes comme cela m'arrive malheureusement trop souvent.
Le Web, contrairement à presque tous les autres médias actuellement, c'est vivant, mouvant et peut être d'actualité à chaque requête Internet.
Technorati Tags: Tupperware, Web, Marketing,
tupperware+web+marketing
Exemple d'une campagne virale à coût modique
Technorati Tags: campagne+virale, buzz+marketing, liens, rétro-liens
16 juin 2006
Google lance Picasa Web Albums
Pour
- Très rapide
- Permet d'y déposer près de 1000 photos (250 meg) gratuitement contrairement à 200 pour Flickr
- La résolution des photos peut être jusqu'à 1,600 pixel x 1,200
- Pas de limitation pour le nombre d'albums
- Réorganisation de l'ordre des photos très simple et rapide
Contre
- Pas de groupe
- Pas d'étiquette
- Pas de favoris
9 juin 2006
Closed Captioning : Nos médias l'utiliseront-il efficacement un jour sur le Web ?
Il est surnommé CC et le "closed" est dû au fait qu'il faut activer le décodeur par notre télécommande de télévision pour le voir apparaître en surimpression sur l'image. Depuis 1993, partout en amérique du nord, tous les téléviseurs doivent avoir ce décodeur intégré. En europe il est appelé télétexte.
La grande majorité des ; émissions, bulletins de nouvelles et même certaines publicités ont ce sous-titrage intégré. Il est ajouté au signal analogique soit en temps réel par des sténographes, soit en post-production d'une émission ou d'un reportage. Il en coûte environ entre $10 et $20 la minute en moyenne pour le faire en post-production. Il est intégré dans la ligne 21 du signal et est synchronisé avec l'émission ou le document.
Le Web et la vidéo
Le principal problème des documents vidéos provenant des médias sur le Web est que leurs contenus sont très difficilement identifiable par les moteurs de recherche. Ils sont insérés sur la Toile avec un court titre, des fois avec une petit descriptif et rarement avec des étiquettes (tag).
Développement durable
Il serait tellement facile, et pratiquement sans aucun coût supplémentaire, pour ces médias producteurs de contenu de tout simplement, à la source, prendre la copie texte des sténographes et de la donner à la division Web de ces grands médias. Eux pourrait tout simplement mettre un lien près du vidéo sur ce fichier texte. Les malentendants, les moteurs de recherche et les tous les internautes seraient ravis. Et les médias Web verraient leur trafic augmenté ainsi que leurs revenues publicitaires !
Mais je ne l'ai encore jamais vu sur le Web. Quel gaspillage !!!
Update 14h: Dumais m'a fait remarquer que PBS, (nul autre que) met les CC en transcripts sur leur pages Web et les offres aussi dans les QuickTimes (caption) de la série d'une de ces émissions. Malheureusement pour eux, vu que ces transcriptions apparaissent dans des fenêtres-éclairs (pop-up) les moteurs de recherche ne peuvent y accédés !!!
Page Wiki anglaise sur le Closed Captioning
Site extrement complet en anglais sur le Closed Captioning.
Et même un blog sur le CC.
Technorati Tags: médias, closed-captioning, cc, transcript, video, web, internet
8 juin 2006
Rencontre Yulblog
Soirée vraiment réussi hier soir à la Quincaillerie. La grande majorité des gens présent semblent avoir aimé ce nouvel endroit très aéré avec ses grandes tables à l'avant qui permettent de mieux socialiser entre férues des carnets Web. Une trentaine de convives qui ont dû répondre à cette petite question salée.
Technorati Tags: yulblog, montreal
7 juin 2006
Dico : Cannibalisation Web
C'est ma définition/traduction de la parade "mirroring" utilisé par les optimisateurs peu scrupuleux de l'époque pré-marketing Web pour avoir le plus de résultats possibles dans la première page de résultats des moteurs de recherche. Ces gens dupliquaient tout simplement et intégralement de nombreuses pages de leur site sur deux ou de multiples noms de domaine différents pour accaparer le maximum de résultats dans la première page des moteurs de recherche.
Cette expulsion massive des optimisateurs peu scrupuleux (black hat) utilisant cette technique est apparu à ma souvenance pour la première fois dans le monde de l'optimisation Web il y a quelques années lors de la célèbre mise à jour des algorithmes de Google prénommé par Brett Tabke le "Florida update" il y a 3 ans en à la mi-novembre. Un vrai tsunami. Comme vous le voyez dans le liens ci-haut, c'est tout de même près de 60,000 pages et des dizaine de milliers de "post dans les forums spécialisés qui ont été ébranlé de ces techniques douteuses à l'époque et qui ont été plus ou moins évacués des moteurs de recherche.
Pourquoi je reviens sur cette très vieille affaire, dixit à l'échelle Internet ?
En analysant aujourd'hui la communication Web d'un nouveau client, j'ai remarqué que son nouveau site spécifique pour mieux développer son produit vedette avait utilisé en partie les mêmes textes que sur le site mère. Erreur ! Même si les pages du nouveau site sont tout de même indexées par Google (donc pas totalement bannies), elles n'apparaissent jamais dans une recherche très spécifique du style "dix mots-clés entre guillemets" qui pourtant sont tous contenus dans les pages des deux sites? Seul le site de la maison mère apparaît dans les résultats !
C'est me semble-t'il plus pénalisant depuis le nouveau update du mois de mars par Google surnommé Bigdaddy qui semble encore plus tatillon sur cette pratique. Et je trouve ça parfaitement logique et même très bien.
Si l'on transpose cela dans la vraie vie : Je connais pas beaucoup de succursales de Jean-Coutu de la côte-nord ou du Lac St-Jean où on utiliserait le même phrasé pour me répondre sur une question que si je contactait le siège social de l'entreprise.
Diversifiez votre écriture rédactionnelle selon votre clientèle. Dans le site du siège social vous pouvez utiliser un style d'écriture plus généraliste et de langage plus soigné et dans vos sites spécifiques et/ou régionaux, utilisez un style plus technique et s'approchant plus du language populaire en décrivant les problèmes et solutions que vos produits et/ou services solutionnnent !!!
Technorati Tags: Cannibalisation+Web, rédaction+web, google
2 juin 2006
Surf qui peut 2006
Agréable rencontre hier à l'événement Surf qui peut 2006 sur une superbe terrasse de l'île des Soeurs organisé par l'IAB, Canoe et Sympatico /Msn.
J'ai été surpris de la meilleure compréhension du médium internet par les intervenants marketing que par le passé ou lorsque je mentionnais "Skype" ou "Firefox" dans une conversation on me prenait pour un martien. Il y a de l'espoir !