| Audit SEO Gratuit | Fil RSS |


26 sept. 2006

S'inscrire gratuitement à Google Maps

Il est très simple et assez rapide pour s'inscrire et d'avoir sa fiche sur Google Maps. Celle-ci comprend :
  • Son nom d'entreprise
  • L'adresse complète
  • Un lien vers son site
  • Les méthodes de paiement acceptées
  • Une courte description
  • Des coupons rabais (pas testé encore)
Combien ? Gratuit !!!

Il faut simplement avoir un compte chez Google et ensuite aller ici (Pour nos voisins américain c'est ici) et tout simplement entrer les informations ci-haut, ensuite choisir une ou plusieurs catégories reliées à vos produits ou services. Ensuite vous choisissez la méthode de vérification que vous préférez, soit par la poste sous forme de carte postale ou encore par le système téléphonique automatisé de Google.

C'est que j'ai choisit et j'ai reçu un appel automatique de Google où l'on doit entrer par le clavier du téléphone le NIP qui apparaît sur la page Web de confirmation de l'information. Et voilà ! Il ne reste qu'a attendre que Google Maps intègre votre fiche, dans mon cas moins d'une semaine plus tard !

L'inscription gratuite à Google Maps peut générer passablement de pages vues par mois et un taux de clic vers votre site ou d'appel téléphonique en moyenne supérieure à une bannière publicitaire. Il faut bien utiliser le maximum des cinq catégories possible et n'hésiter pas à créer la votre si elle n'est pas disponible dans la liste des catégories de Google Maps.




Technorati Tags:

Publicité dynamique 2.0

Novatrice la nouvelle forme de publicité dynamique inventé par Gabe Rivera de TechMeme. Contrairement à la traditionelle publicité insérée dans un fil RSS, c'est plutôt le dernier billet du Sponsor qui est affiché dans la colonne de droite sur la page de Techmeme. Ainsi l'annonceur peut modifier à volonté sa publicité par l'ajout d'un nouveau billet sur son blog et qui est automatiquement transposé sur le site de Techmeme. Il en coûte de $4,500 à $3,000, - selon la position -, pour trois mois pour les annonceurs. Comme le mentionne Jeff Jarvis, c'est une aubaine !

La grande force de ce nouveau concept est qu'il permettra aussi de synchroniser ses publicités avec les sujets du jour qui populent Techmeme. Bravo et très bonne idée !

Technorati Tags: , , ,

20 sept. 2006

Google vs Belgique : Vive les vieilles autruches

Voici un très bon passage de l'article et entrevue de Danny Sullyvan avec la porte-parole de CopiePresse, l'autruche en question :

I had a very long conversation about the permissions issue with Margaret Boribon, secretary general of Copiepresse, to try and better understand how they wanted Google to operate. Why not use commonly understood and effective mechanisms such as robots.txt files or meta robots tags to prevent indexing?

"If you do so, you admit that Google does what they want, and if you don't agree, you have to contact them. This is not the legal framework of copyright," Boribon said.

This is an age old issue in the search engine world. By default, search engines assume that permission is granted to index a document, in order to make it searchable. Technically, shouldn't they get explicit permission? Legally, that might make things safer. Logistically, it would never work. Many sites don't have clear contact details. Some domains themselves contain multiple sites. Moreover, there are millions of sites across the web. Contacting them all beforehand simply wouldn't work well.

I asked Boribon about this, how her group would propose search engines undertake such a task.

"I'm sure they can find a very easy system to send an email or a document to alert the site and ask for permission or maybe a system of opt-in or opt-out," she said.

Would it be OK for such a system to work automatically, I asked? Yes, that would be fine. A machine-to-machine connection would be OK, she said. So then, I asked, why not use the existing robots.txt or meta robots systems?

Both mechanisms are easy, automatic ways for publishers to declare if they grant indexing permission or not. In fact, I'd argue that both are a way for search engines to ask beforehand for the very permission that Copiepresse wants them to seek. Major search engines -- not just Google -- all request or check these blocking mechanisms.

Boribon rejected the existing solutions. One issue she had was that they weren't legally endorsed. That's true, but that's also something I think will change over time. In the US, we've had one case recently where opt-out solutions like tags have been accepted.


Je ne peux pas croire que des médias n'essais pas de trouver des solutions originales (sans passer par la voix des tribunaux) face au fait que les moteurs de recherches profitent à tous le monde et sont essentiels à notre patrimoine culturel et informationels mondial.

J'étais déjà estomaquer à l'époque ou en 2001-2002 d'apprendre que l'IAB ne reconnaissait pas le téléchargement de PDF de journaux et de leurs publicités comme étant de la copie distribué*.

Merde, réveillez-vous.

Une des nombreuses solutions facilement applicables des deux cotés pour la libre circulation:

Vous obligez Google news a publier aussi l'annonce de votre régie publicitaire provenant de votre section Monde de 100 x 200 pixels pour un résumé de 100 mots. Ou encore 200 x 600 pixels pour 400 mots ? Google l'aspire comme votre résumé et votre "tracker" assure la page vue et aussi le "click thru". Techniquement compliquer ? Vraiment pas !

Votre annonceur est uniquement local ? Vous passer une entente avec Google News de votre pays uniquement pour une entente similaire avec plus ou mois "d'exposure" publicitaire et partage des revenus.

*Et dire que maintenant la plupart des journaux des grands médias vous donnent des copies gratuites à tour de bras dans n'importe quels évènements et même dans les ventes trottoir de Montréal pour ne pas voir leur nombre de copies décroitre et se faire baisser leur cotes !

Technorati Tags: , , , ,

Réveil Belge douloureux

Voici quelques réactions des Belges sur l'affaire Google vs CopiePresse (Belgique).
  • Le billet sur le blog de Renaud Hermal, journaliste de DH Net et La Libre
  • Blogging the news : billet 1 et billet 2


Technorati Tags: , , , ,

19 sept. 2006

Les journaux Belges radiés de Google Belgique

"On demande rémunération et autorisation à partir du moment où ils vendent de la publicité et s'enrichissent sur notre contenu", a déclaré lundi à Reuters la secrétaire générale de Copiepresse, Margaret Boribon.
Aux termes du jugement, Google devra donc retirer à partir de lundi tous les articles, représentations graphiques ou photographies des éditeurs belges de la presse francophone, sous peine de devoir payer un million d'euros par jour de retard.
Après avoir été condamné pour la mise en ligne d'articles belges sur Google News Belgique, Google a tout simplement décidé de faire disparaître ces journaux de son index en Belgique.

Le hic est que Google News n'a jamais eu de publicité ! Et vlan dans les dents, car maintenant et Google News et l'index principal de Google Belgique ne contiennent plus de nouvelles et de pages indexées de ces journaux !

J'approuve à 100%.

Certains comme Associated Press et Le Monde ont fait autrement et ont conclus des ententes avec Google. Mais le meilleur modèle me semble tout de même celui d'un acteur local, le journal Le Devoir qui apparaît dans Google News mais ou certains de ses articles sont visibles en totalité uniquement avec abonnement. Ceci conjugué avec la mise en ligne de plus de trois annés d'archives du journal, a fait plus que centupler ses visiteurs provenant de Google ce qui est beaucoup plus profitable au niveau publicitaire.

J'espère que ce dernier modèle d'affaire fera réfléchir plusieurs autres médias et qu'un jour on pourra en arriver à ceci.

Qu'on se le dise bien, quand on met quelque chose sur le Web, on est suceptible de se le faire accaparer. On doit penser à adapter nos modèles d'affaires pour le Web.

Technorati Tags: , , , ,

18 sept. 2006

La Chine est probablement LA plus branché

Sceptique ?

Données tiré de l'excellent bulletin Guanxi (PDF) de la firme américaine Berkshire aidé d'une firme d'analyse de statistiques WOM (Word of Mouth) bien branché sur la Chine et qui confirme plusieurs articles et billets que j'ai consulté dans les derniers mois sur la montée fulgurante des pays asiatiques et spécialement de la Chine sur le Web:

  • 40,000,000 utilisateurs de forums
  • 6,000,000 de bloggeurs
  • Utilisateurs (classique et mobile) : Entre 150 et 200 M (US Jan. 2006 : 154 M)
  • Heures en ligne par semaine : 2 milliards (US : 129 millions)
Un autre exemple hallucinant de l'utilisation des asiatiques du Web comparativement aux occidentaux :
  • Flickr : Environ 500,000 photos sont téléchargés par jour
  • Cyworld (Corée, Chine, Japon et un peu au US) : Près de 6.2 millions de photos sont téléchargés par jour
Technorati Tags: , , ,

Google NetPAC : A l'assaut du plus grand défi

Très bon papier du San Francisco Chronicle sur la nouvelle initiative de Google pour se (re)faire une crédibilité, - du point de vue républicain -, en formant un comité d'action politique pour la promotion de la liberté d'expression sur Internet. C-a-d du vrai lobbying !

Technorati Tags: , ,

YouTube le prochain Napster ?

C'est du moins ce qu'en pense Mark Cuban et je dois admettre qu'il n'a pas tout à fait tord !

La comprehension du Web au Quebec

À la suite de la lecture du, - excellent comme toujours -, billet Le retour des intermédiaires de Martin, les conclusions qu'il décrit ne me surprennent pas trop pour avoir évoluez avec quelques acteurs de son industrie.

Premièrement, qu'une compagnie de service n'est pas nécessairement une compagnie capable de profiter du dialogue. Elle doit pour ça être ouvert à l'écoute. Ou plutôt que l'écoute soit un vecteur important pour sa croissance. Une boîte de RP (comme Edleman) l'est, par définition - elle doit être à l'écoute du marché.

Deuxièmement, qu'une compagnie qui ne comprend pas ce qui m'enrichit n'est pas faite pour moi. Dont acte.
Effectivement, comme dans la majorité du secteur des affaires au Québec, très peu de joueurs sont à l'écoute du Web. C'est même exaspérant dans le secteur de la publicité, où seulement une infime part de leurs employés utilisent les carnets Web pour suivre les tendances du marché. Et c'est exactement la même chose pour les sites Web en général. Demande à n'importe quel patron le nombre de visiteurs que son site reçoit ? Il y a 8 chance sur 10 qu'il ne le sache pas où qu'il te donne des chiffres farfelus.

C'est exactement la même chose pour les producteurs de sites Web. Plus de 90% des boites qui concoivent des sites Web ne pensent pas a rendre les sites de leurs clients conviviaux aux moteurs de recherche et perdre ainsi de 30 à 75% des visiteurs potentiels.

15 sept. 2006

Microsoft disparaît du Web

C'est presque vrai dans un sens. Il n'apparait plus dans les rapports de statistiques de vos fichiers journaux (log files) et dans les services de statistiques en ligne que j'ai testé (WebStats, Site Meter, Webstats4you). Seul le service de Google Analytics m'affiche toujours les référents de MSN.

Tout ceci est dû à l'utilisation d'un javascript (gping="/GLinkPing.aspx?) utilisé dans les liens des résultats qui enlève les informations inhérentes au référents comme le site d'où vient le visiteur et les mots-clés utilisés dans sa recherche. Cette dernière information est d'ailleur primordiale pour les personnes en charge du marketing et les rédacteurs.

Mise à jour 21 sept : Maintenant corrigé

Technorati Tags: , , ,

Hittail : Un service d'optimisation automatique

Assez surprenant comme nouveau service. Cela ce décline comme une solution d'analyse automatique de mots-clés négligés (ayant du potentiel) à partir de code de pistage sur votre site.

Ceci n'est rien de bien nouveau. La première chose que j'enseigne à mes clients est justement de regarder leur référents-moteur (visiteur provenant des moteurs de recherche avec l'expression-clé utilisée) et de transmettre cette liste de mots-clés aux rédacteurs pour qu'ils utilisent, -si possible-, des synonymes de ces mots-clés à l'avenir dans leurs textes.

Simple logique !

Pourquoi réutilisé les mêmes mots-clés qui vous apportent déjà des visiteurs alors que vous pourriez élargir votre éventail avec des expressions clés similaires ayant du potentiel en vérifiant avec des outils comme Overture.

Le bon coté de ce service est qu'il ouvrira les yeux de certains clients qui pensent qu'en optimisant 10 pages de chaque langue de leur site, l'affaire est faîte. Cela n'est pas la bonne méthode.

Il faudra toujours des humains pour dénicher les bons mots, - et surtout -, les bons endroits pour les utilisés.

14 sept. 2006

Les revers du Web 2.0

Web 2.0 par si, Web 2.0 par là, c'est bien beau le 2.0 mais il ne faut pas oublier que cela dérape aussi. Exemples :
Technorati Tags: , , ,

Les lecons a tirer d'une catatrophe

Les évènements cahotiques d'hier devraient faire réfléchir plus d'un gestionnaires des communications. Les sites Web de plusieurs médias québécois et la surcharge des réseaux de téléphonie cellulaire ont rendus cahotique le suivit des informations. Cela n'est vraiment pas idéal en cas de crise où justement l'accès à l'information peut être capitale dans certains cas.

Gestion du pic d'affluence

Une page Web allégée devrait être prête a recevoir les informations les plus pertinentes en cas de crise. Une redirection de la page d'accueil habituelle vers cette page soulegera ainsi le(s) serveur(s). C'est d'ailleur ce qu'avait fait CNN un certain jour septembre 2001 et c'est ce qu'a fait hier le site français de Canoe.

Tous les sites Web d'institution ou de moyenne à grosse compagnie devrait aussi être doté d'une telle page avec un accès externe avec gestionnaire de contenu et script de redirection pour mettre à jour les informations pertinentes en cas de crise.

Gestion innefficace des informations du public

Un autre lacune assez évidente pour toutes personnes qui ont suivit les médias Web hier était le chaos total des informations contradictoires. Les sites Web des grand médias gèrent de façon absolument archaïque la collecte d'informations du public.

Radio-Canada, CyberPresse, et TQS nous offre que des adresses de courriel et des numéros de téléphones, alors que sur Canoe/LCN je n'ai rien trouvez du tout !!!

Aucun formulaire qui me permettrait aisément d'envoyer de l'information textuelle et électronique (photos ou vidéos) du style qu'utilisent les grands réseaux sociaux existants à la mode comme les MySpace, Blogger, Flickr, YouTube ou DailyMotion sur la Toile. Pathétique !

Technorati Tags: , , ,

13 sept. 2006

Fusillade au college Dawson

Encore un autre fusillade du type de la tragédie de la polytechnique ou de Columbine. Les médias québécois réagissent assez rapidement et font de plus en plus d'appel à tous pour avoir plus d'informations. Il y aurait deux un suspect de mort et probablement une demi-douzaine vingtaine de blessés.

Ce qui me surprend, c'est qu'encore en 2006, les infrastructures des réseaux téléphoniques et même les sites Web de certains médias et celui du collège sont assez affectés par cet évènements. Je trouve assez inconcevable que les réseaux de cellulaires et que le site du seul média national en français soit fortement affecté !

MàJ 15h : Des photos commencent a faire leurs apparitions sur Flickr.
MàJ 17h59 : Finalement une vingtaine de blessés, une jeune victime et un suspect abattu par la police.

Technorati Tags: , , ,

CNN et AOL pousse un peu fort

* Visible aux États-Unis seulement.

Après un bref coup d'oeil, je croyais que c'était simplement un liste de mots-clés contenant des noms de vedettes mal géré, mais le descriptif de la publicité nous montre que CNN a bien intentionnellement utilisé la mort du fils d'une vedette pour s'attirer des lecteurs. Et ce n'est pas malheureusement pas les seuls a utiliser cette forme morbide de publicité comme le montre cette autre capture d'écran où une autre publicité de Starware et d'AOL à droite (non-visible ici) utilisent cet évènement pour faire de la publicité !

7 sept. 2006

Zippy : Un métamoteur surprenant


Zippy.co.uk est un métamoteur qui utilisent plusieurs sources pour vous présenter ses résultats. Il utilise principalement les 4 grands (Google, Yahoo, MSN et Ask) pour ses résultats en plus d'offrir les données d'Alexa, de Technorati et celles de Internet Archive.

J'ai testé une foule de moteurs et méta-moteurs depuis ces 12 dernières années et je suis très impressionné par ses résultats. En plus des résultats classiques, il permet aussi d'avoir des informations stratégiques sur les sites comme les données d'Alexa, le PageRank, les liens externes, le nombre de pages indexés, etc.

Grâce au recoupement des résultats des 4 grands (GYMA) et en utilisant le nom de domaine, il permet aussi de voir les pages ou billets les plus populaires d'un site quand ces pages sont positionnés par plus d'un moteur.

À découvrir !

PS: Je parie que vous trouverez des informations sur vous que vous n'aviez jamais vu ailleur !

Technorati Tags: ,

6 sept. 2006

Google News Archive : Un premier pas vers des archives libres !

Enfin des recherches dans de multiple archives Web. Surtout après 3 ans où il nous avait été possible de tâter pendant une courte semaine la recherche sur Web Archive d'Alexa. Évidemment, ce n'est qu'une infime partie des archives qui sont accessible et encore une plus petite partie qui sont libre de droit, mais c'est le pied dans la porte.

Les archives sont pour le moment principalement anglaises mais heureusement deux joueurs québécois, Canoe/LCN et le journal Le Devoir vont parfois percés les résultats. Du coté de nos cousins ; Le Monde, Libération, Le Nouvel observateur et L'Expansion sont aussi présent.

Utilisation

Les archives peuvent être affiché selon deux critères, par le critère Timeline qui est très minimaliste et par articles où la fouille se fait plus en profondeur.


Est-ce la naptérisation d'un autre modèle archaïque ?

Il y a fort a parier qu'un des détenteurs d'archives historiques fera le saut bientôt et qu'évidemment les autres suivront. Le modèle économique archaïque de faire payer l'utilisateur jusqu'à 5$ pour pouvoir consulter un simple article n'a jamais été très viable et le sera de moins en moins. On n'est plus du temps des micro-films et les éditeurs devraient se sortir la tête du sable.

L'ouverture des archives contenant des milliers d'articles au public résoudra deux des grands problèmes actuel des médias et ne nécessite qu'une très simple opération.

L'accès à un plus grand nombre de pages aisément ciblables pour les annonceurs, une plus grande notoriété pour le site - et une autorité (pagerank) accru - et des retombés économiques non négligeables pour le média.

3 sept. 2006

Calcul humain de masse et Etiquetage ludique 2.0

Au départ, j'étais un peu sceptique sur le concept du jeu du Google Images Labeler et surtout de la valeur des résultats.

L'idée ici est de résoudre un des grands problèmes informatique, la reconnaissance et l'étiquetage sémantique de photographies et d'images. Les ordinateurs sont impuissant à l'heure actuelle a résoudre ce problème. Comme il y a des centaines de millions d'images et de photographies sur le Web sans valeur informationnelle précise, le problème est titanesque. Et l'informatique actuellle est impuissante à résoudre ce problème. La preuve ultime de ce constat est l'utilisation de CAPTCHA sur les formulaire, pour s'assurer que c'est bien un humain qui remplit le formulaire en question et non pas un programme informatique créer pour flouer le formulaire ou sondage en ligne. Assez paradoxal tout de même de créer un programme informatique que seul l'humain pourra résoudre !

Solution : L'ESP Game qui inspira le Google Image Labeler

Le jeu consiste a mettre en temps réel deux joueurs au hasard ensemble (ceci pour empêcher le SPAM) pour qu'ils puissent étiqueter (tag) des photos provenant de Google Image. Comme le jeu est chronométré, la pertinance des mots-clés doit en patir me dis-je.

Comment bien définir une photo de Martha Stewart par exemple ? Le premier mot venant à l'esprit est "femme" évidemment, mais ceci n'est pas très sémantiquement précis. "Femme d'affaires" ou "Martha Stewart" serait déja mieux. "Criminelle" pourrait aussi lui convenir. Alors comment gérer ces multiples possibilités ?



Tout simplement en re-soumettant une même image plusieurs fois à différents joueurs en leurs mentionnant que certaines étiquettes sont déja utilisées comme le "Off Limits" dans le jeu présenté ci-haut. Ce concept assez génial d'utiliser le procrastinateur internet comme main d'oeuvre gratuite vient du chercheur américain Luis von Ahn du département de science informatique de l'université Carnegie Mellon. Voir cette excellente présentation du bonhommme en question.

Possible d'étiqueter la grande majorité des images du Web ?

Certains en doute, mais moins de 100 heures après le lancement du jeu, les 5 joueurs les plus "intoxiqués" par ce jeux ont déja étiquetés, - à eux cinq seulement-, près de 50,000 images !

Génial !!!

Technorati Tags: , , , , ,

1 sept. 2006

Les fournisseurs d'applications pour les Adwords devront casquer


Les gros utilisateurs de publicité sur Google qui utilisent des applications tierces se verront facturé à l'avenir pour l'extraction de données du programme Adwords.

Google mettra des quotas au début octobre prochain sur les requêtes sur son interface d'application (API - Application Program Interface) pour les dizaines de logiciels ou services en ligne qui utilisent son API pour plus d'un client.

Une bonne nouvelle pour les petits annonceurs qui auront moins de problème avec le panneau de contrôle des Adwords mais un batôn dans l'engrenage des dévelopeurs d'applications tierces et un surcoût pour leur clientèle.

Technorati Tags: , ,

31 août 2006

Le Washington Post 2.0

Le Washington Post est en train d'implémenter des commentaires à ces nouvelles avec des mécanismes de filtrage automatiques et aussi en laissant le soin aux utilisateurs de modérer eux même les commentaires des autres avec un lien suggérant le retrait du commentaire qui sera à votre goût trop choquant. Hum ! Je n'aimerais pas être le censeur de ces commentaires surtout des la section politique !

Par contre, l'excellente idée de mettre tous les commentaires d'une personne sous son profil va peut-être servir d'auto-modérateur pour l'usager.

Un autre journal qui fait dans l'intéractivité, - et même de la socialisation avec l'aggrégation des commentaires sous une fiche, entre les lecteurs et ses journalistes. Cela a été long mais, ils n'ont plus beaucoup le choix pour survivre.
À suivre bientôt.

Via Micro Persuasion.

Technorati Tags: , ,

Search Marketing Standard


J'ai reçu le numéro 2 du magazine Search Marketing Standard édition automne 2006. Comme son nom l'évoque il traite principalement de marketing internet et d'optimisation Web.

C'est un magazine que je vais référerez surtout à mes clients pour démystifier et vulgariser les pratiques de cette industrie. Pour tous ceux qui évoluent dans le milieu depuis quelques années, il est un tout de même un bon aide-mémoire.

L'outil statistique d'Alexa est completement dans le champs

Je connais plusieurs personnes qui utilisent l'outil statistique d'Alexa pour prendre le pouls de leur présence Web ou encore qu'ils l'utilisent comme point de repère pour comparer 2 ou plusieurs sites.

Outil fiable ?

Voici donc le graphique du nombre de page vues par les utilisateurs de la barre d'outils d'Alexa depuis 2002 sur le site du journal LeDevoir.com:

Comment interpréter ce graphique ? Selon Alexa, il y aurait en moyenne 0,00025 personnes sur 100 utilisateurs de leur barre d'outil qui visionnait le site du Devoir en 2002 ou encore 2,5 utilisateurs sur 1 million. En 2006 le ratio tomberait à environ 1,75 utilisateurs sur 1 million !!!

Sauf que pendant la même période, les référents moteurs* mensuel des fichiers journaux du journal du Devoir nous disent ceci :

Avril 2002 : 5 500 (ancien site avant optimisation)
Juin 2002 : 9 592 (le nouveau site a été lancé le 21 mai)
Novembre 2002 : 71 921
Janvier 2003 : 105 281 (ouverture des archives peu à peu)
Janvier 2006 : 741 682 (ajout de 2 années d'archives en ligne supplémentaire)

Plutôt surprenant non ? Une augmentation de 134 fois des référents moteur et aucune trâce de ceux-ci dans les données d'Alexa !

* Les référents moteurs sont à mon avis la donnée la plus exacte des analyses des fichiers journaux car elle nous permet de voir les provenances exactes des visites en plus des mots-clés utilisés en recherche ce qui empêche de se faire berner par les autres bruits internet (robots spammeur, ping, trackback, etc)

Technorati Tags: , ,

Les statistiques de fréquentation Web : De plus en plus imparfaite


J'ai dû analyser dans mes 1o dernières années des terabytes de fichiers journaux (log files). Depuis 4 ou 5 ans leurs validités sont en déclins constants et ce indépendamment du logiciel d'analyse utilisé. Même les vieux de la vieille comme WebTrends sont de plus en plus déficiants.

Je préconisais d'ailleurs dans ce billet intitulé "Statistique Web : La perfection n'existe pas" deux systèmes en lignes par étiquetages doublé d'un système par log.

À la suite de ce billet Google Analytic est devenu disponible pour tout le monde. Après quelques comparaison je conseillais seulement celui-là à la grande majorité de mes clients tout en spécifiant que les meilleurs indicateurs sont toujours les témoins codés et leurs ventes ou demandes de renseignements.

Mais depuis la montée de Firefox - et autres fureteurs avec onglets (tab browser)- dans les statisques d'utilisation qui sont à l'heure actuelle de 12% à 60% selon le type de site (genre de site d'un site de météo jusqu'à un site nerds comme Slashdot), nos chers témoins (étiquette javascript et/ou cookies) sont passablement largués par cette nouvelle forme de navigation et ce, sans parler des nouvelles façons de coder les pages avec des layers invisibles, les CSS et l'Ajax !

J'adorerais savoir ce que les Networldmedia, CanoeKlix et même les Adwords comptabilise quand le client qui ouvre dans plusieurs onglets quelques publicités avec un seul cookie et témoin de leur unique fureteur ?

30 août 2006

Liens et reseaux sociaux

Lee Odden de TopRank Online Marketing vient de mettre sur son carnet deux outils de création de liens vers les réseaux sociaux. Ces outils peuvent être un atout important pour le rayonnement de votre carnet ou site Web.

Par contre, comme dans la vie en général, il faut usé de modération (surtout quand cela influence les algorithmes des moteurs de recherche) et comprendre les implications des ajouts de liens que l'on implante dans ces pages.

Si votre site ou carnet utilise :
  • une longue liste de vos amis ou connaissance (blog roll)
  • de multiples catégories
  • des billets pour le mois entier
  • une multitudes de petits boutons vers des sites sociaux ou de monitoring
  • une longue liste de liens divers
  • Un nuage de mots-clés (tag cloud)
Alors il faut absolument compartimenter ses divers éléments sur diverses pages car votre nombre de liens vers l'extérieur de votre carnet ou site ne devrait jamais approché le nombre de 100 liens*.

Donc je conseille vivement uniquement le premier des deux outils, le Social Bookmark Creator mais avec l'option "Drop Down Menu" à la place du "Link List". Pourquoi ? Tout simplement dû au fait que tous les liens inclus dans une boîte défilante (Drop Down Menu) ne sont pas pris en compte par les moteurs de recherche !!!

*Un superbe outil pour afficher le nombre et les liens d'une page est l'extension Web Developer qui ajoute une foule de fonctionnalité très pratique à Firefox.

Technorati Tags: , ,

Second Life : Quand la vraie vie rattrape le virtuel

Intro gnagnagna

Je n'ai jamais été fana des univers virtuels et des communautés "trop" ouverte sur la toile, même si j'utilise quotidiennement des ordinateurs réseautés depuis plus de 20 ans. En fait mes premières utilisations de BBS (bulletin board system) remonte à 1983 sur mon modem 300 bauds. Alors la bonne époque de la petite communauté virtuelle facilement gérable.

Dans ce siècle dernier, ces systèmes n'étaient quand même pas trop ouvert et la gestion des forums et téléchargements se faisait assez aisément car il n'y avait pas de multiples façons de se camoufler pour les emmerdeurs sur les lignes filaires.

Puis vient le Web et les premiers forums de discussions, les "trolls" apparurent et la gestion de ses indésarables devenu plus ardu.

Maintenant la plupart des blogs et systèmes de discussions permettent assez facilement de gérer les messages internes, pour peu qu'on s'en donne la peine.

Évidemment plus le système a de l'ampleur et de "l'exposure", plus il faut y mettre les ressources. Les "vrais" hackers ont adoptés les mêmes techniques que les terroristes de la fin du siècle dernier, - évidemment avec des résultats beaucoup moins catastrophique humainement parlant, mais presque autant médiatiquement et avec parfois des dommages économiques assez importants qui nous sont cachés mais qu'on paye chaque mois en frais bancaire et sur nos cartes de crédits.

2006 et les réseaux sociaux virtuels et les hackers 2.0

Revenons à nous moutons et SL (Second Live "pour les nuls"). J'ai des copains qui nous parle assez souvent de Second Life comme vous voyez.

Mon pote Michel y est allé d'un billet sur la frilosité des entreprises québécoises à aller sur Second Life et la découverte de Telus dans cet univers.

Mitch Joel replique plus tard en découvrant l'instigateur de la présence de Telus, qui de son propre chef, a mis un stand et une application de son produit sur SL.

Michel pousse plus a fond quelques jours plus tard, et découvre finalement que personnes aux relations publiques ne connait cette initiative et sont assez perplexe !

La finale :
Encore une mauvaise gestion des communications sur la Toile


La boutique de Telus a été placardé de plywood dans Second Life. Ensuite deux meutres virtuel devant la boutique !

C'est tout beau, tout neuf, mais l'on y répete les mêmes erreurs quand 95-2000. On y mettait des tonnes d'argent en publicité dans de gros portails pour mousser sa marque car leurs propres sites n'avaient aucun rayonnement et étaient "platement conçu", et les communautés naissantes de ces portails étaient souvent frileuses sur le plan du marketing aggressif sur une toile "gratuite". De plus, il ne veillent même pas assez sur ses nouveaux investissements même si c'est dans un univers virtuel.

Pauvre Serge, tu vas avoir du pain sur la planche virtuelle avec ton nouveau poste !

Technorati Tags: , , , , , ,

29 août 2006

Divertissement 2.0














Les tendances changes assez rapidement selon Google Trends et même ailleurs. Le vidéo musical semble prendre le pas sur le téléchargement de musique dans les nouvelles tendances. De plus, j'ai donné une chance au Mp3 dans ma requête sur Google Trends en utilisant la syntaxe "mp3" OU "music" + "download" contre simplement "music video". Le vidéo musical commence ainsi a reprendre la côte sur le MP3 à partir 2006 !

Faire une presentation Powerpoint tout en étant cool...

C'est maintenant possible grâce à ceci sur Mac et PC.

28 août 2006

Premiere attaque directe de Google sur Microsoft

Google regroupe quelques-un de ses services en ligne (Gmail, Talk, Calendar et Page Creator) pour les entreprises.

La seule nouveauté ici, est que vous pourrez avoir votre logo d'entreprise d'intégré dans ces applications en ligne puisque GMail permettait déjà d'avoir votre propre nom de domaine.

Ce service est en phase beta, comme à l'habitude, mais il y a fort a parier que beaucoup d'autres services s'intégreront bientôt à cette offre comme les; Spreadsheet, Writely (traitement de texte), Desktop Search (qui pourrait possiblement être un service de recherche intranet), Maps (qui pourrait entre autres servir de localisateur de succursales), Web Album et Blogger (pour les communications internes et externes), etc.

Je ne crois pas que Google fasse vraiment mal à Microsoft avec ce regroupement de services, mais les Zoho, Thinkfree et Zimbra vont surement en pâtir un peu !

Technorati Tags: ,

25 août 2006

Les recherches sur le Web : Un indicateur économique assez précis

Assez saisissant comme les recherches effectués sur la Toile peuvent être un formidable indicateur économique sur les futures tendances d'un marché.

Ce graphique représente les ventes de maisons compilé par l'association nationale des courtiers américains. Assez frappant comment le volume de recherches effectué sur "homes for sale" se reflète dans les ventes effectives ! Ici on peut probablement assumé que les ventes du mois d'août vont problablement être à la hausse.

Source : Le blog de Hitwise


Technorati Tags: , , ,

23 août 2006

Regles d'optimisation pour les medias

Un assez bon résumé des principales règles d'optimisation pour un meilleur rayonnement Web vient d'être traduit par Jean-Marie Le Ray et plusieurs autres spécialistes du marketing Web : Voici la liste que je reclasse selon mes expériences et que je bonifie de 3 points essentiels et que je commente aussi :

  • Sachez cibler votre audience (et la géolocalisation aussi pour vos services)
  • Utilisez un vocabulaire simple et axé sur les mots-clés utilisés en recherche
  • Pensez prioriterement à la pérennité de votre information (un bon archivage est primordial)
  • Travaillez votre capital Liens (Rendez votre site un incontournable)
  • Récompensez les liens entrants
  • Favorisez la diffusion de votre contenu (Essentiel)
  • Encouragez les applications composites (Tout en effectuant une veille serrée)
  • Soyez une ressource pour les internautes, sans rechercher aucun retour immédiat
  • Récompensez les internautes serviables et de qualité (Les produits promotionnels sont là pour cela)
  • Participez
  • Soyez créateur de contenu
  • Soyez vous-même
  • N'oubliez pas vos racines, restez humble
  • N'ayez pas peur d'expérimenter des choses nouvelles, gardez votre fraîcheur
  • Développez une stratégie d'optimisation pour les médias sociaux
  • Rendez convivial l’ajout de tags ou de signets
  • Choisissez soigneusement vos tactiques d'optimisation
  • Intégrez à votre processus de création et vos meilleures pratiques l'optimisation pour les médias sociaux


Original story

21 août 2006

Google Checkout : Lent démarrage

Après environ 2 mois depuis la sortie de Checkout, Google n'a pas encore 200 marchants dans sa liste de clients. Pire, il vient d'en perdre un assez gros, Levi's qui a retiré Checkout de ses méthodes de paiement en ligne !

Google semble encore une fois avoir lancé trop tôt un service mal ficelé. Plusieurs se plaignent depuis le début, du rôle un peu trop envahissant de Google dans la transaction et du manque d'ouverture de Google sur les données du client pour le suivit après vente du marchant et de quelques délais de traitement de commande très long.

Une nouvelle version de Checkout serait attendu d'ici quelques semaines ce qui pourrait remettre le service en valeur.

15 août 2006

Manque

De retour de superbe vacances et totalement débranché depuis un mois ... Niet TV, radio, cellulaire.

C'est le constat qui me frappe en pleine gueule ce matin... MANQUE. Pas du soleil, j'en ai eu pleinement ce dernier mois.

Manque de balises. Manque d'unicité. Manque de leadership et surtout manque de vision gouvernementale. Pathétique !

Gros manque d'éducation au Web. Le Web d'ici semble être le Liban d'aujourd'hui !!!

Les jeunes acteurs du Web d'ici pré-baby-boomers n'ont malheureusement pas encore pris les postes des vieux croutons qui ont connu le téléphone à roulette, la télé en noir et blanc et les 78 tours ! Ceux qui performent le font dans leur coin et sans grand rayonnement.

Bon finalement, je pense que je repars quelques jours en vacance ! ;-)

12 juill. 2006

11 juill. 2006

Tendance : La pub et le virtuel

Très bon dossier, comme toujours de la part de Trendwatching, sur le mouvement publicitaire vers le virtuel, la où sont majoritairement les jeunes et moins jeunes qui délaissent les autres médias.

Technorati Tags: ,

7 juill. 2006

Si la tendance se maintient Wikia annonce que le prochain président sera...

J'ai hâte de voir comment ce nouveau projet Wikia sur les campagnes politiques, -lancer par Jimmy Wales fondateur de Wikipedia -, pourra influencer les médias et les citoyens. Politique 2.0 ?

Technorati Tags: ,

4 juill. 2006

Google intègre de plus en plus le Canada dans sa stratégie publicitaire

Ça y est. Google intègre maintenant de plus en plus ses innovations technologiques dans le marché canadien. Dans les philactères de Google Maps les données des commerces commencent a être de plus en plus complète comme le montre le lien ci-haut. En plus d'avoir l'adresse, le téléphone et le site Web, on a droit aussi a un complément d'information avec l'onglet Details.



En prime, sur l'onglet Address l'on voit aussi maintenant la possibilité d'envoyer les informations trouvées sur Google Maps à son téléphone cellulaire ! Il me semble bizarre pourtant que dans la liste des "carrier" il ne semble pas y avoir de "telco" canadienne ?



Technorati Tags: ,

Suivre le tour de France 2006 en temps réel

Une des meilleures applications sur Google Earth jamais réalisé ! Suivre en temps réel le tour de France comme si vous y étiez et sans stéroides !!!

La carte suit automatiquement le peloton, - grâce à des GPS des suiveurs des pelotons -, au travers des magnifiques images de la France fraîchement mises à jour !

Mode d'emploi en cas de problèmes
  • Assurez-vous d'avoir le layer Tour de France 2006
  • Ouvrir ce layer et cliquer sur le sous-layer Live TDF
  • Cliquez sur le bouton Close follow view
  • Vous devriez voir un vélo apparaitre sur la carte (quand l'étape est en cours)


Technorati Tags: ,

29 juin 2006

Les publicitaires et le Web

Très éloquente cette présentation (ppt) sur la publicité dans les médias de la Online Publishers Association. Un graphique vaut mille mots :



Imaginez maintenant uniquement la période 9 à 17h du lundi au vendredi ou le Web et la radio doivent dominer radicalement !

Technorati Tags: ,

27 juin 2006

Veille et marketing 2.0

On le croirait pas mais même les plus sinistrés de l'an 2005 chez nos voisins du sud peuvent nous étonner par leur dynamisme en matière de veille et de marketing Web.

Suite à la publication hier soir de mon billet sur le nouveau méta-moteur HuckaBuck j'ai reçu aujourd'hui un courriel du département marketing qui m'invitait a me joindre au cercle d'intimes.

Une bel exemple de veille et de fidélisation de la clientèle qui est plutôt rare par ici !!!

La bulle de 2000, les phylacteres de 2007

En 2000, il y a eu l'éclatement de la bulle spéculative de l'internet. En premièr semestre 2007, il y aura probablement une autre mise à niveau, l'éclatement de milliers de petits phylactères .

Drôle de paradoxe, le premier crash était à cause d'une spéculation trop forte et surtout anticipée quelques années trop tôt. Les modèles d'affaires n'avait pas encore vu le jour. Aujourd'hui, c'est quasiment le contraire, les médias trad voient leur public fuir vers le Web et les annonceurs ne savent plus où donner de la pub !

21 juin 2006

Google testera le modele cout-par-action

Google qui utilisait déja ce modèle de marketing affilié dans sa promotion des référants pour les publicités AdSense, veux le tester maintenant pour les éditeurs et marchants utilisant son système AdSense.

Contrairement au PPC (pay-per-click) le client qui annonce ne se verra facturé que si le clic provenant du site où est l'annonce, résulte en une action quelquonque du genre vente directe ou demande d'information. Ceci bonifiera certaine le nombre d'annonceurs chez Google, surtout dans les domaines hautement compétitifs où la fraude au clic est assez importante.

Ceci permettra aussi fort probablement a plusieurs annonceurs de voir, -pour la première fois-, le réel RSI (retour sur investissement) et de les comparer ainsi avec les autres modèles que sont le PPC et le CPM (coût par mille impressions).

Ceci risque d'ébranler de nombreux joueurs dans cette industrie qui voit apparaître dernièrement beaucoup de firmes avec leurs statistiques très élastiques !

En espérant que Google Analytics intègre au plus tôt ce nouveau modèle dans nos statistiques de fréquentation.

19 juin 2006

Tupperware Web Marketing

Je cherchais un terme depuis quelques mois pour décrire les nouveaux intervenants (2004-2006) dans le monde du marketing internet qui ont tous leur vision unique de la promotion Web de leur produits et services. Je viens de trouver : Le Tupperware Web Marketing !

C'est le type de; compagnies, consultants, analystes ou/et même charlatans qui ont tous, - ou presque-, un unique créneau en parlant du marketing sur le Web. Pour les uns c'est que; des mots-clés et des "Web Focus group", pour les autres ce sont les trads indécrotables et leur banières publicitaires, les gourous des blogues, les sectaires des publicités par clics ou les évangilisateurs des mailing list et aussi plus rare mais bientôt sur vos moniteurs et magazines, les accrocs de l'infolust.

Le marketing Web c'est bien plus que cela. C'est avant tout de l'éducation pour bien gérer la pérénité de l'information et être à l'écoute des nouvelles tendances mais surtout en ayant de solides compétences et expériences de la quincaillerie (back-end) et de l'interface utilisateur (front-end). Ce qui semble manqué à la très grande majorité des intervenants du milieu. Ou alors, si vous faîtes affaires avec une très grosse agence qui supposément sait tout faire, vos besoins et buts risquent de passer par le téléphone arabe d'une ribambelle de personnes en passant par le chargé de compte, le chargé de projet, les employés et finalement les consultants et/ou stratèges externes comme cela m'arrive malheureusement trop souvent.

Le Web, contrairement à presque tous les autres médias actuellement, c'est vivant, mouvant et peut être d'actualité à chaque requête Internet.

Technorati Tags: , , ,

Exemple d'une campagne virale à coût modique

Vous faîtes un refonte majeure de votre site et/ou de votre offres de services. À la place de faire simplement un simple communiqué de presse vous en faîtes un concours avec quelques règlements vous attirant ; de nombreux liens et rétro-liens, plusieurs billets parlant de vos noouveautés et un effets "buzz marketing" à cause du prix de $1,000. Très ingénieuse idée que cette petite campagne virale bon marché.

Technorati Tags: , , ,

16 juin 2006

Google lance Picasa Web Albums

Picasa Web Albums Test (tiens il n'est pas beta) est lancé sur invitation seulement comme pour Gmail. J'ai reçu mon invitation que quelques heures après l'avoir demandée. Voici mes premières impressions:

Pour
  • Très rapide
  • Permet d'y déposer près de 1000 photos (250 meg) gratuitement contrairement à 200 pour Flickr
  • La résolution des photos peut être jusqu'à 1,600 pixel x 1,200
  • Pas de limitation pour le nombre d'albums
  • Réorganisation de l'ordre des photos très simple et rapide

Contre
  • Pas de groupe
  • Pas d'étiquette
  • Pas de favoris
Picasa Web Albums est simplement un petit album personnel, pour le moment, et est très loin de ce que Flickr a pu créer. Il n'est pas possible de facilement visionner les photos des autres sans connaitre leur adresse.

9 juin 2006

Closed Captioning : Nos médias l'utiliseront-il efficacement un jour sur le Web ?

Le "Closed Captioning" c'est le sous-titrage codé pour les malentendants qui est intégré dans le signal analogique ou digital d'une émission ou d'un document vidéo NTSC ou PAL en Europe.


Il est surnommé CC et le "closed" est dû au fait qu'il faut activer le décodeur par notre télécommande de télévision pour le voir apparaître en surimpression sur l'image. Depuis 1993, partout en amérique du nord, tous les téléviseurs doivent avoir ce décodeur intégré. En europe il est appelé télétexte.

La grande majorité des ; émissions, bulletins de nouvelles et même certaines publicités ont ce sous-titrage intégré. Il est ajouté au signal analogique soit en temps réel par des sténographes, soit en post-production d'une émission ou d'un reportage. Il en coûte environ entre $10 et $20 la minute en moyenne pour le faire en post-production. Il est intégré dans la ligne 21 du signal et est synchronisé avec l'émission ou le document.

Le Web et la vidéo

Le principal problème des documents vidéos provenant des médias sur le Web est que leurs contenus sont très difficilement identifiable par les moteurs de recherche. Ils sont insérés sur la Toile avec un court titre, des fois avec une petit descriptif et rarement avec des étiquettes (tag).

Développement durable

Il serait tellement facile, et pratiquement sans aucun coût supplémentaire, pour ces médias producteurs de contenu de tout simplement, à la source, prendre la copie texte des sténographes et de la donner à la division Web de ces grands médias. Eux pourrait tout simplement mettre un lien près du vidéo sur ce fichier texte. Les malentendants, les moteurs de recherche et les tous les internautes seraient ravis. Et les médias Web verraient leur trafic augmenté ainsi que leurs revenues publicitaires !

Mais je ne l'ai encore jamais vu sur le Web. Quel gaspillage !!!

Update 14h: Dumais m'a fait remarquer que PBS, (nul autre que) met les CC en transcripts sur leur pages Web et les offres aussi dans les QuickTimes (caption) de la série d'une de ces émissions. Malheureusement pour eux, vu que ces transcriptions apparaissent dans des fenêtres-éclairs (pop-up) les moteurs de recherche ne peuvent y accédés !!!

Page Wiki anglaise sur le Closed Captioning
Site extrement complet en anglais sur le Closed Captioning.
Et même un blog sur le CC.


Technorati Tags: , , , , , ,

8 juin 2006

Rencontre Yulblog


Soirée vraiment réussi hier soir à la Quincaillerie. La grande majorité des gens présent semblent avoir aimé ce nouvel endroit très aéré avec ses grandes tables à l'avant qui permettent de mieux socialiser entre férues des carnets Web. Une trentaine de convives qui ont dû répondre à cette petite question salée.



Technorati Tags: ,

7 juin 2006

Dico : Cannibalisation Web

Historique de la Cannibalisation Web ?

C'est ma définition/traduction de la parade "mirroring" utilisé par les optimisateurs peu scrupuleux de l'époque pré-marketing Web pour avoir le plus de résultats possibles dans la première page de résultats des moteurs de recherche. Ces gens dupliquaient tout simplement et intégralement de nombreuses pages de leur site sur deux ou de multiples noms de domaine différents pour accaparer le maximum de résultats dans la première page des moteurs de recherche.

Cette expulsion massive des optimisateurs peu scrupuleux (black hat) utilisant cette technique est apparu à ma souvenance pour la première fois dans le monde de l'optimisation Web il y a quelques années lors de la célèbre mise à jour des algorithmes de Google prénommé par Brett Tabke le "Florida update" il y a 3 ans en à la mi-novembre. Un vrai tsunami. Comme vous le voyez dans le liens ci-haut, c'est tout de même près de 60,000 pages et des dizaine de milliers de "post dans les forums spécialisés qui ont été ébranlé de ces techniques douteuses à l'époque et qui ont été plus ou moins évacués des moteurs de recherche.

Pourquoi je reviens sur cette très vieille affaire, dixit à l'échelle Internet ?

En analysant aujourd'hui la communication Web d'un nouveau client, j'ai remarqué que son nouveau site spécifique pour mieux développer son produit vedette avait utilisé en partie les mêmes textes que sur le site mère. Erreur ! Même si les pages du nouveau site sont tout de même indexées par Google (donc pas totalement bannies), elles n'apparaissent jamais dans une recherche très spécifique du style "dix mots-clés entre guillemets" qui pourtant sont tous contenus dans les pages des deux sites? Seul le site de la maison mère apparaît dans les résultats !

C'est me semble-t'il plus pénalisant depuis le nouveau update du mois de mars par Google surnommé Bigdaddy qui semble encore plus tatillon sur cette pratique. Et je trouve ça parfaitement logique et même très bien.

Si l'on transpose cela dans la vraie vie : Je connais pas beaucoup de succursales de Jean-Coutu de la côte-nord ou du Lac St-Jean où on utiliserait le même phrasé pour me répondre sur une question que si je contactait le siège social de l'entreprise.

Diversifiez votre écriture rédactionnelle selon votre clientèle. Dans le site du siège social vous pouvez utiliser un style d'écriture plus généraliste et de langage plus soigné et dans vos sites spécifiques et/ou régionaux, utilisez un style plus technique et s'approchant plus du language populaire en décrivant les problèmes et solutions que vos produits et/ou services solutionnnent !!!

Technorati Tags: , ,

2 juin 2006

Surf qui peut 2006



Agréable rencontre hier à l'événement Surf qui peut 2006 sur une superbe terrasse de l'île des Soeurs organisé par l'IAB, Canoe et Sympatico /Msn.

J'ai été surpris de la meilleure compréhension du médium internet par les intervenants marketing que par le passé ou lorsque je mentionnais "Skype" ou "Firefox" dans une conversation on me prenait pour un martien. Il y a de l'espoir !

24 mai 2006

Statistiques Web : La perfection n'existe pas

Hits, session d'utilisateur, visiteur, fichier, site, pages vues et visiteurs unique sont tous des termes employés dans les outils de statistiques Web. La plupart de de ces outils ne sont pas adéquats ou mal configuré.

Les chiffres obtenus peuvent souvent varié du simple au quintuple (et plus) selon les solutions employées. Voyons les 2 principales méthodes d'acquisition des statistiques :

Fichiers journaux (log files analyzer)

L'ancêtre des métriques Web. Le fichier journal est un fichier contenant les connexions demandées par les utilisateurs d'un site Web. Logeant sur le seveur Web, ce fichier comprend diverses informations comme; l'adresse IP, la date et l'heure, le document demandé, les code de statut du transfert, le nombre de kilo-octets transféré, etc.
[127.0.0.1 - frank [10/Oct/2000:13:55:36 -0700] "GET /apache_pb.gif HTTP/1.0" 200 2326]
À partir de chacune de ces lignes d'entrée du fichier journal, le logiciel d'analyse nous brosse des rapport un peu plus conviviaux.

Avantages
  • Peu onéreux
  • Souvent installé par défaut chez les hébergeurs
  • Archivage simple
  • Consultation sur la période souhaitée
  • Détection aisé des erreurs de transfert et précision de la bande passante utilisée
  • Rapport configurable à souhait
  • Contournement aisé des murs coupe-feu
Inconvénients
  • Sur des sites à grand trafic, le temps d'analyse des fichier journaux peut-être très long
  • L'analyse des fichiers doit être fait sur un réseau interne contenant aussi un serveur de noms de domaine
  • Assez grande imprécision des statistiques dû aux serveurs cache des FAI
  • Difficilement configurable pour sites à serveurs multiples
  • Mauvaise détection des utilisateurs versus robots indexeurs
  • Rapport statistiques pas toujours conviviaux pour tous
  • Mauvaise interprétation des adresses IP dynamiques

Système d'étiquetage
(tags, web beans)

Les statistiques par étiquettes utilise un petit code javascript qu'on insère sur chaque page du site. Ceci permet de faire la lecture des informations au niveau du client Web et non plus au niveau du serveur du site. La plupart des ces solutions utilise aussi un/des cookie(s) enregistré sur l'ordinateur du client.

Avantages
  • Suivit possible en temps réel
  • Permet d'avoir beaucoup plus d'informations sur le client
  • Consultation aisée selon l'outil utilisé
  • Erreurs de transfert et précision de la bande passante utilisée
  • Contournement aisé des proxy
  • Permet des statistiques sur un réseau de sites grâce aux cookies
  • Filtrage automatique des robots
Inconvénients
  • Impossible d'obtenir des statistiques si le navigateur a son JavaScript désactivé
  • Mesures déficientes si l'anti-virus (ou autre système de sécurité) du client bloque les cookies
  • Les murs coupe-feu (firewalls) peuvent bloquer les étiquettes
  • Les temps de réponses des serveurs distants peuvent altérer les statistiques
  • Pas facilement configurable dans les zones sécurisés
  • Erreurs dans les pages plus difficilement détectables
  • Origine exacte du référants pas toujours disponible
Conclusion

Le système par étiquetage est tout de même mieux que la seule analyse des fichiers journaux. Idéalement le tracking des étiquettes devrait être implanté sur le même serveur où se situe le site Web, ce qui est rarement le cas.

Cybermétrie idéale

La cybermétrie idéale combine les deux solutions ci-haut et même avec deux systèmes d'étiquetage différents et une solution d'analyse des fichiers journaux.

Technorati Tags: , , , , ,

19 mai 2006

Interview Vidéo

Petite interview que j'ai donné au collègue Philippe Martin co-réalisé par l'ami Aubry et sa nouvelle entreprise Économie Logique Communication. Bravo les mecs, rendu très professionnel et expérience agréable en quelques 15 minutes ! Encore chapeau !


Eric Baillargeon-Intercommunication
Vidéo envoyée par pmartin

18 mai 2006

MCeTech 2006

Aujourd'hui petite sortie pour aller voir une présentation de l'ami Michel Leblanc d'Analyweb à la conférence montréalaise sur les Technologies de l’Internet à l'hotel Godin où ce tient jusqu'à demain encore le MCeTech2006 - Montreal Conference on e-technologies. Je crois que l'audience a bien aimé la vulgarisation et la démystification de l'optimisation Web fait par Michel, et cette petite photo en fait foi.



Technorati Tags: , ,

15 mai 2006

Skype va faire enrager les Telco

Skype annonce aujourd'hui la gratuité des appels de PC à téléphone filaire ou cellulaire, partout* au Canada et aux États-Unis.

*M'enfin presque partout, car plusieurs FAI (Fournisseurs d'Accès Internet) comme le mien, ne semble pas reconnus par Skype qui doit vérifier les adresses IP géographiques avant d'établir la communication ;-(

Technorati Tags: , ,

14 mai 2006

Yahoo existe... mais surtout aux États-Unis

Voici un petit billet pour répondre à Martin sur le fait que Yahoo et MSN soit pratiquement totalement absent de ses statistiques.

Voici les statistiques de mes trois carnets sur Blogger suivit d'un site bilingue de commerce électronique.

Le premier est mon carnet dans la langue de Shakespeare et le second dans celle de Molière. Yahoo n'aime pas spécialement Molière.

Le troisième est un carnet photo français mais presque sans texte, et le quatrième est un site bilingue de commerce électronique où 35% des ventes sont faîtes au États-Unis.

Mes interprétations
  • C'est bien connu, Yahoo et MSN ne font pas le poids hors des États-Unis et spécialement en Europe et en Asie (sauf le Japon pour Yahoo).
  • La façon dont Blogger publie les billets, -en utilisant le titre comme nom de fichier et de balise Title-, favorise les référents Google car Yahoo, lui, ne leur accorde pas beaucoup d'importance.
  • Le marché publicitaire de Yahoo est en très grande majorité anglophone et américain.
  • Le seul autre endroit où Yahoo perce un peu le marché est le Japon.
Tu devrais mettre ton carnet anglais sour Analytic aussi Martin. Comme tes billets sont souvent assez long, tu devrais voir le pourcentage de Yahoo augmenté sur celui-là.

13 mai 2006

Achats de groupe éclair : Tuangou : 队购买

Tuangou (队购买) signifie achat de groupe ou "team purchase" en chinois. C'est un style de réunion-éclair (FlashMobilization) pour faire des achats en groupe pour pouvoir marchander.

Le modèle d'achat groupé n'est pas nouveau sur la toile et pendant la bulle internet plusieurs sites offraient un peu ce modèle, mais ils ont presque tous disparus.

Les Chinois ont repris le modèle

Le Tuangou peux se faire de deux façons. À la FlashMob en utilisant des forums ou carnets pour déterminer le lieu et le moment de l'achat ou par des sites web spécialisés locaux comme celui de la ville de Guangzhou (10,000 membres) qui eux s'occuperont d'envoyer des négociateurs à l'avance au magasin pour déterminer l'escompte et/ou les primes gratuites et qui se prendront une commission.

En tapant "Tuangou" dans Google.com ou même Google.cn, on obtient 302,000 résultats.

Via le Christian Science Monitor !

10 mai 2006

Google Trends


Google Trends a été lancé aujourd'hui à la conférence annuelle des médias Press Day.
Ce nouveau service présente les données statistiques des tendances à la sauce Web 2 avec une interface similaire mais un peu moins évoluée que Google Finance. La partie supérieure affiche les recherches effectuées sur les mots-clés entrés tandis que la partie inférieure montre le volume des nouvelles .

Outil de comparaison

Une des fonctionnalités intéressantes est la possibilité de comparer jusqu'à 5 expressions clés avec cet outil.

Cet outil pourrait être très utile pour les analystes et les gens de marketing, mais malheureusement l'échantillonage semble un peu faible et surtout pas toujours crédible surtout si l'on regarde le graphe suivant pour les villes !

Par contre pour les journaliste et carnetiers ce sera un très bon atout pour suivre les tendances comme le montre le premier graphe de ce billet.

Technorati Tags:

AlltheWeb 2

AlltheWeb qui a vu le jour pratiquement en même temps que Google et qui était un sérieux compétiteur d'AltaVista à l'époque renait de ses cendres sous le vocable AlltheWeb LiveSearch. Overture avait acquis AlltheWeb en 2003 et avait été ensuite avalé par Yahoo.

La nouvelle fonctionnalité pousse un peu plus loin le même principle que Google Suggest et affiche en temps réel les résultats lors de l'entrée des caractères dans la case de recherche.

Technorati Tags: , ,

9 mai 2006

Rayonnement Web : Le jardinage et recyclage du contenu

Pour avoir un trafic en constante augmentation sur un site Web, il faut l'entrenir et le jardiner. L'émondage aide l'arbre pour qu'il profite bien. On doit tailler les branches faibles ou poussant dans une mauvaise direction pour favoriser le bon développement de l'arbre. Je viens d'ailleur de livrer une analyse à un de mes clients pour qu'il "émonde" un peu son site. Les liens et sujets partent dans toutes les directions et sur plusieurs de ses pages il y beaucoup trop de liens.

Il y a beaucoup de similitude entre un site Web et un sapin de Noël. Les racines et le tronc sont le serveur Web et l'architecture, les branches sont les liens, les aiguilles sont le contenu et les guirlandes sont les publicités. Comme l'émondage réel, les branches et aiguilles doivent être recyclés pour pouvoir faire un bon terreau. Le terreau Web s'appelle : Archive. Une chose tellement rare sur la toile !

Le danger avec les jardiniers du Web c'est qu'ils ont tendance à surcharger les aiguilles (contenu) de guirlandes (publicité) et on a de la misère à les voir. Ceci risque de mettre le sapin à la rue. Donc, j'essaie de lui faire un beau terreau où il pourra aussi mettre des guirlandes.

SkypeCast : Oui mais....

Il y a exactement une semaine Skype dévoilait ses SkypeCasts. Ce sont des appels conférence relié autour d'un thème et peuvent ralié jusqu'à cent utilisateurs à la fois.
Comme j'utilise Skype pour des appels conférence à trois ou quatre pratiquement tous les jours, je connais bien ces forces et faiblesses. Les principaux problèmes des utilisateurs de Skype sont le non-emploi d'un casque d'écoute avec micro intégré ou l'utilisation d'un casque de piètre qualité ce qui créer des retours de son irritants ou des grichements harrasants. C'est exactement ce qui a irriter Francis Pisani à son baptème.

Les SkypeCasts fonctionne tout de même assez bien. Ils permettent à l'initiateur de rendre muet un ou toutes les personnes d'une discussion et même d'éjecter les indésirable. Par contre, comme les SkypeCasts sont un service Web et non un programme, la fenêtre de commande disparait à chaque utilisation d'un autre logiciel sur son ordinateur. Contrairement aux messageries instantanés, il ne peut y avoir de fonction pour garder cette fenêtre en avant-plan.

J'en tiendrai donc un petit de 11h à 11h30 (GMT -05:00) sur le rayonnement Web ce matin.

3 mai 2006

Rumeurs : Microsoft et Yahoo contre Google qui lui convoite Olive

Rumeur de CNN money qui mentionnerait un achat massif d'actions d'actions de Yahoo par Microsoft ! Huuuum ? Il y a des fois que la lecture de carnets semble plus raisonnable.

Il serait très surprenant que Bill investisse dans Yahoo après les centaines de millions qu'il a investit dernièrement dans le peaufinement de son moteur et dans son futur réseau publicitaire pour concurrencer les GY !

Google, lui semble vouloir faire un merveilleux coup avec Olive Software ! Les débouchés pour Google Catalog, Google Print et Google tout court semblent assez évident !

Technorati Tags: , , ,

2 mai 2006

Un Carnet de plus de 28 millions de VU et un minimum de 1,000 commentaires par billet

Elle tient carnet depuis un gros six mois. Depuis fin octobre 2005 le carnet nous indique un décompte de plus de 28 millions de visites. Ouille ! BoingBoing fait finalement pitié !

Le carnet attire en moyenne de 100,000 à 400,000 pages lues par billet. Et ici, le système de statistique des carnets de Sina ne semble comptabiliser que le 2eme clique de souris contrairement à la grande majorité des statistiques absolument gonflées que je vois sur la Web où en moyenne 5 pages vues équivaut à un visiteur unique (VU) quand la norme depuis 6 ans est habituellement de 1,5 pages à 2 pages vues par VU.
Ces billets génèrent en moyenne de 1,000 à 4,000 commentaires !

Oui elle jolie actrice mais spécialement une chinoise.

La censure chinoise : Politique oui mais...

Évidemment comme dans quasiment tous les pays non-occidentaux il y a de la censure en Chine, mais il y a aussi de plus en plus de déb(o|a)uchées pour les audacieuses !

PS: Les fils RSS sont un des meilleurs outils anti-censure à l'heure actuelle pour nos amis de l'est !

L'humeur du Web

En une seule page.