Coût moyen d'acquisition d'un client | |
Recherche Internet | $8.50 |
Pages Jaunes | $20.0 |
Bandeau en ligne | $50.0 |
Courriel | $60.0 |
Poste | $70.0 |
Du mot-clé à l'intention | Offre de services en SEO/SXO & marketing Web
Le référencement et le marketing de contenu constituent l'épine dorsale de tous vos efforts de marketing,
le canal qui contribue au plus haut pourcentage de trafic et à une croissance régulière.
4 nov. 2006
Le meilleur coût pour l'acquisition d'un client : La recherche Internet
A quand un agregateur intelligent ?
- Facilement importé/exporté des OPML (liste de liens RSS de sites ou carnets où l'on a déjà souscrit)
- Avoir un fonction de recherche interne (ce qui est le principal défaut de GR)
- Permettre un aperçu de liste abbrégé ou de billet complet
- Permettre le partage et la classification aisément
- Permettre de mettre en "lecture plus tard"
- Permetre l'étiquetage des billets (tag)
- Permettre de mettre l'agrégateur en veille pendant les vacances (avec calendrier). Ce que ne permet pas la plupart des agrégateurs aujourd'hui !
- Mais surtout... Avoir une fonction qui automatiquement sous-classe et catégorise (clustering) les nouvelles du même sujet du jour (de la semaine) selon l'utilisation, soit en ordre d'importance du texte et des liens externes ou idéalement selon l'historique des premiers clics de l'utilisateur sur le lien préféré sur une période donnée (une semaine / un mois) - ou encore au pire par une option dans une liste *dynamique* des préférences - et ainsi permettre de marquer comme lu tous les autres foutues radotage sur la même nouvelle du jour ou de la semaine !
C'est peut-être à ce moment que les fils RSS et agrégateur connaîtront finalement du succès sur la Toile !
3 nov. 2006
Les Blogs Quebecois les plus populaires
Il y a énormément de facteurs possible pour avoir de bonnes statistiques Web. En voici quelques-un et il y en a une foule d'autres :
- La popularité du thème principal abordé par votre carnet
- Le nombre de billets indexés dans Google et l'ancienneté de celui-ci (sous la même plateforme et les mêmes uri)
- Le nombre de liens de Yahoo (Google n'affiche que les liens de sites d'autorités moyen à élevé provenant habituellement de site à thème semblable)
- L'assiduité du carnetier
- Le nombre de liens de Yahoo en profondeur
- Le nombre de liens provenant de BlogRoll versus billet en profondeur
- La densité des mots-clés stratégiques et la reprise de ceux-ci dans l'URI de votre billet par votre plateforme de blogue
- La rapidité de publication de votre billet à caractère événementiel pour les recherches spécifiques sur moteur-carnet (technorati, google blog search, etc)
- Le PageRank
- Et 100 autres facteurs, etc.
MAJ: Les données MSN, ASK et Alexa sont uniquement là parce que l'outil utilisé me les donne. Ces données, - même combinés - , n'influence pas à plus de 5% vos statistiques au Québec à moisn peut-être d'avoir un carnet spécifique aux produits de Microsoft.
Technorati Tags: statistiques, blogues+quebecois, carnet, popularité+moteur
2 nov. 2006
Office Live Admanager permettera la gestion centralisée de *toutes* vos campagnes PPC
C'est une excellente idée que celle-ci, et qui risque logiquement d'accroître les part de marché de l'initiateur, mais je trouve abhérant pour Microsoft de l'annoncer a leurs compétiteurs plus de six mois à l'avance ! Surtout quant on sais la justesse des livraisons de produits ou services chez Microsoft.
Qui de Google ou Yahoo lancera une gestion centralisée d'ici le printemps prochain ?
Technorati Tags: Office+Live+Admanager, ppc, google, yahoo, ask, local, ads,
1 nov. 2006
Nos Glorieux sur Google Video
Technorati Tags: google+video, nhl, hockey
Refonte du Journal Le Devoir : Superbe
31 oct. 2006
Les dessous de l'acquisition de YouTube par Google
De l'autre côté, les sites de vidéos en ligne commence à se faire la guerre pour attirer les meilleurs contenu vidéo en rémunérant maintenant les producteurs !
Technorati Tags: youtube, google, video, metacafe
30 oct. 2006
Monitoring d'un blogue photo
Six mois après avoir implanté des outils "fiables" de veille sur mon carnet photo je peux confirmer l'apport non négligeable de ce "side-line" pour mon rayonnement Web.
Près de 10,000 pages vues et presque 3,000 visiteurs unique en six mois seulement et ce avec un outil statistique crédible et non pas un Webalyser qui lui m'indique un incrédible 24,761 visiteurs !
Pourtant je n'ai mis presque aucune emphase sur l'optimisation Web de ces photos ! De très brèves description et souvent aucun titrage.
Sur Flickr, c'est depuis décembre 2004 que je suis présent. Sur mes 200 photos présentes en tant que compte amateur, c'est près de 20,000 photos vues et des centaines de favoris et commentaires reçu et près de 100 contacts assidus!
Hot Shot
1. Pleine lune, 2. Soling in the fog, 3. Pêcheurs dans la brume, 4. Île dans la brume, 5. Flying to the moon / Objectif Pleine lune, 6. sunrise over the bridge, 7. Banc au couchant / Peaceful sunset, 8. Lune,
9. Pigeoniers - Jardins Quatres Vents, 10. Lever de soleil Pointe-au-pic, 11. stadium-at-sunset, 12. Table de picnics, 13. Matin au parc / Morning in the park, 14. Ambre, 15. Focal Attraction, 16. Goéland sur fond de pleine lune,
17. Lune et lampadaire, 18. moon, 19. Two seasons, 20. Rest / Repos, 21. Cimetière-verglas, 22. Antenna's of God, 23. Où est ma voiture ? Where is my car ?, 24. marches-en-rond,
25. Fenêtres Tetris Windows, 26. Wild, 27. lune, 28. gold, 29. Fina - Emilie Heymans, 30. Bridge to the..., 31. viaduc-st-laurent-avant-apres, 32. Mont-Royal et Papineau 1943,
33. Tabourets
En prime ce hobby m'a fait connaître un peu plus au près de mes voisins
27 oct. 2006
AdSense for Podcast
Technorati Tags: AdSense, Audio, Podcast
25 oct. 2006
Marketing en ligne : 90 milliards et 15% du total de 615 milliards
Technorati Tags: marketing+en+ligne
Le W3C et le branding des nouvelles normes
...Grâce au « Gleaning Resource Descriptions from Dialects of Languages » (littéralement « glanage des descriptions de ressources à partir des dialectes de langages ») ou GRDDL (à prononcer « griddeul »), les logiciels peuvent...
Ils ont vraiment le tour tes petits amis Karl, pour nous sortir des termes rébarbatifs à l'adoption des nouvelles normes !!! Je suis presque certain que si quelqu'un c'était donné la peine chez vous de renommé le RSS autrement, il serait beaucoup plus populaire !
Update : Pourquoi pas un nom comme "unidata" ou encore un "esperantag" qui sont un peu plus parlant qu'un GRDDL !
24 oct. 2006
Google Custom Search Engine : Une belle merde
Effectivement un tentative de rebranding de Google Coop et que Northern Light avait bien mieux ficelé dans les années 2000. Une belle merde et Marissa tu viens de me perdre quand tu mentionne :
Marissa Mayer, vice-president of search products and user experience, said it was the most significant launch that Google would announce in the final months of this year. By letting companies and individuals build their own specialised search engines, it will also create competition for the many new “vertical” search products that have recently been launched on the web, she added.
On ne peut même pas ajouter un OPML pour l'ajout de plusieurs sources de recherches, plusieurs bugs lors de mon premier essai, aucune valeur ajouté comparativement au produit existant et pas moyen de contrôler aisément les collaborateurs.
Finalement un produit qui me semble uniquement fait pour faire vendre de la publicité AdSense à Google !
Technorati Tags: Google+Custom+Search+Engine
23 oct. 2006
Google Custom Search Engine : Google lancerait la recherche verticale demain
Users of Google Custom Search Engine will be able to select the websites they want to be included in their searches, and add to this list in future by “tagging” websites they visit. Any searches will then return results just from that slice of the Google search index.
À mon pifomètre ceci semble être un mélange de Google Custom IG un peu à la NetVibes croisé avec le module de recherche vertical déjà existant d'Adsense pour nos sites et surtout en focus avec la recherche en silo avec un outil d'étiquetage de sites (comme Google Reader ?)pour leur inclusions dans ces silos ?
Perplexe le mec. On verra demain !
Technorati Tags: Google+Custom+Search+Engine
Google Earth : Guide électoral interactif
Google Earth permet maintenant de trouver plusieurs informations pertinentes sur les élections américaine comme ; les sénateurs en place, les recensements, les limites des comtés, des liens sur les bureaux de votes, et même - "american way of life" oblige - les statistiques criminelles. des comptés.
Goog : Pres d'un nouveau sommet !
Technorati Tags: goog, google+finance, sommet
22 oct. 2006
Billet publi-reportage : Non merci au carnet de masse
De plus, mettre des publicité carrément dans l'espace neutre du billet, alors je trouve que trop c'est trop. Alors ciao Loic et PointBlog , deux fils de moins à mon aggrégateur !
20 oct. 2006
Yahoo Finance 2.0
Contrairement à Google Finance qui nous présente beaucoup plus d'informations qui gravitent autour d'un stock boursier, Yahoo Finance se concentrer sur les chartes graphiques.
En passant, Google Finance va bientôt permettre de comparer des stocks, d'enlever les les "flags" de nouvelles et va présenter quelques autres améliorations très bientôt. Je les ai vues hier, et je n'ai malheureusement pas pris de copies d'écran car je croyais que c'était permanent.
Technorati Tags: yahoo+finance, google+finance
19 oct. 2006
Media Trad : NBC Universal amorce le premier le virage
...NBC Universal a annoncé un vaste projet de développement sur Internet et les médias électroniques baptisé «NBCU 2.0». Les économies dans les secteurs classiques seront réinvesties dans cette branche, dont le chiffre d'affaires devrait dépasser un milliard de dollars en 2009, a ajouté le groupe.Il faut dire que les annonceurs poussent !
Via Technaute
Technorati Tags: média, virage+internet, média+2.0
Quand une agences de presse profite de Google
- Accroîtront votre Page Rank
- Attiront plus de traffic
- Amélioront votre positionnement
- Convertiront vos visiteurs en acheteurs
Technorati Tags: united+press, google, pagerank, search+king
Google Earth et Google Maps : Mise a jour du grand Montreal
Tous les résidents de la grande région de Montréal ne sont plus finalement sous couvert nuageux et l'amélioration du niveau de zoom autant dans le service en ligne que dans Google Earth ont été bonifié. Si cela pouvait être pareil dans la vraie vie !
18 oct. 2006
Blackout viral
Alors revenons à ma passion (dirais même folie) et voici quelques liens intéressants, en vrac tout de même, des 650 billets que je me suis tapé en relançant mon Google Reader aujourd'hui :
- Google testerait le CPA en Angleterre (pas innovateur mais une flèche de plus dans le carquois publicitaire de Google)
- Google aurait 25% du marché publicitaire. (surement et même plus quand l'on sait que Google tire 95% de ses revenues de la publicité et que pour les 6 premiers mois de l'année il a déjà + de 4.7 milliards de revenue !
- Les vrais carnets et les faux carnets. Edelman, - dont un conférencier était au dernier Webcom2006 - ce serait fait pincer à promouvoir WalMart à travers d'un faux carnet.
- Petite opérateur fort intéressant et novateur chez MSN. Vous voulez savoir quel sites canadiens le copain Michel aime ?
- La pénalité 98% chez Google. Lu sur plusieurs forums depuis une vingtaine de jours, confirmé par SEW. (Etre relégué en troisième page équivaut à perdre 98% de sa visibilité)
- Nouvel outil chez Google : Web Site Optimizer en version Test sur invitation seulement. Via Philipp Lenssen
13 oct. 2006
Quand le media citoyen bouleverse le media de masse
Suite à l'acquisition de YouTube par Google, la majeure partie des critiques émises parlaient principalement (sauf pour la polémique habituelle des droits d'auteurs) des vidéos "boboches" (de piètres qualité pour les non-québécois) disponibles sur YouTube. Attention la surprise pourra être (et sera surement) grande !
Depuis que j'ai entendu parler de cet achat mirobolant de 1.6 milliard, j'ai cogité. N'était vraiment pas sure de l'énormité du montant payé. Ensuite, j'ai fait un parallèle avec Flickr.
À la fin de l'an dernier, ayant réussi un cliché qui a fait mouche sur Flickr et dans la Toile aussi, j'ai décidé de créer un groupe un peu "select" (nombre très élevé de favoris et de page vues) grâce aux options que nous offre Flickr.
Je n'y était pas retourné depuis plusieurs mois.
Ce soir j'ai été tout simplement "flagerblasté" (bouleversé) par la qualité des photos du simple groupe que j'avais balisé et maintenant disponibles à la vue de tous. Cela frôle la qualité du magazine fétiche de mon enfance au point de vue photos, le seul et unique National Geographic !
La force du simple système des ; groupes, favoris et étiquettes de Flickr prouve que les médias de masse n'ont pas l'exclusivité de la qualité et qu'un simple passionné comme moi peut présenter des photos vraiment exceptionnelles à tous et chacun.
Note: En regardant ce diaporama, j'enrage que ce n'est pas National Geographic qui ai acheter Flickr à la place de Yahoo qui semble être sur une pente très glissante !
12 oct. 2006
WebCom 2006
Une partie de l'audience
Loic Lemeur
Le grand maître du blog en temps réel
Loic Lemeur et le présentateur Stéphane Garneau
Les photos du Webcom 2006
10 oct. 2006
6 oct. 2006
ACAP : Une solution a la Creative Commons pour les éditeurs face aux moteurs de recherche
Technorati Tags: acap, creative-commons
5 oct. 2006
Comment mesurer le retour sur investissement d'un blog
Technorati Tags: blog, roi, carnet, investissement, pr
4 oct. 2006
Webcom Montreal 2006
La table ronde de bloggeurs sera aussi bien garnies avec les Martin Lessard et Sylvain Carle comme bloggeurs officiels et d'autres les épauleront aussi comme Michel Leblanc, MC Turgeon et moi-même qui en profitera aussi pour prendre quelques clichés.
Technorati Tags: webcom+montreal, webcom-2006
29 sept. 2006
Publiez sur le Web ou crevez
Technorati Tags: média, virage+web, quotidien
28 sept. 2006
Bell et pas très simple
Par contre je peux visualiser le rapport de dérangement actif, mais ne peux y ajouter de compléments d'information au technicien qui devrait venir... demain matin. Le seul moyen de communiquer par internet quand l'on a plus de téléphone chez soi et de passer par la section "Pour nous joindre" est de choisir "passer une commande", où enfin l'on peux écrire en 2000 caractères le problème... Sauf que voici la réponse automatique :
RÉPONSE AUTOMATISÉE - AUTOMATED REPLY
NE PAS RÉPONDRE À CE COURRIEL - DO NOT REPLY TO THIS E-MAIL
Bonjour,
Merci d'avoir visité le site Web de Bell. Nous avons reçu votre demande
de renseignements.
Veuillez noter que nous recevons présentement un très haut volume de
courriels et que notre délai de réponse est entre 2 à 4 jours ouvrables.
Merci de votre patience.
Bell est heureuse de vous compter parmi sa clientèle.
Le Centre Internet Bell
Bell et pas très simple !
27 sept. 2006
Des cours de l'universite de Berkeley sur Google Video
Technorati Tags: google+vidéo, berkeley, université, cours
26 sept. 2006
S'inscrire gratuitement à Google Maps
- Son nom d'entreprise
- L'adresse complète
- Un lien vers son site
- Les méthodes de paiement acceptées
- Une courte description
- Des coupons rabais (pas testé encore)
Il faut simplement avoir un compte chez Google et ensuite aller ici (Pour nos voisins américain c'est ici) et tout simplement entrer les informations ci-haut, ensuite choisir une ou plusieurs catégories reliées à vos produits ou services. Ensuite vous choisissez la méthode de vérification que vous préférez, soit par la poste sous forme de carte postale ou encore par le système téléphonique automatisé de Google.
C'est que j'ai choisit et j'ai reçu un appel automatique de Google où l'on doit entrer par le clavier du téléphone le NIP qui apparaît sur la page Web de confirmation de l'information. Et voilà ! Il ne reste qu'a attendre que Google Maps intègre votre fiche, dans mon cas moins d'une semaine plus tard !
L'inscription gratuite à Google Maps peut générer passablement de pages vues par mois et un taux de clic vers votre site ou d'appel téléphonique en moyenne supérieure à une bannière publicitaire. Il faut bien utiliser le maximum des cinq catégories possible et n'hésiter pas à créer la votre si elle n'est pas disponible dans la liste des catégories de Google Maps.
Technorati Tags: google+maps
Publicité dynamique 2.0
La grande force de ce nouveau concept est qu'il permettra aussi de synchroniser ses publicités avec les sujets du jour qui populent Techmeme. Bravo et très bonne idée !
Technorati Tags: publicité+2.0, publicité+dynamique, techmeme, publicité+rss
25 sept. 2006
La fraude aux clic$ fait la une de Business Week
20 sept. 2006
Google vs Belgique : Vive les vieilles autruches
I had a very long conversation about the permissions issue with Margaret Boribon, secretary general of Copiepresse, to try and better understand how they wanted Google to operate. Why not use commonly understood and effective mechanisms such as robots.txt files or meta robots tags to prevent indexing?
"If you do so, you admit that Google does what they want, and if you don't agree, you have to contact them. This is not the legal framework of copyright," Boribon said.
This is an age old issue in the search engine world. By default, search engines assume that permission is granted to index a document, in order to make it searchable. Technically, shouldn't they get explicit permission? Legally, that might make things safer. Logistically, it would never work. Many sites don't have clear contact details. Some domains themselves contain multiple sites. Moreover, there are millions of sites across the web. Contacting them all beforehand simply wouldn't work well.
I asked Boribon about this, how her group would propose search engines undertake such a task.
"I'm sure they can find a very easy system to send an email or a document to alert the site and ask for permission or maybe a system of opt-in or opt-out," she said.
Would it be OK for such a system to work automatically, I asked? Yes, that would be fine. A machine-to-machine connection would be OK, she said. So then, I asked, why not use the existing robots.txt or meta robots systems?
Both mechanisms are easy, automatic ways for publishers to declare if they grant indexing permission or not. In fact, I'd argue that both are a way for search engines to ask beforehand for the very permission that Copiepresse wants them to seek. Major search engines -- not just Google -- all request or check these blocking mechanisms.
Boribon rejected the existing solutions. One issue she had was that they weren't legally endorsed. That's true, but that's also something I think will change over time. In the US, we've had one case recently where opt-out solutions like tags have been accepted.
Je ne peux pas croire que des médias n'essais pas de trouver des solutions originales (sans passer par la voix des tribunaux) face au fait que les moteurs de recherches profitent à tous le monde et sont essentiels à notre patrimoine culturel et informationels mondial.
J'étais déjà estomaquer à l'époque ou en 2001-2002 d'apprendre que l'IAB ne reconnaissait pas le téléchargement de PDF de journaux et de leurs publicités comme étant de la copie distribué*.
Merde, réveillez-vous.
Une des nombreuses solutions facilement applicables des deux cotés pour la libre circulation:
Vous obligez Google news a publier aussi l'annonce de votre régie publicitaire provenant de votre section Monde de 100 x 200 pixels pour un résumé de 100 mots. Ou encore 200 x 600 pixels pour 400 mots ? Google l'aspire comme votre résumé et votre "tracker" assure la page vue et aussi le "click thru". Techniquement compliquer ? Vraiment pas !
Votre annonceur est uniquement local ? Vous passer une entente avec Google News de votre pays uniquement pour une entente similaire avec plus ou mois "d'exposure" publicitaire et partage des revenus.
*Et dire que maintenant la plupart des journaux des grands médias vous donnent des copies gratuites à tour de bras dans n'importe quels évènements et même dans les ventes trottoir de Montréal pour ne pas voir leur nombre de copies décroitre et se faire baisser leur cotes !
Technorati Tags: copiepresse, google, belgique, medias, libre+circulation
Réveil Belge douloureux
- Le billet sur le blog de Renaud Hermal, journaliste de DH Net et La Libre
- Blogging the news : billet 1 et billet 2
Technorati Tags: poursuite, google, belgique, journaux+belges, copiepresse
19 sept. 2006
Les journaux Belges radiés de Google Belgique
"On demande rémunération et autorisation à partir du moment où ils vendent de la publicité et s'enrichissent sur notre contenu", a déclaré lundi à Reuters la secrétaire générale de Copiepresse, Margaret Boribon.Après avoir été condamné pour la mise en ligne d'articles belges sur Google News Belgique, Google a tout simplement décidé de faire disparaître ces journaux de son index en Belgique.
Aux termes du jugement, Google devra donc retirer à partir de lundi tous les articles, représentations graphiques ou photographies des éditeurs belges de la presse francophone, sous peine de devoir payer un million d'euros par jour de retard.
Le hic est que Google News n'a jamais eu de publicité ! Et vlan dans les dents, car maintenant et Google News et l'index principal de Google Belgique ne contiennent plus de nouvelles et de pages indexées de ces journaux !
J'approuve à 100%.
Certains comme Associated Press et Le Monde ont fait autrement et ont conclus des ententes avec Google. Mais le meilleur modèle me semble tout de même celui d'un acteur local, le journal Le Devoir qui apparaît dans Google News mais ou certains de ses articles sont visibles en totalité uniquement avec abonnement. Ceci conjugué avec la mise en ligne de plus de trois annés d'archives du journal, a fait plus que centupler ses visiteurs provenant de Google ce qui est beaucoup plus profitable au niveau publicitaire.
J'espère que ce dernier modèle d'affaire fera réfléchir plusieurs autres médias et qu'un jour on pourra en arriver à ceci.
Qu'on se le dise bien, quand on met quelque chose sur le Web, on est suceptible de se le faire accaparer. On doit penser à adapter nos modèles d'affaires pour le Web.
Technorati Tags: google+belgique, google, belgique, radier, purge
18 sept. 2006
La Chine est probablement LA plus branché
Données tiré de l'excellent bulletin Guanxi (PDF) de la firme américaine Berkshire aidé d'une firme d'analyse de statistiques WOM (Word of Mouth) bien branché sur la Chine et qui confirme plusieurs articles et billets que j'ai consulté dans les derniers mois sur la montée fulgurante des pays asiatiques et spécialement de la Chine sur le Web:
- 40,000,000 utilisateurs de forums
- 6,000,000 de bloggeurs
- Utilisateurs (classique et mobile) : Entre 150 et 200 M (US Jan. 2006 : 154 M)
- Heures en ligne par semaine : 2 milliards (US : 129 millions)
- Flickr : Environ 500,000 photos sont téléchargés par jour
- Cyworld (Corée, Chine, Japon et un peu au US) : Près de 6.2 millions de photos sont téléchargés par jour
Google NetPAC : A l'assaut du plus grand défi
Technorati Tags: netpac, lobbying, google
YouTube le prochain Napster ?
La comprehension du Web au Quebec
Premièrement, qu'une compagnie de service n'est pas nécessairement une compagnie capable de profiter du dialogue. Elle doit pour ça être ouvert à l'écoute. Ou plutôt que l'écoute soit un vecteur important pour sa croissance. Une boîte de RP (comme Edleman) l'est, par définition - elle doit être à l'écoute du marché.Effectivement, comme dans la majorité du secteur des affaires au Québec, très peu de joueurs sont à l'écoute du Web. C'est même exaspérant dans le secteur de la publicité, où seulement une infime part de leurs employés utilisent les carnets Web pour suivre les tendances du marché. Et c'est exactement la même chose pour les sites Web en général. Demande à n'importe quel patron le nombre de visiteurs que son site reçoit ? Il y a 8 chance sur 10 qu'il ne le sache pas où qu'il te donne des chiffres farfelus.
Deuxièmement, qu'une compagnie qui ne comprend pas ce qui m'enrichit n'est pas faite pour moi. Dont acte.
C'est exactement la même chose pour les producteurs de sites Web. Plus de 90% des boites qui concoivent des sites Web ne pensent pas a rendre les sites de leurs clients conviviaux aux moteurs de recherche et perdre ainsi de 30 à 75% des visiteurs potentiels.
15 sept. 2006
Microsoft disparaît du Web
Tout ceci est dû à l'utilisation d'un javascript (gping="/GLinkPing.aspx?) utilisé dans les liens des résultats qui enlève les informations inhérentes au référents comme le site d'où vient le visiteur et les mots-clés utilisés dans sa recherche. Cette dernière information est d'ailleur primordiale pour les personnes en charge du marketing et les rédacteurs.
Mise à jour 21 sept : Maintenant corrigé
Technorati Tags: live+search, log+files, statistiques, analytics
Hittail : Un service d'optimisation automatique
Ceci n'est rien de bien nouveau. La première chose que j'enseigne à mes clients est justement de regarder leur référents-moteur (visiteur provenant des moteurs de recherche avec l'expression-clé utilisée) et de transmettre cette liste de mots-clés aux rédacteurs pour qu'ils utilisent, -si possible-, des synonymes de ces mots-clés à l'avenir dans leurs textes.
Simple logique !
Pourquoi réutilisé les mêmes mots-clés qui vous apportent déjà des visiteurs alors que vous pourriez élargir votre éventail avec des expressions clés similaires ayant du potentiel en vérifiant avec des outils comme Overture.
Le bon coté de ce service est qu'il ouvrira les yeux de certains clients qui pensent qu'en optimisant 10 pages de chaque langue de leur site, l'affaire est faîte. Cela n'est pas la bonne méthode.
Il faudra toujours des humains pour dénicher les bons mots, - et surtout -, les bons endroits pour les utilisés.
14 sept. 2006
Les revers du Web 2.0
- Les foutus spams dans les commentaires ou dans les forums
- La gestion légale de l'informations des commentaires ou forums
- Les zillions de billets qui parlent tous du même article sans vraiment de valeur ajouté
- Des sites aspirateurs de billets que pour vendre des publicités
- La dérive des algorithmes de classification qui t'envoie sur un zolie petit vidéo quand tu es sur Digg pour des articles sur la technologie
- Les manipulations de paquetages de votes
- Les réseaux sociaux bâtit grâce au spam.
- L'envahissement des réseaux sociaux par les gens de marketing
- Des sites poubelle à publicité
Les lecons a tirer d'une catatrophe
Gestion du pic d'affluence
Une page Web allégée devrait être prête a recevoir les informations les plus pertinentes en cas de crise. Une redirection de la page d'accueil habituelle vers cette page soulegera ainsi le(s) serveur(s). C'est d'ailleur ce qu'avait fait CNN un certain jour septembre 2001 et c'est ce qu'a fait hier le site français de Canoe.
Tous les sites Web d'institution ou de moyenne à grosse compagnie devrait aussi être doté d'une telle page avec un accès externe avec gestionnaire de contenu et script de redirection pour mettre à jour les informations pertinentes en cas de crise.
Gestion innefficace des informations du public
Un autre lacune assez évidente pour toutes personnes qui ont suivit les médias Web hier était le chaos total des informations contradictoires. Les sites Web des grand médias gèrent de façon absolument archaïque la collecte d'informations du public.
Radio-Canada, CyberPresse, et TQS nous offre que des adresses de courriel et des numéros de téléphones, alors que sur Canoe/LCN je n'ai rien trouvez du tout !!!
Aucun formulaire qui me permettrait aisément d'envoyer de l'information textuelle et électronique (photos ou vidéos) du style qu'utilisent les grands réseaux sociaux existants à la mode comme les MySpace, Blogger, Flickr, YouTube ou DailyMotion sur la Toile. Pathétique !
Technorati Tags: dawson, médias, trafic, collecte+informations
13 sept. 2006
Fusillade au college Dawson
Ce qui me surprend, c'est qu'encore en 2006, les infrastructures des réseaux téléphoniques et même les sites Web de certains médias et celui du collège sont assez affectés par cet évènements. Je trouve assez inconcevable que les réseaux de cellulaires et que le site du seul média national en français soit fortement affecté !
MàJ 15h : Des photos commencent a faire leurs apparitions sur Flickr.
MàJ 17h59 : Finalement une vingtaine de blessés, une jeune victime et un suspect abattu par la police.
Technorati Tags: dawson, college+dawson, fusillade,
CNN et AOL pousse un peu fort
Après un bref coup d'oeil, je croyais que c'était simplement un liste de mots-clés contenant des noms de vedettes mal géré, mais le descriptif de la publicité nous montre que CNN a bien intentionnellement utilisé la mort du fils d'une vedette pour s'attirer des lecteurs. Et ce n'est pas malheureusement pas les seuls a utiliser cette forme morbide de publicité comme le montre cette autre capture d'écran où une autre publicité de Starware et d'AOL à droite (non-visible ici) utilisent cet évènement pour faire de la publicité !
7 sept. 2006
Zippy : Un métamoteur surprenant
Zippy.co.uk est un métamoteur qui utilisent plusieurs sources pour vous présenter ses résultats. Il utilise principalement les 4 grands (Google, Yahoo, MSN et Ask) pour ses résultats en plus d'offrir les données d'Alexa, de Technorati et celles de Internet Archive.
J'ai testé une foule de moteurs et méta-moteurs depuis ces 12 dernières années et je suis très impressionné par ses résultats. En plus des résultats classiques, il permet aussi d'avoir des informations stratégiques sur les sites comme les données d'Alexa, le PageRank, les liens externes, le nombre de pages indexés, etc.
Grâce au recoupement des résultats des 4 grands (GYMA) et en utilisant le nom de domaine, il permet aussi de voir les pages ou billets les plus populaires d'un site quand ces pages sont positionnés par plus d'un moteur.
À découvrir !
PS: Je parie que vous trouverez des informations sur vous que vous n'aviez jamais vu ailleur !
Technorati Tags: metamoteur, zippy
6 sept. 2006
Google News Archive : Un premier pas vers des archives libres !
Les archives sont pour le moment principalement anglaises mais heureusement deux joueurs québécois, Canoe/LCN et le journal Le Devoir vont parfois percés les résultats. Du coté de nos cousins ; Le Monde, Libération, Le Nouvel observateur et L'Expansion sont aussi présent.
Utilisation
Les archives peuvent être affiché selon deux critères, par le critère Timeline qui est très minimaliste et par articles où la fouille se fait plus en profondeur.
Est-ce la naptérisation d'un autre modèle archaïque ?
Il y a fort a parier qu'un des détenteurs d'archives historiques fera le saut bientôt et qu'évidemment les autres suivront. Le modèle économique archaïque de faire payer l'utilisateur jusqu'à 5$ pour pouvoir consulter un simple article n'a jamais été très viable et le sera de moins en moins. On n'est plus du temps des micro-films et les éditeurs devraient se sortir la tête du sable.
L'ouverture des archives contenant des milliers d'articles au public résoudra deux des grands problèmes actuel des médias et ne nécessite qu'une très simple opération.
L'accès à un plus grand nombre de pages aisément ciblables pour les annonceurs, une plus grande notoriété pour le site - et une autorité (pagerank) accru - et des retombés économiques non négligeables pour le média.
3 sept. 2006
Calcul humain de masse et Etiquetage ludique 2.0
L'idée ici est de résoudre un des grands problèmes informatique, la reconnaissance et l'étiquetage sémantique de photographies et d'images. Les ordinateurs sont impuissant à l'heure actuelle a résoudre ce problème. Comme il y a des centaines de millions d'images et de photographies sur le Web sans valeur informationnelle précise, le problème est titanesque. Et l'informatique actuellle est impuissante à résoudre ce problème. La preuve ultime de ce constat est l'utilisation de CAPTCHA sur les formulaire, pour s'assurer que c'est bien un humain qui remplit le formulaire en question et non pas un programme informatique créer pour flouer le formulaire ou sondage en ligne. Assez paradoxal tout de même de créer un programme informatique que seul l'humain pourra résoudre !
Solution : L'ESP Game qui inspira le Google Image Labeler
Le jeu consiste a mettre en temps réel deux joueurs au hasard ensemble (ceci pour empêcher le SPAM) pour qu'ils puissent étiqueter (tag) des photos provenant de Google Image. Comme le jeu est chronométré, la pertinance des mots-clés doit en patir me dis-je.
Comment bien définir une photo de Martha Stewart par exemple ? Le premier mot venant à l'esprit est "femme" évidemment, mais ceci n'est pas très sémantiquement précis. "Femme d'affaires" ou "Martha Stewart" serait déja mieux. "Criminelle" pourrait aussi lui convenir. Alors comment gérer ces multiples possibilités ?
Tout simplement en re-soumettant une même image plusieurs fois à différents joueurs en leurs mentionnant que certaines étiquettes sont déja utilisées comme le "Off Limits" dans le jeu présenté ci-haut. Ce concept assez génial d'utiliser le procrastinateur internet comme main d'oeuvre gratuite vient du chercheur américain Luis von Ahn du département de science informatique de l'université Carnegie Mellon. Voir cette excellente présentation du bonhommme en question.
Possible d'étiqueter la grande majorité des images du Web ?
Certains en doute, mais moins de 100 heures après le lancement du jeu, les 5 joueurs les plus "intoxiqués" par ce jeux ont déja étiquetés, - à eux cinq seulement-, près de 50,000 images !
Génial !!!
Technorati Tags: google+images+labeler,, tagging, étiquetage, sémantique, jeux, calcul+humain+de+masse
1 sept. 2006
Les fournisseurs d'applications pour les Adwords devront casquer
Les gros utilisateurs de publicité sur Google qui utilisent des applications tierces se verront facturé à l'avenir pour l'extraction de données du programme Adwords.
Google mettra des quotas au début octobre prochain sur les requêtes sur son interface d'application (API - Application Program Interface) pour les dizaines de logiciels ou services en ligne qui utilisent son API pour plus d'un client.
Une bonne nouvelle pour les petits annonceurs qui auront moins de problème avec le panneau de contrôle des Adwords mais un batôn dans l'engrenage des dévelopeurs d'applications tierces et un surcoût pour leur clientèle.
Technorati Tags: adwords, api, quota
31 août 2006
Le Washington Post 2.0
Par contre, l'excellente idée de mettre tous les commentaires d'une personne sous son profil va peut-être servir d'auto-modérateur pour l'usager.
Un autre journal qui fait dans l'intéractivité, - et même de la socialisation avec l'aggrégation des commentaires sous une fiche, entre les lecteurs et ses journalistes. Cela a été long mais, ils n'ont plus beaucoup le choix pour survivre.
À suivre bientôt.
Via Micro Persuasion.
Technorati Tags: washington+post, media, 2.0
Search Marketing Standard
J'ai reçu le numéro 2 du magazine Search Marketing Standard édition automne 2006. Comme son nom l'évoque il traite principalement de marketing internet et d'optimisation Web.
C'est un magazine que je vais référerez surtout à mes clients pour démystifier et vulgariser les pratiques de cette industrie. Pour tous ceux qui évoluent dans le milieu depuis quelques années, il est un tout de même un bon aide-mémoire.
L'outil statistique d'Alexa est completement dans le champs
Outil fiable ?
Voici donc le graphique du nombre de page vues par les utilisateurs de la barre d'outils d'Alexa depuis 2002 sur le site du journal LeDevoir.com:
Comment interpréter ce graphique ? Selon Alexa, il y aurait en moyenne 0,00025 personnes sur 100 utilisateurs de leur barre d'outil qui visionnait le site du Devoir en 2002 ou encore 2,5 utilisateurs sur 1 million. En 2006 le ratio tomberait à environ 1,75 utilisateurs sur 1 million !!!
Sauf que pendant la même période, les référents moteurs* mensuel des fichiers journaux du journal du Devoir nous disent ceci :
Avril 2002 : 5 500 (ancien site avant optimisation)
Juin 2002 : 9 592 (le nouveau site a été lancé le 21 mai)
Novembre 2002 : 71 921
Janvier 2003 : 105 281 (ouverture des archives peu à peu)
Janvier 2006 : 741 682 (ajout de 2 années d'archives en ligne supplémentaire)
Plutôt surprenant non ? Une augmentation de 134 fois des référents moteur et aucune trâce de ceux-ci dans les données d'Alexa !
* Les référents moteurs sont à mon avis la donnée la plus exacte des analyses des fichiers journaux car elle nous permet de voir les provenances exactes des visites en plus des mots-clés utilisés en recherche ce qui empêche de se faire berner par les autres bruits internet (robots spammeur, ping, trackback, etc)
Technorati Tags: alexa, statistiques+web, ledevoir
Les statistiques de fréquentation Web : De plus en plus imparfaite
J'ai dû analyser dans mes 1o dernières années des terabytes de fichiers journaux (log files). Depuis 4 ou 5 ans leurs validités sont en déclins constants et ce indépendamment du logiciel d'analyse utilisé. Même les vieux de la vieille comme WebTrends sont de plus en plus déficiants.
Je préconisais d'ailleurs dans ce billet intitulé "Statistique Web : La perfection n'existe pas" deux systèmes en lignes par étiquetages doublé d'un système par log.
À la suite de ce billet Google Analytic est devenu disponible pour tout le monde. Après quelques comparaison je conseillais seulement celui-là à la grande majorité de mes clients tout en spécifiant que les meilleurs indicateurs sont toujours les témoins codés et leurs ventes ou demandes de renseignements.
Mais depuis la montée de Firefox - et autres fureteurs avec onglets (tab browser)- dans les statisques d'utilisation qui sont à l'heure actuelle de 12% à 60% selon le type de site (genre de site d'un site de météo jusqu'à un site nerds comme Slashdot), nos chers témoins (étiquette javascript et/ou cookies) sont passablement largués par cette nouvelle forme de navigation et ce, sans parler des nouvelles façons de coder les pages avec des layers invisibles, les CSS et l'Ajax !
J'adorerais savoir ce que les Networldmedia, CanoeKlix et même les Adwords comptabilise quand le client qui ouvre dans plusieurs onglets quelques publicités avec un seul cookie et témoin de leur unique fureteur ?
30 août 2006
Liens et reseaux sociaux
Par contre, comme dans la vie en général, il faut usé de modération (surtout quand cela influence les algorithmes des moteurs de recherche) et comprendre les implications des ajouts de liens que l'on implante dans ces pages.
Si votre site ou carnet utilise :
- une longue liste de vos amis ou connaissance (blog roll)
- de multiples catégories
- des billets pour le mois entier
- une multitudes de petits boutons vers des sites sociaux ou de monitoring
- une longue liste de liens divers
- Un nuage de mots-clés (tag cloud)
Donc je conseille vivement uniquement le premier des deux outils, le Social Bookmark Creator mais avec l'option "Drop Down Menu" à la place du "Link List". Pourquoi ? Tout simplement dû au fait que tous les liens inclus dans une boîte défilante (Drop Down Menu) ne sont pas pris en compte par les moteurs de recherche !!!
*Un superbe outil pour afficher le nombre et les liens d'une page est l'extension Web Developer qui ajoute une foule de fonctionnalité très pratique à Firefox.
Technorati Tags: réseaux+sociaux, liens, modération
Second Life : Quand la vraie vie rattrape le virtuel
Je n'ai jamais été fana des univers virtuels et des communautés "trop" ouverte sur la toile, même si j'utilise quotidiennement des ordinateurs réseautés depuis plus de 20 ans. En fait mes premières utilisations de BBS (bulletin board system) remonte à 1983 sur mon modem 300 bauds. Alors la bonne époque de la petite communauté virtuelle facilement gérable.
Dans ce siècle dernier, ces systèmes n'étaient quand même pas trop ouvert et la gestion des forums et téléchargements se faisait assez aisément car il n'y avait pas de multiples façons de se camoufler pour les emmerdeurs sur les lignes filaires.
Puis vient le Web et les premiers forums de discussions, les "trolls" apparurent et la gestion de ses indésarables devenu plus ardu.
Maintenant la plupart des blogs et systèmes de discussions permettent assez facilement de gérer les messages internes, pour peu qu'on s'en donne la peine.
Évidemment plus le système a de l'ampleur et de "l'exposure", plus il faut y mettre les ressources. Les "vrais" hackers ont adoptés les mêmes techniques que les terroristes de la fin du siècle dernier, - évidemment avec des résultats beaucoup moins catastrophique humainement parlant, mais presque autant médiatiquement et avec parfois des dommages économiques assez importants qui nous sont cachés mais qu'on paye chaque mois en frais bancaire et sur nos cartes de crédits.
2006 et les réseaux sociaux virtuels et les hackers 2.0
Revenons à nous moutons et SL (Second Live "pour les nuls"). J'ai des copains qui nous parle assez souvent de Second Life comme vous voyez.
Mon pote Michel y est allé d'un billet sur la frilosité des entreprises québécoises à aller sur Second Life et la découverte de Telus dans cet univers.
Mitch Joel replique plus tard en découvrant l'instigateur de la présence de Telus, qui de son propre chef, a mis un stand et une application de son produit sur SL.
Michel pousse plus a fond quelques jours plus tard, et découvre finalement que personnes aux relations publiques ne connait cette initiative et sont assez perplexe !
La finale :
Encore une mauvaise gestion des communications sur la Toile
La boutique de Telus a été placardé de plywood dans Second Life. Ensuite deux meutres virtuel devant la boutique !
C'est tout beau, tout neuf, mais l'on y répete les mêmes erreurs quand 95-2000. On y mettait des tonnes d'argent en publicité dans de gros portails pour mousser sa marque car leurs propres sites n'avaient aucun rayonnement et étaient "platement conçu", et les communautés naissantes de ces portails étaient souvent frileuses sur le plan du marketing aggressif sur une toile "gratuite". De plus, il ne veillent même pas assez sur ses nouveaux investissements même si c'est dans un univers virtuel.
Pauvre Serge, tu vas avoir du pain sur la planche virtuelle avec ton nouveau poste !
Technorati Tags: veille, second+live, telus, pr, communication, hacker+2.0, relation+publique
29 août 2006
Divertissement 2.0
Les tendances changes assez rapidement selon Google Trends et même ailleurs. Le vidéo musical semble prendre le pas sur le téléchargement de musique dans les nouvelles tendances. De plus, j'ai donné une chance au Mp3 dans ma requête sur Google Trends en utilisant la syntaxe "mp3" OU "music" + "download" contre simplement "music video". Le vidéo musical commence ainsi a reprendre la côte sur le MP3 à partir 2006 !
28 août 2006
Premiere attaque directe de Google sur Microsoft
La seule nouveauté ici, est que vous pourrez avoir votre logo d'entreprise d'intégré dans ces applications en ligne puisque GMail permettait déjà d'avoir votre propre nom de domaine.
Ce service est en phase beta, comme à l'habitude, mais il y a fort a parier que beaucoup d'autres services s'intégreront bientôt à cette offre comme les; Spreadsheet, Writely (traitement de texte), Desktop Search (qui pourrait possiblement être un service de recherche intranet), Maps (qui pourrait entre autres servir de localisateur de succursales), Web Album et Blogger (pour les communications internes et externes), etc.
Je ne crois pas que Google fasse vraiment mal à Microsoft avec ce regroupement de services, mais les Zoho, Thinkfree et Zimbra vont surement en pâtir un peu !
Technorati Tags: google+apps, google+services
25 août 2006
Les recherches sur le Web : Un indicateur économique assez précis
Ce graphique représente les ventes de maisons compilé par l'association nationale des courtiers américains. Assez frappant comment le volume de recherches effectué sur "homes for sale" se reflète dans les ventes effectives ! Ici on peut probablement assumé que les ventes du mois d'août vont problablement être à la hausse.
Source : Le blog de Hitwise
Technorati Tags: recherches, optimisation, indicateur+économique, marketing
23 août 2006
Regles d'optimisation pour les medias
- Sachez cibler votre audience (et la géolocalisation aussi pour vos services)
- Utilisez un vocabulaire simple et axé sur les mots-clés utilisés en recherche
- Pensez prioriterement à la pérennité de votre information (un bon archivage est primordial)
- Travaillez votre capital Liens (Rendez votre site un incontournable)
- Récompensez les liens entrants
- Favorisez la diffusion de votre contenu (Essentiel)
- Encouragez les applications composites (Tout en effectuant une veille serrée)
- Soyez une ressource pour les internautes, sans rechercher aucun retour immédiat
- Récompensez les internautes serviables et de qualité (Les produits promotionnels sont là pour cela)
- Participez
- Soyez créateur de contenu
- Soyez vous-même
- N'oubliez pas vos racines, restez humble
- N'ayez pas peur d'expérimenter des choses nouvelles, gardez votre fraîcheur
- Développez une stratégie d'optimisation pour les médias sociaux
- Rendez convivial l’ajout de tags ou de signets
- Choisissez soigneusement vos tactiques d'optimisation
- Intégrez à votre processus de création et vos meilleures pratiques l'optimisation pour les médias sociaux
Original story