| Audit SEO Gratuit | Fil RSS |


12 juill. 2006

11 juill. 2006

Tendance : La pub et le virtuel

Très bon dossier, comme toujours de la part de Trendwatching, sur le mouvement publicitaire vers le virtuel, la où sont majoritairement les jeunes et moins jeunes qui délaissent les autres médias.

Technorati Tags: ,

7 juill. 2006

Si la tendance se maintient Wikia annonce que le prochain président sera...

J'ai hâte de voir comment ce nouveau projet Wikia sur les campagnes politiques, -lancer par Jimmy Wales fondateur de Wikipedia -, pourra influencer les médias et les citoyens. Politique 2.0 ?

Technorati Tags: ,

4 juill. 2006

Google intègre de plus en plus le Canada dans sa stratégie publicitaire

Ça y est. Google intègre maintenant de plus en plus ses innovations technologiques dans le marché canadien. Dans les philactères de Google Maps les données des commerces commencent a être de plus en plus complète comme le montre le lien ci-haut. En plus d'avoir l'adresse, le téléphone et le site Web, on a droit aussi a un complément d'information avec l'onglet Details.



En prime, sur l'onglet Address l'on voit aussi maintenant la possibilité d'envoyer les informations trouvées sur Google Maps à son téléphone cellulaire ! Il me semble bizarre pourtant que dans la liste des "carrier" il ne semble pas y avoir de "telco" canadienne ?



Technorati Tags: ,

Suivre le tour de France 2006 en temps réel

Une des meilleures applications sur Google Earth jamais réalisé ! Suivre en temps réel le tour de France comme si vous y étiez et sans stéroides !!!

La carte suit automatiquement le peloton, - grâce à des GPS des suiveurs des pelotons -, au travers des magnifiques images de la France fraîchement mises à jour !

Mode d'emploi en cas de problèmes
  • Assurez-vous d'avoir le layer Tour de France 2006
  • Ouvrir ce layer et cliquer sur le sous-layer Live TDF
  • Cliquez sur le bouton Close follow view
  • Vous devriez voir un vélo apparaitre sur la carte (quand l'étape est en cours)


Technorati Tags: ,

29 juin 2006

Les publicitaires et le Web

Très éloquente cette présentation (ppt) sur la publicité dans les médias de la Online Publishers Association. Un graphique vaut mille mots :



Imaginez maintenant uniquement la période 9 à 17h du lundi au vendredi ou le Web et la radio doivent dominer radicalement !

Technorati Tags: ,

27 juin 2006

Veille et marketing 2.0

On le croirait pas mais même les plus sinistrés de l'an 2005 chez nos voisins du sud peuvent nous étonner par leur dynamisme en matière de veille et de marketing Web.

Suite à la publication hier soir de mon billet sur le nouveau méta-moteur HuckaBuck j'ai reçu aujourd'hui un courriel du département marketing qui m'invitait a me joindre au cercle d'intimes.

Une bel exemple de veille et de fidélisation de la clientèle qui est plutôt rare par ici !!!

La bulle de 2000, les phylacteres de 2007

En 2000, il y a eu l'éclatement de la bulle spéculative de l'internet. En premièr semestre 2007, il y aura probablement une autre mise à niveau, l'éclatement de milliers de petits phylactères .

Drôle de paradoxe, le premier crash était à cause d'une spéculation trop forte et surtout anticipée quelques années trop tôt. Les modèles d'affaires n'avait pas encore vu le jour. Aujourd'hui, c'est quasiment le contraire, les médias trad voient leur public fuir vers le Web et les annonceurs ne savent plus où donner de la pub !

21 juin 2006

Google testera le modele cout-par-action

Google qui utilisait déja ce modèle de marketing affilié dans sa promotion des référants pour les publicités AdSense, veux le tester maintenant pour les éditeurs et marchants utilisant son système AdSense.

Contrairement au PPC (pay-per-click) le client qui annonce ne se verra facturé que si le clic provenant du site où est l'annonce, résulte en une action quelquonque du genre vente directe ou demande d'information. Ceci bonifiera certaine le nombre d'annonceurs chez Google, surtout dans les domaines hautement compétitifs où la fraude au clic est assez importante.

Ceci permettra aussi fort probablement a plusieurs annonceurs de voir, -pour la première fois-, le réel RSI (retour sur investissement) et de les comparer ainsi avec les autres modèles que sont le PPC et le CPM (coût par mille impressions).

Ceci risque d'ébranler de nombreux joueurs dans cette industrie qui voit apparaître dernièrement beaucoup de firmes avec leurs statistiques très élastiques !

En espérant que Google Analytics intègre au plus tôt ce nouveau modèle dans nos statistiques de fréquentation.

19 juin 2006

Tupperware Web Marketing

Je cherchais un terme depuis quelques mois pour décrire les nouveaux intervenants (2004-2006) dans le monde du marketing internet qui ont tous leur vision unique de la promotion Web de leur produits et services. Je viens de trouver : Le Tupperware Web Marketing !

C'est le type de; compagnies, consultants, analystes ou/et même charlatans qui ont tous, - ou presque-, un unique créneau en parlant du marketing sur le Web. Pour les uns c'est que; des mots-clés et des "Web Focus group", pour les autres ce sont les trads indécrotables et leur banières publicitaires, les gourous des blogues, les sectaires des publicités par clics ou les évangilisateurs des mailing list et aussi plus rare mais bientôt sur vos moniteurs et magazines, les accrocs de l'infolust.

Le marketing Web c'est bien plus que cela. C'est avant tout de l'éducation pour bien gérer la pérénité de l'information et être à l'écoute des nouvelles tendances mais surtout en ayant de solides compétences et expériences de la quincaillerie (back-end) et de l'interface utilisateur (front-end). Ce qui semble manqué à la très grande majorité des intervenants du milieu. Ou alors, si vous faîtes affaires avec une très grosse agence qui supposément sait tout faire, vos besoins et buts risquent de passer par le téléphone arabe d'une ribambelle de personnes en passant par le chargé de compte, le chargé de projet, les employés et finalement les consultants et/ou stratèges externes comme cela m'arrive malheureusement trop souvent.

Le Web, contrairement à presque tous les autres médias actuellement, c'est vivant, mouvant et peut être d'actualité à chaque requête Internet.

Technorati Tags: , , ,

Exemple d'une campagne virale à coût modique

Vous faîtes un refonte majeure de votre site et/ou de votre offres de services. À la place de faire simplement un simple communiqué de presse vous en faîtes un concours avec quelques règlements vous attirant ; de nombreux liens et rétro-liens, plusieurs billets parlant de vos noouveautés et un effets "buzz marketing" à cause du prix de $1,000. Très ingénieuse idée que cette petite campagne virale bon marché.

Technorati Tags: , , ,

16 juin 2006

Google lance Picasa Web Albums

Picasa Web Albums Test (tiens il n'est pas beta) est lancé sur invitation seulement comme pour Gmail. J'ai reçu mon invitation que quelques heures après l'avoir demandée. Voici mes premières impressions:

Pour
  • Très rapide
  • Permet d'y déposer près de 1000 photos (250 meg) gratuitement contrairement à 200 pour Flickr
  • La résolution des photos peut être jusqu'à 1,600 pixel x 1,200
  • Pas de limitation pour le nombre d'albums
  • Réorganisation de l'ordre des photos très simple et rapide

Contre
  • Pas de groupe
  • Pas d'étiquette
  • Pas de favoris
Picasa Web Albums est simplement un petit album personnel, pour le moment, et est très loin de ce que Flickr a pu créer. Il n'est pas possible de facilement visionner les photos des autres sans connaitre leur adresse.

9 juin 2006

Closed Captioning : Nos médias l'utiliseront-il efficacement un jour sur le Web ?

Le "Closed Captioning" c'est le sous-titrage codé pour les malentendants qui est intégré dans le signal analogique ou digital d'une émission ou d'un document vidéo NTSC ou PAL en Europe.


Il est surnommé CC et le "closed" est dû au fait qu'il faut activer le décodeur par notre télécommande de télévision pour le voir apparaître en surimpression sur l'image. Depuis 1993, partout en amérique du nord, tous les téléviseurs doivent avoir ce décodeur intégré. En europe il est appelé télétexte.

La grande majorité des ; émissions, bulletins de nouvelles et même certaines publicités ont ce sous-titrage intégré. Il est ajouté au signal analogique soit en temps réel par des sténographes, soit en post-production d'une émission ou d'un reportage. Il en coûte environ entre $10 et $20 la minute en moyenne pour le faire en post-production. Il est intégré dans la ligne 21 du signal et est synchronisé avec l'émission ou le document.

Le Web et la vidéo

Le principal problème des documents vidéos provenant des médias sur le Web est que leurs contenus sont très difficilement identifiable par les moteurs de recherche. Ils sont insérés sur la Toile avec un court titre, des fois avec une petit descriptif et rarement avec des étiquettes (tag).

Développement durable

Il serait tellement facile, et pratiquement sans aucun coût supplémentaire, pour ces médias producteurs de contenu de tout simplement, à la source, prendre la copie texte des sténographes et de la donner à la division Web de ces grands médias. Eux pourrait tout simplement mettre un lien près du vidéo sur ce fichier texte. Les malentendants, les moteurs de recherche et les tous les internautes seraient ravis. Et les médias Web verraient leur trafic augmenté ainsi que leurs revenues publicitaires !

Mais je ne l'ai encore jamais vu sur le Web. Quel gaspillage !!!

Update 14h: Dumais m'a fait remarquer que PBS, (nul autre que) met les CC en transcripts sur leur pages Web et les offres aussi dans les QuickTimes (caption) de la série d'une de ces émissions. Malheureusement pour eux, vu que ces transcriptions apparaissent dans des fenêtres-éclairs (pop-up) les moteurs de recherche ne peuvent y accédés !!!

Page Wiki anglaise sur le Closed Captioning
Site extrement complet en anglais sur le Closed Captioning.
Et même un blog sur le CC.


Technorati Tags: , , , , , ,

8 juin 2006

Rencontre Yulblog


Soirée vraiment réussi hier soir à la Quincaillerie. La grande majorité des gens présent semblent avoir aimé ce nouvel endroit très aéré avec ses grandes tables à l'avant qui permettent de mieux socialiser entre férues des carnets Web. Une trentaine de convives qui ont dû répondre à cette petite question salée.



Technorati Tags: ,

7 juin 2006

Dico : Cannibalisation Web

Historique de la Cannibalisation Web ?

C'est ma définition/traduction de la parade "mirroring" utilisé par les optimisateurs peu scrupuleux de l'époque pré-marketing Web pour avoir le plus de résultats possibles dans la première page de résultats des moteurs de recherche. Ces gens dupliquaient tout simplement et intégralement de nombreuses pages de leur site sur deux ou de multiples noms de domaine différents pour accaparer le maximum de résultats dans la première page des moteurs de recherche.

Cette expulsion massive des optimisateurs peu scrupuleux (black hat) utilisant cette technique est apparu à ma souvenance pour la première fois dans le monde de l'optimisation Web il y a quelques années lors de la célèbre mise à jour des algorithmes de Google prénommé par Brett Tabke le "Florida update" il y a 3 ans en à la mi-novembre. Un vrai tsunami. Comme vous le voyez dans le liens ci-haut, c'est tout de même près de 60,000 pages et des dizaine de milliers de "post dans les forums spécialisés qui ont été ébranlé de ces techniques douteuses à l'époque et qui ont été plus ou moins évacués des moteurs de recherche.

Pourquoi je reviens sur cette très vieille affaire, dixit à l'échelle Internet ?

En analysant aujourd'hui la communication Web d'un nouveau client, j'ai remarqué que son nouveau site spécifique pour mieux développer son produit vedette avait utilisé en partie les mêmes textes que sur le site mère. Erreur ! Même si les pages du nouveau site sont tout de même indexées par Google (donc pas totalement bannies), elles n'apparaissent jamais dans une recherche très spécifique du style "dix mots-clés entre guillemets" qui pourtant sont tous contenus dans les pages des deux sites? Seul le site de la maison mère apparaît dans les résultats !

C'est me semble-t'il plus pénalisant depuis le nouveau update du mois de mars par Google surnommé Bigdaddy qui semble encore plus tatillon sur cette pratique. Et je trouve ça parfaitement logique et même très bien.

Si l'on transpose cela dans la vraie vie : Je connais pas beaucoup de succursales de Jean-Coutu de la côte-nord ou du Lac St-Jean où on utiliserait le même phrasé pour me répondre sur une question que si je contactait le siège social de l'entreprise.

Diversifiez votre écriture rédactionnelle selon votre clientèle. Dans le site du siège social vous pouvez utiliser un style d'écriture plus généraliste et de langage plus soigné et dans vos sites spécifiques et/ou régionaux, utilisez un style plus technique et s'approchant plus du language populaire en décrivant les problèmes et solutions que vos produits et/ou services solutionnnent !!!

Technorati Tags: , ,

2 juin 2006

Surf qui peut 2006



Agréable rencontre hier à l'événement Surf qui peut 2006 sur une superbe terrasse de l'île des Soeurs organisé par l'IAB, Canoe et Sympatico /Msn.

J'ai été surpris de la meilleure compréhension du médium internet par les intervenants marketing que par le passé ou lorsque je mentionnais "Skype" ou "Firefox" dans une conversation on me prenait pour un martien. Il y a de l'espoir !

24 mai 2006

Statistiques Web : La perfection n'existe pas

Hits, session d'utilisateur, visiteur, fichier, site, pages vues et visiteurs unique sont tous des termes employés dans les outils de statistiques Web. La plupart de de ces outils ne sont pas adéquats ou mal configuré.

Les chiffres obtenus peuvent souvent varié du simple au quintuple (et plus) selon les solutions employées. Voyons les 2 principales méthodes d'acquisition des statistiques :

Fichiers journaux (log files analyzer)

L'ancêtre des métriques Web. Le fichier journal est un fichier contenant les connexions demandées par les utilisateurs d'un site Web. Logeant sur le seveur Web, ce fichier comprend diverses informations comme; l'adresse IP, la date et l'heure, le document demandé, les code de statut du transfert, le nombre de kilo-octets transféré, etc.
[127.0.0.1 - frank [10/Oct/2000:13:55:36 -0700] "GET /apache_pb.gif HTTP/1.0" 200 2326]
À partir de chacune de ces lignes d'entrée du fichier journal, le logiciel d'analyse nous brosse des rapport un peu plus conviviaux.

Avantages
  • Peu onéreux
  • Souvent installé par défaut chez les hébergeurs
  • Archivage simple
  • Consultation sur la période souhaitée
  • Détection aisé des erreurs de transfert et précision de la bande passante utilisée
  • Rapport configurable à souhait
  • Contournement aisé des murs coupe-feu
Inconvénients
  • Sur des sites à grand trafic, le temps d'analyse des fichier journaux peut-être très long
  • L'analyse des fichiers doit être fait sur un réseau interne contenant aussi un serveur de noms de domaine
  • Assez grande imprécision des statistiques dû aux serveurs cache des FAI
  • Difficilement configurable pour sites à serveurs multiples
  • Mauvaise détection des utilisateurs versus robots indexeurs
  • Rapport statistiques pas toujours conviviaux pour tous
  • Mauvaise interprétation des adresses IP dynamiques

Système d'étiquetage
(tags, web beans)

Les statistiques par étiquettes utilise un petit code javascript qu'on insère sur chaque page du site. Ceci permet de faire la lecture des informations au niveau du client Web et non plus au niveau du serveur du site. La plupart des ces solutions utilise aussi un/des cookie(s) enregistré sur l'ordinateur du client.

Avantages
  • Suivit possible en temps réel
  • Permet d'avoir beaucoup plus d'informations sur le client
  • Consultation aisée selon l'outil utilisé
  • Erreurs de transfert et précision de la bande passante utilisée
  • Contournement aisé des proxy
  • Permet des statistiques sur un réseau de sites grâce aux cookies
  • Filtrage automatique des robots
Inconvénients
  • Impossible d'obtenir des statistiques si le navigateur a son JavaScript désactivé
  • Mesures déficientes si l'anti-virus (ou autre système de sécurité) du client bloque les cookies
  • Les murs coupe-feu (firewalls) peuvent bloquer les étiquettes
  • Les temps de réponses des serveurs distants peuvent altérer les statistiques
  • Pas facilement configurable dans les zones sécurisés
  • Erreurs dans les pages plus difficilement détectables
  • Origine exacte du référants pas toujours disponible
Conclusion

Le système par étiquetage est tout de même mieux que la seule analyse des fichiers journaux. Idéalement le tracking des étiquettes devrait être implanté sur le même serveur où se situe le site Web, ce qui est rarement le cas.

Cybermétrie idéale

La cybermétrie idéale combine les deux solutions ci-haut et même avec deux systèmes d'étiquetage différents et une solution d'analyse des fichiers journaux.

Technorati Tags: , , , , ,

19 mai 2006

Interview Vidéo

Petite interview que j'ai donné au collègue Philippe Martin co-réalisé par l'ami Aubry et sa nouvelle entreprise Économie Logique Communication. Bravo les mecs, rendu très professionnel et expérience agréable en quelques 15 minutes ! Encore chapeau !


Eric Baillargeon-Intercommunication
Vidéo envoyée par pmartin

18 mai 2006

MCeTech 2006

Aujourd'hui petite sortie pour aller voir une présentation de l'ami Michel Leblanc d'Analyweb à la conférence montréalaise sur les Technologies de l’Internet à l'hotel Godin où ce tient jusqu'à demain encore le MCeTech2006 - Montreal Conference on e-technologies. Je crois que l'audience a bien aimé la vulgarisation et la démystification de l'optimisation Web fait par Michel, et cette petite photo en fait foi.



Technorati Tags: , ,

15 mai 2006

Skype va faire enrager les Telco

Skype annonce aujourd'hui la gratuité des appels de PC à téléphone filaire ou cellulaire, partout* au Canada et aux États-Unis.

*M'enfin presque partout, car plusieurs FAI (Fournisseurs d'Accès Internet) comme le mien, ne semble pas reconnus par Skype qui doit vérifier les adresses IP géographiques avant d'établir la communication ;-(

Technorati Tags: , ,