I had a very long conversation about the permissions issue with Margaret Boribon, secretary general of Copiepresse, to try and better understand how they wanted Google to operate. Why not use commonly understood and effective mechanisms such as robots.txt files or meta robots tags to prevent indexing?
"If you do so, you admit that Google does what they want, and if you don't agree, you have to contact them. This is not the legal framework of copyright," Boribon said.
This is an age old issue in the search engine world. By default, search engines assume that permission is granted to index a document, in order to make it searchable. Technically, shouldn't they get explicit permission? Legally, that might make things safer. Logistically, it would never work. Many sites don't have clear contact details. Some domains themselves contain multiple sites. Moreover, there are millions of sites across the web. Contacting them all beforehand simply wouldn't work well.
I asked Boribon about this, how her group would propose search engines undertake such a task.
"I'm sure they can find a very easy system to send an email or a document to alert the site and ask for permission or maybe a system of opt-in or opt-out," she said.
Would it be OK for such a system to work automatically, I asked? Yes, that would be fine. A machine-to-machine connection would be OK, she said. So then, I asked, why not use the existing robots.txt or meta robots systems?
Both mechanisms are easy, automatic ways for publishers to declare if they grant indexing permission or not. In fact, I'd argue that both are a way for search engines to ask beforehand for the very permission that Copiepresse wants them to seek. Major search engines -- not just Google -- all request or check these blocking mechanisms.
Boribon rejected the existing solutions. One issue she had was that they weren't legally endorsed. That's true, but that's also something I think will change over time. In the US, we've had one case recently where opt-out solutions like tags have been accepted.
Je ne peux pas croire que des médias n'essais pas de trouver des solutions originales (sans passer par la voix des tribunaux) face au fait que les moteurs de recherches profitent à tous le monde et sont essentiels à notre patrimoine culturel et informationels mondial.
J'étais déjà estomaquer à l'époque ou en 2001-2002 d'apprendre que l'IAB ne reconnaissait pas le téléchargement de PDF de journaux et de leurs publicités comme étant de la copie distribué*.
Merde, réveillez-vous.
Une des nombreuses solutions facilement applicables des deux cotés pour la libre circulation:
Vous obligez Google news a publier aussi l'annonce de votre régie publicitaire provenant de votre section Monde de 100 x 200 pixels pour un résumé de 100 mots. Ou encore 200 x 600 pixels pour 400 mots ? Google l'aspire comme votre résumé et votre "tracker" assure la page vue et aussi le "click thru". Techniquement compliquer ? Vraiment pas !
Votre annonceur est uniquement local ? Vous passer une entente avec Google News de votre pays uniquement pour une entente similaire avec plus ou mois "d'exposure" publicitaire et partage des revenus.
*Et dire que maintenant la plupart des journaux des grands médias vous donnent des copies gratuites à tour de bras dans n'importe quels évènements et même dans les ventes trottoir de Montréal pour ne pas voir leur nombre de copies décroitre et se faire baisser leur cotes !
Technorati Tags: copiepresse, google, belgique, medias, libre+circulation
Aucun commentaire:
Publier un commentaire