Electronx's Blog


L’information au futur II
5 janvier 2009, 6 h 44 min
Filed under: Infostratégie, Libertés | Mots-clefs: , , , , , , ,

–>L’information au futur I
https://i2.wp.com/www.webserviteur.com/Design3/Photos/Indexation.jpg
Rappelons d’abord quelques fondamentaux

Qu’est-ce qu’informer  ? Étymologiquement « mettre en forme »  : donner cohérence et lisibilité à des éléments qui prennent sens pour quelqu’un. Donc faire savoir que…, rendre compréhensible. En ce sens, nous n’arrêtons pas d’informer  : nous émettons une multitude de signaux, y compris par notre corps depuis notre tenue vestimentaire jusqu’à notre sourire ou nos poches sous les yeux. Et même notre mutisme et notre refus de nous exprimer peuvent précisément avoir pour sens que nous refusons la communication. Donc ils informent.

Informer a donc une multiplicité de dimensions  : expression d’un état ou relation de faits ou  opinions, simple enregistrement d’un aspect de la réalité ou acte de volonté destiné notamment à changer le comportement d’autrui, information/action, information/suggestion, proclamation, …

Pour notre part nous avons souvent décrit le processus d’information délibérée et organisée (celui qui nous intéresse ici) comme une triple lutte  :

– contre le temps  : survivre à l’effacement et à l’oubli (en organisant, d’ailleurs l’effacement et l’oubli de ce qui est inutile ou insignifiant), perdurer, transmettre

– contre la distance  : atteindre, toucher ses destinataires, communiquer

– contre d’autres informations concurrentes  : propager, retenir l’attention, convaincre…

Quand nous parlons d’un média spécifique, comme le cinéma ou la télévision, nous songeons à des  phénomènes dont le résultat est que le contenu du cerveau de A est passé plus ou moins bien dans celui de B, C et ainsi de suite. Un média demande  :

  • un support destiné à enregistrer les signaux
  • des dispositifs de reproduction et de transport
  • des codes qui associent un sens à un signal mais aussi les codes culturels
  • des modes de traitement, l’ensemble des opérations qu’effectuent des acteurs munis d’instrument pour faire du fameux contenu du cerveau de A en messages que recevront ses destinataires

Si l’on remonte en amont, un média suppose des institutions, des groupes qui régissent son fonctionnement, des professions, des financements…

En aval : des auditeurs, lecteurs ou spectateurs qui se rassemblent dans des salles ou restent chez eux. Tel sens (ouïe vue) prédomine, tel instrument de réception est nécessaire, telle capacité d’interprétation apprise (alphabétisme, culture cinématographique, conventions culturelles)… Ils suivent le message de bout en bout comme au spectacle, ou dans l’ordre qu’ils veulent,  peuvent le modifier, y répliquer…

Chacune de ces composantes varie suivant les époques et la technologie et chacune induit un certain rapport de Lire la suite



Le marché du livre comme algorithme (suite …)
1 décembre 2008, 12 h 49 min
Filed under: Culture, internet | Mots-clefs: , , , ,

Le marché du livre comme algorithme (suite …)

Suite du billet de l’autre jour. Je m’étais arrêté à la page 7 du document mis en ligne par l’ARL (.pdf). Les 13 pages restantes concernent le « volet bibliothèques » de l’accord passé par Google avec les éditeurs. On y apprend que :

  • Google délivrera un PAS (Public Access Service) gratuit à toutes les « bibliothèques publiques » (nous verrons ci-après que la dénomination a son importance …) qui en feront la demande. A partir de là il sera possible de consulter le texte intégral des ouvrages de la zone grise depuis les postes informatiques de ladite bibliothèque.
  • Avec ce PAS, si vous voulez imprimer des pages, on Google vous demandera une somme « raisonnable » (sic) : « A user can print pages of material viewed on the PAS terminal for a “reasonable” per-page fee« 
  • Pour déterminer ce qu’est une « bibliothèque publique », et pour le secteur de l’enseignement supérieur, Google se base sur la classification Carnegie. Si vous ne correspondez pas aux critères de ladite classification, Google pourra vous offrir 1 PAS pour l’équivalent de 10 000 étudiants. Si vous êtes dans les critères de ladite classification, ce sera 1 PAS pour 4000 étudiants. Et si vous en voulez plus ? « Google (…) can agree to expand the PAS service by making additional terminals available for free or an annual fee, but the settlement provides no further details on the terms for this expansion. » Donc ce sera possible. Et ce sera gratuit. Ou pas. Ca dépendra. Ce sera du cas par cas. Qui à dit « diviser pour mieux régner ? ». Bref, faudra négocier avec Google.

Bilan ? C’est un PAS de plus vers un pas de trop. Je connais un certain nombre de marchands du temple de l’édition scientifique qui vont ressentir comme un léger malaise à voir l’ombre du géant de Mountain View venir s’étendre inexorablement sur leur pré carré. Car après la PAS, vient l’ISD (Institutionnal Subscription Database). Et oui.

  • l’ISD c’est le fait que chaque institution va pourvoir acheter, toujours pour les mêmes oeuvres de la zone grise, un abonnement institutionnel pour offrir l’accès à l’ensemble de ces textes à l’ensemble de ses usagers. C’est à dire le principe même des bouquets numériques que contractent actuellement les bibliothèques (universitaires notamment) avec les grands éditeurs scientifiques. Cet accès aura naturellement une durée limitée et devra être périodiquement renouvelé.
  • OK mais combien ça va coûter ces abonnements ? Et bien, là encore, c’est Google et lui seul qui va algorithmiquement fixer le prix. Enfin pas tout à fait. C’est Google et le Book Rights Registry (BRR), c’est à dire le fameux registre d’enregistrement des oeuvres encore sous droits. Sauf qu’en l’état, il faut rappeler que c’est Google qui crée et finance seul ledit BRR et que l’on ne sait rien de ce que sera sa composition … Et donc, les critères pour déterminer le prix d’un abonnement institutionnel sont : « the pricing of similar products and services available from third parties; the scope of the books available in the ISD; the quality of the scan (sic …); and the features offered as part of subscription. » Plus loin on apprend également que le prix : « will be based on the number of full-time equivalent (FTE) users. For higher education institutions, FTE means full-time equivalent students.« 

Moralité : c’est ce que l’on appelle vérouiller ses positions. Phase 1 : google crée le marché. Phase 2 : Google prend le marché. Phase 3 : Google en fixe les règles. Phase 4 : Google n’a plus qu’à ramasser les copies les contrats … Parce que dans toute cette histoire, vous n’avez pas oublié qu’au départ il y avait le projet Google Books … un projet dans lequel des bibliothèques confiaient à Google des ouvrages dont certains font partie de la fameuse zone grise. Et c’est là que commence la lecture des dernières pages du document de l’ARL. Dans le prochain billet, je vous raconterai comment Google va réaliser le coup du chapeau. C’est à dire faire finalement payer aux bibliothèques l’accès aux ouvrages de leur fonds propre.
A suivre 🙂

Le marché du livre comme algorithme.

=======================================================================

Nota-Bene : je déroge à la ligne éditoriale (floue) de ce blog qui veut que je ne publie habituellement le vendredi que mes « petits liens du week-end », réservant le dimanche soir à la publication de billets plus fouillés. Mais en l’occurence, le document analysé dans ce billet vaut la peine que vous passiez une partie de votre Week-end à y réfléchir – enfin si vous avez rien de mieux à faire bien sûr – tant les enjeux sont considérables pour le monde et le marché du livre. Fin du teasing, on peut y aller 🙂

=======================================================================

Le très récent accord historique passé par Google avec les éditeurs américains continue de faire causer sur la toile et ne laisse personne indifférent. Prosper nous signale que les mêmes éditeurs ont mis en ligne un document à destination des bibliothèques pour « expliquer » les tenants et aboutissements dudit accord : « A Guide for the Perplexed : Libraries and the Google Library Project Settlement ». Ce qu’on apprend dans le document pdf mis en ligne est réellement hallucinant tant cela témoigne de la candeur avec laquelle les éditeurs ont de facto délégué à Google la capacité de faire du marché du livre, « son » marché du livre. Petite explication et extraits …

Avec tout d’abord les nouvelles règles du jeu :

  • pour les ouvrages libres de droits, rien ne change (=Google affiche le texte intégral et permet de le télécharger) ;
  • pour les ouvrages sous droits mais qui ne sont plus dans le circuit commercial, Google pourra afficher jusqu’à 20% du texte, pas plus de 5 pages consécutives, et pas plus de 4 pages qui se suivent quand on fait une recherche par mot-clé à l’intérieur de l’ouvrage, et pour les oeuvres de fiction de cette même catégorie, Google ne pourrait afficher que 5% des pages et pas plus de 15 pages se suivant et jamais les dernières pages de l’ouvrage, et pour les oeuvres – toujours de la même catégorie – du genre « poésie, nouvelles, dictionnaires, encyclopédies, recueils de citations (…) »  c’est une « fixed preview » qui sera mise en place pour – au maximum – 10% de l’ouvrage, y compris dans le cadre d’une recherche par mot-clé sur les contenus de l’ouvrage.
  • pour les ouvrages sous droits et dans le circuit commercial : la règle « par défaut » est que Google n’affichera plus « que » l’information bibliographique, la page de titre, la quatrième de couverture, la table des matières et le ou les index. Terminé l’affichage de « snippets », sauf … sauf si l’ayant droit (ou son représentant, c’est à dire l’éditeur) l’autorise. Et l’on peut raisonnablement penser que les éditeurs autoriseront cet affichage de « snippets », ne serait-ce que parce que ce feuilletage électronique est un préalable souvent indispensable à l’acte d’achat. Pour cette même catégorie d’ouvrages, s’ensuit également une liste de cas particuliers (que je n’ai pas le temps de traduire) mais qui, en gros, laissent tout de même supposer qu’au final, on continuera de pouvoir consulter des extraits des oeuvres de cette catégorie.

Et puis voici maintenant le « nouveau marché ». Un nouveau marché qui confirme ce que je vous annonce depuis bientôt deux ans, c’est à dire que l’investissement de Google dans la numérisation est tout sauf une entreprise philanthropique ou un investissement à perte. Bien au contraire, la coût de la numérisation d’ouvrages libres de droits était simplement le prix du ticket d’entrée sur le marché – colossal – de la vente des ouvrages de la « zone grise ». Un ticket d’entrée au prix d’autant plus faible que sur ce nouveau marché, c’est désormais Google qui est seul à fixer les règles. Toutes les règles. La nouveauté donc, c’est l’acte de naissance officiel des « fee-based services » :

  • « Users will be able to purchase online access to the full text of in-copyright, not commercially available books through an account established with Google. » Nous sommes donc bien d’accords : Google devient officiellement libraire (l’accord l’ayant déjà institué éditeur puisqu’il sera seul à créer, gérer et maintenir la base dans laquelle viendront s’enregistrer et se déclarer les ayants droits potentiels des oeuvres de la zone grise). Le terrain étant ainsi déblayé, « y’ plus qu’à » … fixer les règles de ce nouveau marché.
  • Deux possibilités : soit les ayants droits identifiés et reconnus fixent leur prix, soit … c’est Google qui le fixe algorithmiquement. « Google will set the price for all books not priced by the rightsholders based on a pricing algorithm designed to find the optimal price for each book to maximize the revenue for the rightsholder. Initially, books will be distributed in pricing “bins” in the following percentages: 5% of the books available for purchase will priced at $1.99; 10% at $2.99; 13% at $3.99; 13% at $4.99; 10% at $5.99; 8% at $6.99; 6% at $7.99; 5% at $8.99; 11% at $9.99; 8% at $14.99; 6% at $19.99; and 5% at $29.99. The algorithm will place a book in a pricing bin based on aggregate data collected with respect to similar books. Google can change the price of a book in response to sales data. Google also can change the distribution of books in the pricing bins
    over time as the prices of individual books are adjusted based on the pricing algorithm.
     » Je vous fait un dessin ? A la manière dont Apple avait fixé seul le prix du morceau de musique via sa plateforme Itunes, Google vient de fixer, seul, le prix de vente à la découpe des ouvrages de la zone grise. En gros donc, il y aura 12 tranches de prix, de 1;99 $ à 29;99 $. En gros toujours, ce prix sera fixé sur des critères auxquels seul Google a accès (« a pricing bin based on aggregate data collected with respect to similar books »). En gros toujours, Google se réserve le droit d’augmenter le prix d’un ouvrage (= de le faire changer de tranche de prix) en fonction des chiffres de vente (« sales data« ), chiffres de vente dont il sera seul à disposer.

Et voici enfin l’ultime escroquerie : le modèle de l’a-llocation. Mékeskidi ? Cette escroquerie concerne l’acte d’achat. Et bien il n’y en aura pas. Ou plutôt si. On pourra théoriquement « acheter » ces ouvrages de la zone grise. Mais on ne fera pratiquement qu’acheter un droit d’accès (très partiel cf ci-dessous) à ces ouvrages sur les serveurs de Google. Donc une location. Etant donné la puissance de frappe de Google et l’ampleur du marché ici concerné, c’est l’acte de naissance officiel d’un nouveau mode commercial : on ne pouvait jusqu’ici qu’acheter ou louer des produits quels qu’ils soient. On peut désormais effectuer des locations déguisées en achat. Pour célébrer cette naissance il faut un nouveau terme. Je propose celui « d’a-llocation. » (« a » pour « acheter » et « location » pour … location). Concrètement, voici ce qu’on peut lire dans le même document (.pdf) :

  • « After purchasing the book, the user will have perpetual online access to view the entire book from any computer. » Retenez bien cette phrase là. C’est un modèle du genre. Traduite littéralement elle signifie : « Après avoir acheté le livre, l’utilisateur aura un accès en ligne perpétuel à sa totalité depuis n’importe quel ordinateur. » Traduisez : on pourra donc acheter un truc qu’on ne pourra lire que sur Google via son compte Google. C’est ça la conception du « perpetual online access » selon Google.
  • « The user will be able to copy and paste up to four pages of the purchased book with a single command, but, with multiple commands, can copy and paste the entire book. » On ne pourra donc disposer d’une vraie copie numérique correspondant à son acte d’achat QUE SI on fait du copier-coller. Et par défaut, on ne pourra copier-coller QUE  … 4 pages.
  • « The user will be able to print up to twenty pages of the purchased book with a single print command, but, with multiple commands, can print out the entire book. Google will place a watermark on printed pages with encrypted identifying information that identifies the authorized user that printed the material. » On ne pourra donc imprimer – par défaut toujours – que 20 pages. Et en plus on sera « pisté » (grâce aux techniques de marquage = « watermarks ») au cas où il nous viendrait l’idée saugrenue d’imprimer plus de 20 pages d’un livre que l’on vient pourtant « d’acheter ».
  • « The user will be able to make book annotations of the purchased book. A book annotation is user-generated text that is displayed on any Web page on which a page of a book appears. The user can share his annotations with up to 25 other individuals who have purchased the book through this service and who have been designated by the user. » On pourra annoter le livre qu’on vient d’acheter, mais on ne pourrra là encore le faire que « sur » Google, et on ne pourra partager lesdites annotations que « sur » Google et avec 25 autres pigeons qui auront comme nous eu « l’impression » d’acheter ledit bouquin et que nous aurons nommément désignés (pour qu’ils puissent être à leur tour pistés et que Google puisse vérifier, via leur compte, qu’ils ont effectivement achetés l’ouvrage en question).
  • « A user who purchases a book will not see an insert if the insert’s rightsholder chooses to exclude displays of the insert. In this situation, a purchaser (or an institutional subscriber, described below) will not have access to the complete book as published. » Livre à la découpe donc. En plus de se faire pigeonner avec un acte d’achat qui n’en est pas un, en plus de se faire pister, on pourra ne pas accéder à certains passages du livre, si l’ayant droit a décidé d’extraire certains passages.

Conclusion ? Ce qui se met en place avec cet accord est passionnant ET révolutionnaire ET (de mon point de vue) scandaleux pour UNE raison : c’est la naissance de la littérature comme algorithmie. Plus précisément, c’est la soumission de la littérature du marché du livre à une nouvelle matrice calculatoire préemptée par Google avec l’assentiment des gardiens du temple, à savoir les éditeurs. Plus précisément encore c’est – à ma connaissance – la première fois qu’un algorithme informatique (dans toute son opacité) préside à la naissance d’un marché et en devient simultanément le seul régulateur.

De la candeur (relative) des éditeurs. Les éditeurs ont ici obtenu une victoire tactique, mais en rien stratégique. Ils ont obtenu que Google n’affiche plus « par défaut » des extraits des ouvrages en vente. La belle affaire. Ils ont oublié que le coeur du procès n’était pas l’affichage des extraits, mais la simple possibilité offerte à Google de numériser TOUS les contenus et de les tenir à sa disposition « pour le jour où … » Alors oui, candide les éditeurs. Alors oui, dommage les auteurs qui ont laissé cette bataille leur échapper en déléguant pour l’essentiel leur représentativité aux même éditeurs. Mais non, les éditeurs n’ont pas tous les torts. Leur approche est conditionnée par les « règles du marché ». Et ces règles du marché les obligent à maintenir à flot la rentabilité de leur boutique. Donc même s’ils disposent d’une vision stratégique à moyen ou long terme, ils n’ont d’autre choix que d’effectuer des choix tactiques à court terme. Ils auraient – pour préférer la stratégie à la tactique – ils auraient disais-je, eu besoin que les autres acteurs (états et institutions notamment) se mobilisent différemment (= mettent de l’argent) et surtout davantage autour de ce projet qui nous concerne tous.

Remarque annexe : ce qui est très fort dans cette approche, c’est qu’en plus de créer un marché qui n’existait pas, en plus de s’en arroger l’exclusivité, et en plus d’en fixer les règles, Google ne va fâcher aucun « concurrent », traduisez, il n’empiète pas sur les plate-bandes d’Amazon ou des autres grossistes suffisamment présents en termes de part de marché, et si un jour ces derniers décidaient de vouloir entrer à leur tour sur le marché créé et contrôlé par Google, ils n’auraient d’autre solution de de se soumettre aux règles fixées … par le même Google.

Sur le même sujet ou presque (l’impact de l’accord passé par Google avec les éditeurs), précipitez-vous sur la lecture de cet article de l’EFF dont j’extrais le passage suivant :

  • « If approved by the court, the $125 million settlement would buy Google — and only Google — permission not just to scan books for indexing purposes, but also to expand Book Search to provide more access to the scanned books. (…) By settling rather than taking the case all the way (many copyright experts thought Google had a good chance of winning), Google has solved its own copyright problem — but not anyone else’s. Without a legal precedent about the copyright status of book scanning, future innovators are left to defend their own copyright lawsuits. In essence, Google has left its former copyright adversaries to maul any competitors that want to follow its lead. » Conclusion : « Those kinds of cases threaten to yield bad legal precedents that tilt the rules against disruptive innovation generally. » Voir également le commentaire ce cet article sur IP-Watch.

Re-conclusion : ça y est. C’est fait. A compter du jour de la publication de ce document (.pdf), Google est éditeur et libraire. Certes il est pour l’instant uniquement éditeur et libraire des oeuvres de la zone grise. Mas avec un droit d’exclusivité qui laisse clairement entrevoir à quel point il serait aujourd’hui aberrant de considérer qu’il en restera là et s’interdira de grignoter progressivement les « autres » marchés du livre.

Source : affordance



Emmanuel Todd «Le protectionnisme n’est pas une idée du passé»


Par Michel Audétat

«Après la démocratie». Démographe et sociologue, il publie un nouvel essai qui défend l’idée de protéger l’économie européenne contre le libre-échange.
Emmanuel Todd est énervant. Il a eu raison très tôt en prédisant la décomposition du système soviétique (La chute finale, 1996 [1976! Correction de Bertrand]). Il a eu raison plus récemment en analysant l’incapacité militaire et la fragilité économique des Etats-Unis (Après l’empire, 2002). Aura-t-il encore raison avec son nouvel essai, Après la démocratie, qui oppose le libre-échange à la survie de nos régimes démocratiques?
Emmanuel Todd n’a pas fini d’énerver avec ce livre urticant, mais aussi décapant et stimulant, qui s’inscrit à la fois dans l’histoire longue et l’actualité la plus vive en plaidant la cause d’un protectionnisme européen.

Jusqu’ici l’idée protectionniste se retrouvait plutôt aux extrêmes, chez les communistes ou au Front national. On peut la purifier des idéologies qu’elle traîne derrière elle?
Mon concept est international. Je ne parle jamais de protectionnisme en l’air, mais toujours de protectionnisme européen. Pour une économie comme celle de la France, le protectionnisme national n’a aucun sens. Oui, je pense qu’il faut employer ce mot sans en avoir peur. Mais, avec le mot «européen», il permet de faire comprendre qu’il ne s’agit pas d’un retour au passé.

Si ce désir de protection correspond à l’intérêt de presque tous, comme vous le pensez, qu’est-ce qui l’empêche de se traduire en actes?
La plus importante des résistances à l’idée de protectionnisme ne provient pas des économistes et des absurdités qu’ils professent, mais de la profonde incapacité à penser collectif dans les classes supérieures. Le phénomène s’explique par des raisons culturelles et sociologiques que j’analyse dans mon livre quand je Lire la suite



Environnement – La révolution de la voiture
24 novembre 2008, 12 h 15 min
Filed under: Infos | Mots-clefs: , , , , , , , ,

Une revue critique en profondeur des technologies de motorisation et des filières énergétiques

Avec Rouler sans pétrole, qui vient de paraître aux Éditions MultiMondes, le physicien Pierre Langlois déchire le rideau de la méconnaissance pour faire apparaître un fait troublant: la révolution de la voiture électrique est déjà un fait technologique accompli.

Et ce n’est pas le marché qui ne suit pas, car les consommateurs réclament déjà des voitures moins énergivores. La réalité est beaucoup plus sinistre: la transition vers des véhicules moins énergivore est d’abord bloquée par des constructeurs automobiles qui ne veulent pas perdre le marché lucratif des pièces de rechange, lequel disparaîtrait en grande partie avec des véhicules nécessitant pratiquement aucun entretien, et qui verraient la longévité des véhicules augmenter considérablement.

À lire ce livre, troublant à plusieurs égards, on en vient presque à souhaiter que les grands constructeurs actuels passent l’arme à gauche durant crise économique actuelle afin de laisser la place à de plus Lire la suite