Electronx's Blog


eBook : Un prototype d’écran couleur AMOLED de 4 » flexible
8 janvier 2009, 7 h 15 min
Filed under: Culture, science, Tech | Mots-clefs: , , ,

Ou quand l’armée développe des solutions futures de lecture.

C’est au cours du CES de Las Vegas qui se déroulera du 8 au 11 janvier que la société Universal Display Corporation présentera son nouveau gadget high-tech : le poignet (si, si, c’est le nom utilisé…).

Flexible et basé sur une technologie AMOLED pour Active Matrix Organic Light-Emitting Diode, le dispositif associe l’économie d’énergie permise par les diodes électroluminescentes à un affichage extrêmement précis, ainsi qu’un large champ de vision.

Outre des applications militaires, comme le démontre l’image, de nombreuses autres possibilités sont envisagées pour le grand public. Un excellent aperçu de ce que pourrait être la lecture sur support numérique, estime la société.

Basé sur un modèle de 4″, il a été initialement développé pour un usage militaire, dans le cadre d’un programme Lire la suite

Publicités


Les acides gras TRANS et la santé.
23 décembre 2008, 20 h 41 min
Filed under: Infos, science | Mots-clefs: ,

Après les fêtes de fin d’année, et leur lot d’excès gastronomiques, les bonnes résolutions que nous n’avons pas manquer de prendre pour 2008 se mettent en place.
Je vous propose d’en ajouter une qui devrait se révéler très bonne pour votre santé, en tout cas selon les études qui ont été menées et les recommandations qui sont faites par les organismes de santé publique.

Bannir de notre alimentation, autant que possible, une classe d’acides gras, appelée, dans le jargon scientifique, « TRANS ».

Ces acides gras « trans », qui sont peu présents naturellement dans l’alimentation, sont le résultat de l’hydrogénation des acides gras polyinsaturés par l’industrie agroalimentaire, dont l’objectif est à la fois de désodoriser les huiles, et de les rendre plus solides, en augmentant leur température de fusion. Ainsi, ces huiles rancissent moins vite et apportent un moelleux incomparable aux aliments dans lesquels elles sont ajoutées.

cake

Meilleure conservation, goût plus subtil, texture plus agréable, tout serait parfait dans le meilleur des mondes industriels si les acides gras « trans » n’étaient pas nocifs pour la santé.
En effet, selon l’Agence française de sécurité sanitaire des aliments et de nombreuses études menées aux Etats-Unis, ces matières grasses seraient responsables à la fois d’une augmentation du taux de mauvais cholestérol Lire la suite



Konrad Lorenz
2 décembre 2008, 13 h 35 min
Filed under: Culture, ethologie, science | Mots-clefs: , , , , ,

Konrad Lorenz

Éthologiste autrichien.

Konrad Lorenz aura été l’un des savants les plus aimés de son siècle. Parce qu’il savait parler aux gens comme il savait parler avec les mammifères, les oiseaux et les poissons, (c’est le titre de l’un de ses livres les plus célèbres). Parce qu’à la fin de sa vie, il a complété les observations et les analyses du savant par les réflexions d’un sage, mais peut-être, avant tout, parce qu’on le représentait toujours en pleine nature, penché sur une nichée d’oies sauvages ou jouant avec des choucas. Le public ne pouvait qu’être rassuré par cette image d’un grand biologiste si manifestement intéressé par les manifestations concrètes de la vie.

Dans la vie d’un tel chercheur, la science est une présence amicale et, inversement, les petits gestes de l’existence quotidienne ont une coloration qui les rattache au monde de la science. Lorenz arrivait souvent avec quelques minutes de retard à ses cours de l’Institut Max Planck. Ce trajet, qu’il faisait à pied bien sûr, était un sentier de la vie. Tel matin il prolongeait sa conversation avec la boulangère, tel autre matin son attention était retenue par un écureuil. Route sinueuse! Les êtres vivants ignorent la ligne droite. Il n’y a qu’à voir la forme des raccourcis que les gens adoptent spontanément dans les parcs.

Ayant étudié la carte de la ville de Munich, les étudiants de Lorenz proposèrent au maître un trajet plus rationnel, comportant moins de points de vie. Lorenz respecta l’horaire, mais ce fut pour son malheur et celui des étudiants: il devint de plus en plus maussade jusqu’à ce qu’il revienne à son premier trajet. Il venait de vivre ce qu’il avait si souvent observé chez ses oies.
Lorenz s’est beaucoup intéressé aux comportements sociaux des animaux, aux rites plus particulièrement. Il a ainsi appris que l’oie sauvage, son animal préféré, peut tomber en dépression si on modifie une seule de ses habitudes, fût-elle insignifiante et inutile en apparence. Quand les rites ont une signification manifeste pour l’individu et une grande importance pour l’espèce, en être privé est pour l’oie une mort avant la mort.

Ainsi en est-il des rites d’accouplement chez les oiseaux et en particulier chez les oies, dont la fidélité en amour est exemplaire. Une oie cendrée privée de cérémonial tombe en dépression.

Respecter des rites, n’est-ce pas essentiel aussi chez les humains? N’est-ce pas le signe distinctif des civilisations et des institutions vivantes? Que devient la conversation sans les Lire la suite



Le marché du livre comme algorithme (suite …)
1 décembre 2008, 12 h 49 min
Filed under: Culture, internet | Mots-clefs: , , , ,

Le marché du livre comme algorithme (suite …)

Suite du billet de l’autre jour. Je m’étais arrêté à la page 7 du document mis en ligne par l’ARL (.pdf). Les 13 pages restantes concernent le « volet bibliothèques » de l’accord passé par Google avec les éditeurs. On y apprend que :

  • Google délivrera un PAS (Public Access Service) gratuit à toutes les « bibliothèques publiques » (nous verrons ci-après que la dénomination a son importance …) qui en feront la demande. A partir de là il sera possible de consulter le texte intégral des ouvrages de la zone grise depuis les postes informatiques de ladite bibliothèque.
  • Avec ce PAS, si vous voulez imprimer des pages, on Google vous demandera une somme « raisonnable » (sic) : « A user can print pages of material viewed on the PAS terminal for a “reasonable” per-page fee« 
  • Pour déterminer ce qu’est une « bibliothèque publique », et pour le secteur de l’enseignement supérieur, Google se base sur la classification Carnegie. Si vous ne correspondez pas aux critères de ladite classification, Google pourra vous offrir 1 PAS pour l’équivalent de 10 000 étudiants. Si vous êtes dans les critères de ladite classification, ce sera 1 PAS pour 4000 étudiants. Et si vous en voulez plus ? « Google (…) can agree to expand the PAS service by making additional terminals available for free or an annual fee, but the settlement provides no further details on the terms for this expansion. » Donc ce sera possible. Et ce sera gratuit. Ou pas. Ca dépendra. Ce sera du cas par cas. Qui à dit « diviser pour mieux régner ? ». Bref, faudra négocier avec Google.

Bilan ? C’est un PAS de plus vers un pas de trop. Je connais un certain nombre de marchands du temple de l’édition scientifique qui vont ressentir comme un léger malaise à voir l’ombre du géant de Mountain View venir s’étendre inexorablement sur leur pré carré. Car après la PAS, vient l’ISD (Institutionnal Subscription Database). Et oui.

  • l’ISD c’est le fait que chaque institution va pourvoir acheter, toujours pour les mêmes oeuvres de la zone grise, un abonnement institutionnel pour offrir l’accès à l’ensemble de ces textes à l’ensemble de ses usagers. C’est à dire le principe même des bouquets numériques que contractent actuellement les bibliothèques (universitaires notamment) avec les grands éditeurs scientifiques. Cet accès aura naturellement une durée limitée et devra être périodiquement renouvelé.
  • OK mais combien ça va coûter ces abonnements ? Et bien, là encore, c’est Google et lui seul qui va algorithmiquement fixer le prix. Enfin pas tout à fait. C’est Google et le Book Rights Registry (BRR), c’est à dire le fameux registre d’enregistrement des oeuvres encore sous droits. Sauf qu’en l’état, il faut rappeler que c’est Google qui crée et finance seul ledit BRR et que l’on ne sait rien de ce que sera sa composition … Et donc, les critères pour déterminer le prix d’un abonnement institutionnel sont : « the pricing of similar products and services available from third parties; the scope of the books available in the ISD; the quality of the scan (sic …); and the features offered as part of subscription. » Plus loin on apprend également que le prix : « will be based on the number of full-time equivalent (FTE) users. For higher education institutions, FTE means full-time equivalent students.« 

Moralité : c’est ce que l’on appelle vérouiller ses positions. Phase 1 : google crée le marché. Phase 2 : Google prend le marché. Phase 3 : Google en fixe les règles. Phase 4 : Google n’a plus qu’à ramasser les copies les contrats … Parce que dans toute cette histoire, vous n’avez pas oublié qu’au départ il y avait le projet Google Books … un projet dans lequel des bibliothèques confiaient à Google des ouvrages dont certains font partie de la fameuse zone grise. Et c’est là que commence la lecture des dernières pages du document de l’ARL. Dans le prochain billet, je vous raconterai comment Google va réaliser le coup du chapeau. C’est à dire faire finalement payer aux bibliothèques l’accès aux ouvrages de leur fonds propre.
A suivre 🙂

Le marché du livre comme algorithme.

=======================================================================

Nota-Bene : je déroge à la ligne éditoriale (floue) de ce blog qui veut que je ne publie habituellement le vendredi que mes « petits liens du week-end », réservant le dimanche soir à la publication de billets plus fouillés. Mais en l’occurence, le document analysé dans ce billet vaut la peine que vous passiez une partie de votre Week-end à y réfléchir – enfin si vous avez rien de mieux à faire bien sûr – tant les enjeux sont considérables pour le monde et le marché du livre. Fin du teasing, on peut y aller 🙂

=======================================================================

Le très récent accord historique passé par Google avec les éditeurs américains continue de faire causer sur la toile et ne laisse personne indifférent. Prosper nous signale que les mêmes éditeurs ont mis en ligne un document à destination des bibliothèques pour « expliquer » les tenants et aboutissements dudit accord : « A Guide for the Perplexed : Libraries and the Google Library Project Settlement ». Ce qu’on apprend dans le document pdf mis en ligne est réellement hallucinant tant cela témoigne de la candeur avec laquelle les éditeurs ont de facto délégué à Google la capacité de faire du marché du livre, « son » marché du livre. Petite explication et extraits …

Avec tout d’abord les nouvelles règles du jeu :

  • pour les ouvrages libres de droits, rien ne change (=Google affiche le texte intégral et permet de le télécharger) ;
  • pour les ouvrages sous droits mais qui ne sont plus dans le circuit commercial, Google pourra afficher jusqu’à 20% du texte, pas plus de 5 pages consécutives, et pas plus de 4 pages qui se suivent quand on fait une recherche par mot-clé à l’intérieur de l’ouvrage, et pour les oeuvres de fiction de cette même catégorie, Google ne pourrait afficher que 5% des pages et pas plus de 15 pages se suivant et jamais les dernières pages de l’ouvrage, et pour les oeuvres – toujours de la même catégorie – du genre « poésie, nouvelles, dictionnaires, encyclopédies, recueils de citations (…) »  c’est une « fixed preview » qui sera mise en place pour – au maximum – 10% de l’ouvrage, y compris dans le cadre d’une recherche par mot-clé sur les contenus de l’ouvrage.
  • pour les ouvrages sous droits et dans le circuit commercial : la règle « par défaut » est que Google n’affichera plus « que » l’information bibliographique, la page de titre, la quatrième de couverture, la table des matières et le ou les index. Terminé l’affichage de « snippets », sauf … sauf si l’ayant droit (ou son représentant, c’est à dire l’éditeur) l’autorise. Et l’on peut raisonnablement penser que les éditeurs autoriseront cet affichage de « snippets », ne serait-ce que parce que ce feuilletage électronique est un préalable souvent indispensable à l’acte d’achat. Pour cette même catégorie d’ouvrages, s’ensuit également une liste de cas particuliers (que je n’ai pas le temps de traduire) mais qui, en gros, laissent tout de même supposer qu’au final, on continuera de pouvoir consulter des extraits des oeuvres de cette catégorie.

Et puis voici maintenant le « nouveau marché ». Un nouveau marché qui confirme ce que je vous annonce depuis bientôt deux ans, c’est à dire que l’investissement de Google dans la numérisation est tout sauf une entreprise philanthropique ou un investissement à perte. Bien au contraire, la coût de la numérisation d’ouvrages libres de droits était simplement le prix du ticket d’entrée sur le marché – colossal – de la vente des ouvrages de la « zone grise ». Un ticket d’entrée au prix d’autant plus faible que sur ce nouveau marché, c’est désormais Google qui est seul à fixer les règles. Toutes les règles. La nouveauté donc, c’est l’acte de naissance officiel des « fee-based services » :

  • « Users will be able to purchase online access to the full text of in-copyright, not commercially available books through an account established with Google. » Nous sommes donc bien d’accords : Google devient officiellement libraire (l’accord l’ayant déjà institué éditeur puisqu’il sera seul à créer, gérer et maintenir la base dans laquelle viendront s’enregistrer et se déclarer les ayants droits potentiels des oeuvres de la zone grise). Le terrain étant ainsi déblayé, « y’ plus qu’à » … fixer les règles de ce nouveau marché.
  • Deux possibilités : soit les ayants droits identifiés et reconnus fixent leur prix, soit … c’est Google qui le fixe algorithmiquement. « Google will set the price for all books not priced by the rightsholders based on a pricing algorithm designed to find the optimal price for each book to maximize the revenue for the rightsholder. Initially, books will be distributed in pricing “bins” in the following percentages: 5% of the books available for purchase will priced at $1.99; 10% at $2.99; 13% at $3.99; 13% at $4.99; 10% at $5.99; 8% at $6.99; 6% at $7.99; 5% at $8.99; 11% at $9.99; 8% at $14.99; 6% at $19.99; and 5% at $29.99. The algorithm will place a book in a pricing bin based on aggregate data collected with respect to similar books. Google can change the price of a book in response to sales data. Google also can change the distribution of books in the pricing bins
    over time as the prices of individual books are adjusted based on the pricing algorithm.
     » Je vous fait un dessin ? A la manière dont Apple avait fixé seul le prix du morceau de musique via sa plateforme Itunes, Google vient de fixer, seul, le prix de vente à la découpe des ouvrages de la zone grise. En gros donc, il y aura 12 tranches de prix, de 1;99 $ à 29;99 $. En gros toujours, ce prix sera fixé sur des critères auxquels seul Google a accès (« a pricing bin based on aggregate data collected with respect to similar books »). En gros toujours, Google se réserve le droit d’augmenter le prix d’un ouvrage (= de le faire changer de tranche de prix) en fonction des chiffres de vente (« sales data« ), chiffres de vente dont il sera seul à disposer.

Et voici enfin l’ultime escroquerie : le modèle de l’a-llocation. Mékeskidi ? Cette escroquerie concerne l’acte d’achat. Et bien il n’y en aura pas. Ou plutôt si. On pourra théoriquement « acheter » ces ouvrages de la zone grise. Mais on ne fera pratiquement qu’acheter un droit d’accès (très partiel cf ci-dessous) à ces ouvrages sur les serveurs de Google. Donc une location. Etant donné la puissance de frappe de Google et l’ampleur du marché ici concerné, c’est l’acte de naissance officiel d’un nouveau mode commercial : on ne pouvait jusqu’ici qu’acheter ou louer des produits quels qu’ils soient. On peut désormais effectuer des locations déguisées en achat. Pour célébrer cette naissance il faut un nouveau terme. Je propose celui « d’a-llocation. » (« a » pour « acheter » et « location » pour … location). Concrètement, voici ce qu’on peut lire dans le même document (.pdf) :

  • « After purchasing the book, the user will have perpetual online access to view the entire book from any computer. » Retenez bien cette phrase là. C’est un modèle du genre. Traduite littéralement elle signifie : « Après avoir acheté le livre, l’utilisateur aura un accès en ligne perpétuel à sa totalité depuis n’importe quel ordinateur. » Traduisez : on pourra donc acheter un truc qu’on ne pourra lire que sur Google via son compte Google. C’est ça la conception du « perpetual online access » selon Google.
  • « The user will be able to copy and paste up to four pages of the purchased book with a single command, but, with multiple commands, can copy and paste the entire book. » On ne pourra donc disposer d’une vraie copie numérique correspondant à son acte d’achat QUE SI on fait du copier-coller. Et par défaut, on ne pourra copier-coller QUE  … 4 pages.
  • « The user will be able to print up to twenty pages of the purchased book with a single print command, but, with multiple commands, can print out the entire book. Google will place a watermark on printed pages with encrypted identifying information that identifies the authorized user that printed the material. » On ne pourra donc imprimer – par défaut toujours – que 20 pages. Et en plus on sera « pisté » (grâce aux techniques de marquage = « watermarks ») au cas où il nous viendrait l’idée saugrenue d’imprimer plus de 20 pages d’un livre que l’on vient pourtant « d’acheter ».
  • « The user will be able to make book annotations of the purchased book. A book annotation is user-generated text that is displayed on any Web page on which a page of a book appears. The user can share his annotations with up to 25 other individuals who have purchased the book through this service and who have been designated by the user. » On pourra annoter le livre qu’on vient d’acheter, mais on ne pourrra là encore le faire que « sur » Google, et on ne pourra partager lesdites annotations que « sur » Google et avec 25 autres pigeons qui auront comme nous eu « l’impression » d’acheter ledit bouquin et que nous aurons nommément désignés (pour qu’ils puissent être à leur tour pistés et que Google puisse vérifier, via leur compte, qu’ils ont effectivement achetés l’ouvrage en question).
  • « A user who purchases a book will not see an insert if the insert’s rightsholder chooses to exclude displays of the insert. In this situation, a purchaser (or an institutional subscriber, described below) will not have access to the complete book as published. » Livre à la découpe donc. En plus de se faire pigeonner avec un acte d’achat qui n’en est pas un, en plus de se faire pister, on pourra ne pas accéder à certains passages du livre, si l’ayant droit a décidé d’extraire certains passages.

Conclusion ? Ce qui se met en place avec cet accord est passionnant ET révolutionnaire ET (de mon point de vue) scandaleux pour UNE raison : c’est la naissance de la littérature comme algorithmie. Plus précisément, c’est la soumission de la littérature du marché du livre à une nouvelle matrice calculatoire préemptée par Google avec l’assentiment des gardiens du temple, à savoir les éditeurs. Plus précisément encore c’est – à ma connaissance – la première fois qu’un algorithme informatique (dans toute son opacité) préside à la naissance d’un marché et en devient simultanément le seul régulateur.

De la candeur (relative) des éditeurs. Les éditeurs ont ici obtenu une victoire tactique, mais en rien stratégique. Ils ont obtenu que Google n’affiche plus « par défaut » des extraits des ouvrages en vente. La belle affaire. Ils ont oublié que le coeur du procès n’était pas l’affichage des extraits, mais la simple possibilité offerte à Google de numériser TOUS les contenus et de les tenir à sa disposition « pour le jour où … » Alors oui, candide les éditeurs. Alors oui, dommage les auteurs qui ont laissé cette bataille leur échapper en déléguant pour l’essentiel leur représentativité aux même éditeurs. Mais non, les éditeurs n’ont pas tous les torts. Leur approche est conditionnée par les « règles du marché ». Et ces règles du marché les obligent à maintenir à flot la rentabilité de leur boutique. Donc même s’ils disposent d’une vision stratégique à moyen ou long terme, ils n’ont d’autre choix que d’effectuer des choix tactiques à court terme. Ils auraient – pour préférer la stratégie à la tactique – ils auraient disais-je, eu besoin que les autres acteurs (états et institutions notamment) se mobilisent différemment (= mettent de l’argent) et surtout davantage autour de ce projet qui nous concerne tous.

Remarque annexe : ce qui est très fort dans cette approche, c’est qu’en plus de créer un marché qui n’existait pas, en plus de s’en arroger l’exclusivité, et en plus d’en fixer les règles, Google ne va fâcher aucun « concurrent », traduisez, il n’empiète pas sur les plate-bandes d’Amazon ou des autres grossistes suffisamment présents en termes de part de marché, et si un jour ces derniers décidaient de vouloir entrer à leur tour sur le marché créé et contrôlé par Google, ils n’auraient d’autre solution de de se soumettre aux règles fixées … par le même Google.

Sur le même sujet ou presque (l’impact de l’accord passé par Google avec les éditeurs), précipitez-vous sur la lecture de cet article de l’EFF dont j’extrais le passage suivant :

  • « If approved by the court, the $125 million settlement would buy Google — and only Google — permission not just to scan books for indexing purposes, but also to expand Book Search to provide more access to the scanned books. (…) By settling rather than taking the case all the way (many copyright experts thought Google had a good chance of winning), Google has solved its own copyright problem — but not anyone else’s. Without a legal precedent about the copyright status of book scanning, future innovators are left to defend their own copyright lawsuits. In essence, Google has left its former copyright adversaries to maul any competitors that want to follow its lead. » Conclusion : « Those kinds of cases threaten to yield bad legal precedents that tilt the rules against disruptive innovation generally. » Voir également le commentaire ce cet article sur IP-Watch.

Re-conclusion : ça y est. C’est fait. A compter du jour de la publication de ce document (.pdf), Google est éditeur et libraire. Certes il est pour l’instant uniquement éditeur et libraire des oeuvres de la zone grise. Mas avec un droit d’exclusivité qui laisse clairement entrevoir à quel point il serait aujourd’hui aberrant de considérer qu’il en restera là et s’interdira de grignoter progressivement les « autres » marchés du livre.

Source : affordance



La mémoire Flash sera-t-elle un jour remplacée par le graphène ?
27 novembre 2008, 22 h 01 min
Filed under: science, Tech | Mots-clefs: , , , , ,

Par Jean-Luc Goudet

Un prototype de mémoire permanente réalisé en graphène, ce matériau tiré du graphite et apparenté aux nanotubes de carbone, a montré de prometteurs avantages. Cinq fois plus dense que l’actuelle mémoire Flash, il se révèle solide à l’usage et résistant à la température comme aux rayonnements électromagnétiques.

Depuis des années, l’industrie de l’électronique s’intéresse au graphène, cette couche monoatomique de carbone, bidimensionnelle donc, que l’on peut réaliser à partir du graphite. Cette structure est similaire à celle des nanotubes de carbone, constitués d’un feuillet monoatomique refermé sur lui-même.

Les propriétés conductrices du graphène ont été mises en évidence et la possibilité de maîtriser sa résistance en fait un matériau possible pour réaliser un transistor. En clair, il pourrait remplacer le silicium. Son avantage est une compacité bien plus grande. Alors que les circuits classiques, à force de miniaturisation, finiront par buter sur des limites physiques, nanotubes de carbone et graphène permettent d’aller un cran plus loin grâce à une surprenante stabilité à l’échelle atomique qui, au moment de sa découverte, a donné du fil à retordre aux théoriciens.

Après les premiers travaux sur le graphène en 2004, les électroniciens n’ont pas été longs à s’emparer de ce matériau et à découvrir qu’il peut notamment faire un bon semi-conducteur et même se substituer au cuivre pour conduire le courant entre circuits…

Voilà une nouvelle étape : la mémoire permanente, stockant l’information en dehors de toute alimentation électrique. Actuellement, c’est la mémoire Flash des clés USB et des cartes mémoire qui tient ce rôle. Dans la revue Nature Materials, trois chercheurs de l’université Rice (Etats-Unis), James Tour, Yubao Li et Alexander Sinitskii, annoncent faire mieux avec du graphène. Sur des feuilles de graphite épaisses de 5 à 10 nanomètres (et donc composées de plusieurs couches de graphène), ces physiciens ont obtenu des états bi-stables, autrement dit la possibilité de mémoriser un bit d’information.

Un feuillet monoatomique de graphène. Les atomes de carbone sont distribués sur un plan. © Jannik Meyer

Un feuillet monoatomique de graphène. Les atomes de carbone sont distribués sur un plan. © Jannik Meyer

Cinq fois mieux que le silicium

Chaque petite zone enregistrant cette information mesure 10 nanomètres, à comparer aux 45 nanomètres Lire la suite