Electronx's Blog


Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire
20 août 2009, 7 h 03 min
Filed under: internet, Tech | Mots-clefs: , ,

Rudolf Schuba - CC by

Séquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Diaria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard Lire la suite



Droit du Consommateur: Le Scandale Silencieux des Puces Graphiques Nvidia
13 janvier 2009, 7 h 36 min
Filed under: économie, consumérisme, Infos, Tech | Mots-clefs: , , , , ,

A la demande de l’auteur, pour une lecture complète de cet article dont un simple extrait est reproduit à présent sur ce présent post, veuillez cliquer sur la source.

Merci

Extrait :

Pour des besoins professionnels ou privés, pour travailler, jouer ou juste surfer dans un minimum d’espace, vous avez besoin d’un ordinateur portable. Désormais tous les jours de l’année, c’est le moment de vous faire plaisir puisque les prix n’ont de cesse de chuter. A chaque période propice, rentrée scolaire, noël, soldes, les différentes offres commerciales deviennent alors encore plus alléchantes et la tentation encore plus grande. Avant d’y céder légitimement, lisez bien ce qui suit, car un consommateur ou une consommatrice informé(e) en vaut deux.

puce_nvidia_surchauffe1

Pour comprendre : l’exemple de l’industrie automobile
Imaginez que quelques mois après l’achat de votre nouvelle et rutilante voiture, vous appreniez d’abord par hasard via des clients, puis ensuite de manière officielle par le constructeur, qu’il ne faut surtout plus rouler au-delà de 90Km/h, même sur autoroute, au risque d’endommager irrémédiablement le moteur.
Sachant cela, imaginez deux cas:

  • Votre voiture étant encore sous garantie, vous retournez voir le concessionnaire et celui-ci vous oblige à contacter directement le constructeur via une hotline surfacturée pour procéder à la réparation. Injuste et chronophage.
  • Votre voiture n’est plus sous garantie, même depuis 1 semaine seulement, et le concessionnaire vous propose alors un devis et une réparation moyennant finance, une facture qui peut s’élever très rapidement. Une simple escroquerie en somme.

Dans l’industrie automobile en cas de défaut avéré et majeur, rendant le véhicule inutilisable voire dangereux, des…

Suite de la lecture ici –>Source : cpolitic



eBook : Un prototype d’écran couleur AMOLED de 4 » flexible
8 janvier 2009, 7 h 15 min
Filed under: Culture, science, Tech | Mots-clefs: , , ,

Ou quand l’armée développe des solutions futures de lecture.

C’est au cours du CES de Las Vegas qui se déroulera du 8 au 11 janvier que la société Universal Display Corporation présentera son nouveau gadget high-tech : le poignet (si, si, c’est le nom utilisé…).

Flexible et basé sur une technologie AMOLED pour Active Matrix Organic Light-Emitting Diode, le dispositif associe l’économie d’énergie permise par les diodes électroluminescentes à un affichage extrêmement précis, ainsi qu’un large champ de vision.

Outre des applications militaires, comme le démontre l’image, de nombreuses autres possibilités sont envisagées pour le grand public. Un excellent aperçu de ce que pourrait être la lecture sur support numérique, estime la société.

Basé sur un modèle de 4″, il a été initialement développé pour un usage militaire, dans le cadre d’un programme Lire la suite



L’information au futur II
5 janvier 2009, 6 h 44 min
Filed under: Infostratégie, Libertés | Mots-clefs: , , , , , , ,

–>L’information au futur I
https://i2.wp.com/www.webserviteur.com/Design3/Photos/Indexation.jpg
Rappelons d’abord quelques fondamentaux

Qu’est-ce qu’informer  ? Étymologiquement « mettre en forme »  : donner cohérence et lisibilité à des éléments qui prennent sens pour quelqu’un. Donc faire savoir que…, rendre compréhensible. En ce sens, nous n’arrêtons pas d’informer  : nous émettons une multitude de signaux, y compris par notre corps depuis notre tenue vestimentaire jusqu’à notre sourire ou nos poches sous les yeux. Et même notre mutisme et notre refus de nous exprimer peuvent précisément avoir pour sens que nous refusons la communication. Donc ils informent.

Informer a donc une multiplicité de dimensions  : expression d’un état ou relation de faits ou  opinions, simple enregistrement d’un aspect de la réalité ou acte de volonté destiné notamment à changer le comportement d’autrui, information/action, information/suggestion, proclamation, …

Pour notre part nous avons souvent décrit le processus d’information délibérée et organisée (celui qui nous intéresse ici) comme une triple lutte  :

– contre le temps  : survivre à l’effacement et à l’oubli (en organisant, d’ailleurs l’effacement et l’oubli de ce qui est inutile ou insignifiant), perdurer, transmettre

– contre la distance  : atteindre, toucher ses destinataires, communiquer

– contre d’autres informations concurrentes  : propager, retenir l’attention, convaincre…

Quand nous parlons d’un média spécifique, comme le cinéma ou la télévision, nous songeons à des  phénomènes dont le résultat est que le contenu du cerveau de A est passé plus ou moins bien dans celui de B, C et ainsi de suite. Un média demande  :

  • un support destiné à enregistrer les signaux
  • des dispositifs de reproduction et de transport
  • des codes qui associent un sens à un signal mais aussi les codes culturels
  • des modes de traitement, l’ensemble des opérations qu’effectuent des acteurs munis d’instrument pour faire du fameux contenu du cerveau de A en messages que recevront ses destinataires

Si l’on remonte en amont, un média suppose des institutions, des groupes qui régissent son fonctionnement, des professions, des financements…

En aval : des auditeurs, lecteurs ou spectateurs qui se rassemblent dans des salles ou restent chez eux. Tel sens (ouïe vue) prédomine, tel instrument de réception est nécessaire, telle capacité d’interprétation apprise (alphabétisme, culture cinématographique, conventions culturelles)… Ils suivent le message de bout en bout comme au spectacle, ou dans l’ordre qu’ils veulent,  peuvent le modifier, y répliquer…

Chacune de ces composantes varie suivant les époques et la technologie et chacune induit un certain rapport de Lire la suite



Internet : l’impossible sécurité du réseau mondial

Démonstration de craquage des codes d'un certificat de sécurité au congrès du Chaos computer Club à Berlin.

CC-BY-NC
Démonstration de craquage des codes d’un certificat de sécurité au congrès du Chaos computer Club à Berlin.

Eric Filiol, cryptologue issu du monde militaire, dirige le laboratoire de virologie et de cryptologie opérationnelles de l’ESIEA-Laval (Ecole supérieure en informatique, electricité et automatique). Au moment où, pour la troisième fois en quatre ans, des chercheurs viennent de démontrer que certains certificats électroniques peuvent être contrefaits, il commente l’évolution de la sécurité informatique.

Pourquoi cette faille essentielle dans la sécurité d’Internet n’a-t-elle pas été comblée ?

C’est le problème éternel de la sécurité : celle-ci a un coût, financier et humain. Dans le cas présent, les différentes autorités de certification, et plus généralement les industriels de l’informatique, n’ont pas jugé utile d’investir, préférant relativiser la portée des avertissements. Un laxisme dont risquent de faire les frais les utilisateurs, qui se connectent sur des sites apparemment dignes de confiance.

Espionnage, vol de données, racket : le pouvoir de nuisance des « cyberbandits » va bien au-delà du piratage des sites sécurisés. Cette délinquance électronique augmente-t-elle ?

Les cyberattaques réussies étant par définition indétectables, il est très difficile d’évaluer leur portée réelle. D’autant que les entreprises comme les banques ne s’en vantent pas, et ne déposent pas plainte tant que le préjudice n’est pas supérieur au bénéfice. Tout ce que l’on peut dire, c’est que n’importe quel bon informaticien, en n’importe quel point du monde, est une menace potentielle. Et qu’il est beaucoup plus rentable et moins risqué de pratiquer le rapt de données informatiques que le rapt d’enfant. Ou que d’aller braquer une banque.

Quelle est l’arme la plus efficace pour les pirates du Web ?

La grande menace, ce sont les « botnets » : un ensemble de machines zombies tombées sous le contrôle d’un attaquant, via un « ver » ou un cheval de Troie, et exploitées de manière malveillante. Les plus gros botnets découverts dans le monde impliquaient la prise de contrôle de trois à quatre millions de machines : avec ça, un Lire la suite



Le marché du livre comme algorithme (suite …)
1 décembre 2008, 12 h 49 min
Filed under: Culture, internet | Mots-clefs: , , , ,

Le marché du livre comme algorithme (suite …)

Suite du billet de l’autre jour. Je m’étais arrêté à la page 7 du document mis en ligne par l’ARL (.pdf). Les 13 pages restantes concernent le « volet bibliothèques » de l’accord passé par Google avec les éditeurs. On y apprend que :

  • Google délivrera un PAS (Public Access Service) gratuit à toutes les « bibliothèques publiques » (nous verrons ci-après que la dénomination a son importance …) qui en feront la demande. A partir de là il sera possible de consulter le texte intégral des ouvrages de la zone grise depuis les postes informatiques de ladite bibliothèque.
  • Avec ce PAS, si vous voulez imprimer des pages, on Google vous demandera une somme « raisonnable » (sic) : « A user can print pages of material viewed on the PAS terminal for a “reasonable” per-page fee« 
  • Pour déterminer ce qu’est une « bibliothèque publique », et pour le secteur de l’enseignement supérieur, Google se base sur la classification Carnegie. Si vous ne correspondez pas aux critères de ladite classification, Google pourra vous offrir 1 PAS pour l’équivalent de 10 000 étudiants. Si vous êtes dans les critères de ladite classification, ce sera 1 PAS pour 4000 étudiants. Et si vous en voulez plus ? « Google (…) can agree to expand the PAS service by making additional terminals available for free or an annual fee, but the settlement provides no further details on the terms for this expansion. » Donc ce sera possible. Et ce sera gratuit. Ou pas. Ca dépendra. Ce sera du cas par cas. Qui à dit « diviser pour mieux régner ? ». Bref, faudra négocier avec Google.

Bilan ? C’est un PAS de plus vers un pas de trop. Je connais un certain nombre de marchands du temple de l’édition scientifique qui vont ressentir comme un léger malaise à voir l’ombre du géant de Mountain View venir s’étendre inexorablement sur leur pré carré. Car après la PAS, vient l’ISD (Institutionnal Subscription Database). Et oui.

  • l’ISD c’est le fait que chaque institution va pourvoir acheter, toujours pour les mêmes oeuvres de la zone grise, un abonnement institutionnel pour offrir l’accès à l’ensemble de ces textes à l’ensemble de ses usagers. C’est à dire le principe même des bouquets numériques que contractent actuellement les bibliothèques (universitaires notamment) avec les grands éditeurs scientifiques. Cet accès aura naturellement une durée limitée et devra être périodiquement renouvelé.
  • OK mais combien ça va coûter ces abonnements ? Et bien, là encore, c’est Google et lui seul qui va algorithmiquement fixer le prix. Enfin pas tout à fait. C’est Google et le Book Rights Registry (BRR), c’est à dire le fameux registre d’enregistrement des oeuvres encore sous droits. Sauf qu’en l’état, il faut rappeler que c’est Google qui crée et finance seul ledit BRR et que l’on ne sait rien de ce que sera sa composition … Et donc, les critères pour déterminer le prix d’un abonnement institutionnel sont : « the pricing of similar products and services available from third parties; the scope of the books available in the ISD; the quality of the scan (sic …); and the features offered as part of subscription. » Plus loin on apprend également que le prix : « will be based on the number of full-time equivalent (FTE) users. For higher education institutions, FTE means full-time equivalent students.« 

Moralité : c’est ce que l’on appelle vérouiller ses positions. Phase 1 : google crée le marché. Phase 2 : Google prend le marché. Phase 3 : Google en fixe les règles. Phase 4 : Google n’a plus qu’à ramasser les copies les contrats … Parce que dans toute cette histoire, vous n’avez pas oublié qu’au départ il y avait le projet Google Books … un projet dans lequel des bibliothèques confiaient à Google des ouvrages dont certains font partie de la fameuse zone grise. Et c’est là que commence la lecture des dernières pages du document de l’ARL. Dans le prochain billet, je vous raconterai comment Google va réaliser le coup du chapeau. C’est à dire faire finalement payer aux bibliothèques l’accès aux ouvrages de leur fonds propre.
A suivre 🙂

Le marché du livre comme algorithme.

=======================================================================

Nota-Bene : je déroge à la ligne éditoriale (floue) de ce blog qui veut que je ne publie habituellement le vendredi que mes « petits liens du week-end », réservant le dimanche soir à la publication de billets plus fouillés. Mais en l’occurence, le document analysé dans ce billet vaut la peine que vous passiez une partie de votre Week-end à y réfléchir – enfin si vous avez rien de mieux à faire bien sûr – tant les enjeux sont considérables pour le monde et le marché du livre. Fin du teasing, on peut y aller 🙂

=======================================================================

Le très récent accord historique passé par Google avec les éditeurs américains continue de faire causer sur la toile et ne laisse personne indifférent. Prosper nous signale que les mêmes éditeurs ont mis en ligne un document à destination des bibliothèques pour « expliquer » les tenants et aboutissements dudit accord : « A Guide for the Perplexed : Libraries and the Google Library Project Settlement ». Ce qu’on apprend dans le document pdf mis en ligne est réellement hallucinant tant cela témoigne de la candeur avec laquelle les éditeurs ont de facto délégué à Google la capacité de faire du marché du livre, « son » marché du livre. Petite explication et extraits …

Avec tout d’abord les nouvelles règles du jeu :

  • pour les ouvrages libres de droits, rien ne change (=Google affiche le texte intégral et permet de le télécharger) ;
  • pour les ouvrages sous droits mais qui ne sont plus dans le circuit commercial, Google pourra afficher jusqu’à 20% du texte, pas plus de 5 pages consécutives, et pas plus de 4 pages qui se suivent quand on fait une recherche par mot-clé à l’intérieur de l’ouvrage, et pour les oeuvres de fiction de cette même catégorie, Google ne pourrait afficher que 5% des pages et pas plus de 15 pages se suivant et jamais les dernières pages de l’ouvrage, et pour les oeuvres – toujours de la même catégorie – du genre « poésie, nouvelles, dictionnaires, encyclopédies, recueils de citations (…) »  c’est une « fixed preview » qui sera mise en place pour – au maximum – 10% de l’ouvrage, y compris dans le cadre d’une recherche par mot-clé sur les contenus de l’ouvrage.
  • pour les ouvrages sous droits et dans le circuit commercial : la règle « par défaut » est que Google n’affichera plus « que » l’information bibliographique, la page de titre, la quatrième de couverture, la table des matières et le ou les index. Terminé l’affichage de « snippets », sauf … sauf si l’ayant droit (ou son représentant, c’est à dire l’éditeur) l’autorise. Et l’on peut raisonnablement penser que les éditeurs autoriseront cet affichage de « snippets », ne serait-ce que parce que ce feuilletage électronique est un préalable souvent indispensable à l’acte d’achat. Pour cette même catégorie d’ouvrages, s’ensuit également une liste de cas particuliers (que je n’ai pas le temps de traduire) mais qui, en gros, laissent tout de même supposer qu’au final, on continuera de pouvoir consulter des extraits des oeuvres de cette catégorie.

Et puis voici maintenant le « nouveau marché ». Un nouveau marché qui confirme ce que je vous annonce depuis bientôt deux ans, c’est à dire que l’investissement de Google dans la numérisation est tout sauf une entreprise philanthropique ou un investissement à perte. Bien au contraire, la coût de la numérisation d’ouvrages libres de droits était simplement le prix du ticket d’entrée sur le marché – colossal – de la vente des ouvrages de la « zone grise ». Un ticket d’entrée au prix d’autant plus faible que sur ce nouveau marché, c’est désormais Google qui est seul à fixer les règles. Toutes les règles. La nouveauté donc, c’est l’acte de naissance officiel des « fee-based services » :

  • « Users will be able to purchase online access to the full text of in-copyright, not commercially available books through an account established with Google. » Nous sommes donc bien d’accords : Google devient officiellement libraire (l’accord l’ayant déjà institué éditeur puisqu’il sera seul à créer, gérer et maintenir la base dans laquelle viendront s’enregistrer et se déclarer les ayants droits potentiels des oeuvres de la zone grise). Le terrain étant ainsi déblayé, « y’ plus qu’à » … fixer les règles de ce nouveau marché.
  • Deux possibilités : soit les ayants droits identifiés et reconnus fixent leur prix, soit … c’est Google qui le fixe algorithmiquement. « Google will set the price for all books not priced by the rightsholders based on a pricing algorithm designed to find the optimal price for each book to maximize the revenue for the rightsholder. Initially, books will be distributed in pricing “bins” in the following percentages: 5% of the books available for purchase will priced at $1.99; 10% at $2.99; 13% at $3.99; 13% at $4.99; 10% at $5.99; 8% at $6.99; 6% at $7.99; 5% at $8.99; 11% at $9.99; 8% at $14.99; 6% at $19.99; and 5% at $29.99. The algorithm will place a book in a pricing bin based on aggregate data collected with respect to similar books. Google can change the price of a book in response to sales data. Google also can change the distribution of books in the pricing bins
    over time as the prices of individual books are adjusted based on the pricing algorithm.
     » Je vous fait un dessin ? A la manière dont Apple avait fixé seul le prix du morceau de musique via sa plateforme Itunes, Google vient de fixer, seul, le prix de vente à la découpe des ouvrages de la zone grise. En gros donc, il y aura 12 tranches de prix, de 1;99 $ à 29;99 $. En gros toujours, ce prix sera fixé sur des critères auxquels seul Google a accès (« a pricing bin based on aggregate data collected with respect to similar books »). En gros toujours, Google se réserve le droit d’augmenter le prix d’un ouvrage (= de le faire changer de tranche de prix) en fonction des chiffres de vente (« sales data« ), chiffres de vente dont il sera seul à disposer.

Et voici enfin l’ultime escroquerie : le modèle de l’a-llocation. Mékeskidi ? Cette escroquerie concerne l’acte d’achat. Et bien il n’y en aura pas. Ou plutôt si. On pourra théoriquement « acheter » ces ouvrages de la zone grise. Mais on ne fera pratiquement qu’acheter un droit d’accès (très partiel cf ci-dessous) à ces ouvrages sur les serveurs de Google. Donc une location. Etant donné la puissance de frappe de Google et l’ampleur du marché ici concerné, c’est l’acte de naissance officiel d’un nouveau mode commercial : on ne pouvait jusqu’ici qu’acheter ou louer des produits quels qu’ils soient. On peut désormais effectuer des locations déguisées en achat. Pour célébrer cette naissance il faut un nouveau terme. Je propose celui « d’a-llocation. » (« a » pour « acheter » et « location » pour … location). Concrètement, voici ce qu’on peut lire dans le même document (.pdf) :

  • « After purchasing the book, the user will have perpetual online access to view the entire book from any computer. » Retenez bien cette phrase là. C’est un modèle du genre. Traduite littéralement elle signifie : « Après avoir acheté le livre, l’utilisateur aura un accès en ligne perpétuel à sa totalité depuis n’importe quel ordinateur. » Traduisez : on pourra donc acheter un truc qu’on ne pourra lire que sur Google via son compte Google. C’est ça la conception du « perpetual online access » selon Google.
  • « The user will be able to copy and paste up to four pages of the purchased book with a single command, but, with multiple commands, can copy and paste the entire book. » On ne pourra donc disposer d’une vraie copie numérique correspondant à son acte d’achat QUE SI on fait du copier-coller. Et par défaut, on ne pourra copier-coller QUE  … 4 pages.
  • « The user will be able to print up to twenty pages of the purchased book with a single print command, but, with multiple commands, can print out the entire book. Google will place a watermark on printed pages with encrypted identifying information that identifies the authorized user that printed the material. » On ne pourra donc imprimer – par défaut toujours – que 20 pages. Et en plus on sera « pisté » (grâce aux techniques de marquage = « watermarks ») au cas où il nous viendrait l’idée saugrenue d’imprimer plus de 20 pages d’un livre que l’on vient pourtant « d’acheter ».
  • « The user will be able to make book annotations of the purchased book. A book annotation is user-generated text that is displayed on any Web page on which a page of a book appears. The user can share his annotations with up to 25 other individuals who have purchased the book through this service and who have been designated by the user. » On pourra annoter le livre qu’on vient d’acheter, mais on ne pourrra là encore le faire que « sur » Google, et on ne pourra partager lesdites annotations que « sur » Google et avec 25 autres pigeons qui auront comme nous eu « l’impression » d’acheter ledit bouquin et que nous aurons nommément désignés (pour qu’ils puissent être à leur tour pistés et que Google puisse vérifier, via leur compte, qu’ils ont effectivement achetés l’ouvrage en question).
  • « A user who purchases a book will not see an insert if the insert’s rightsholder chooses to exclude displays of the insert. In this situation, a purchaser (or an institutional subscriber, described below) will not have access to the complete book as published. » Livre à la découpe donc. En plus de se faire pigeonner avec un acte d’achat qui n’en est pas un, en plus de se faire pister, on pourra ne pas accéder à certains passages du livre, si l’ayant droit a décidé d’extraire certains passages.

Conclusion ? Ce qui se met en place avec cet accord est passionnant ET révolutionnaire ET (de mon point de vue) scandaleux pour UNE raison : c’est la naissance de la littérature comme algorithmie. Plus précisément, c’est la soumission de la littérature du marché du livre à une nouvelle matrice calculatoire préemptée par Google avec l’assentiment des gardiens du temple, à savoir les éditeurs. Plus précisément encore c’est – à ma connaissance – la première fois qu’un algorithme informatique (dans toute son opacité) préside à la naissance d’un marché et en devient simultanément le seul régulateur.

De la candeur (relative) des éditeurs. Les éditeurs ont ici obtenu une victoire tactique, mais en rien stratégique. Ils ont obtenu que Google n’affiche plus « par défaut » des extraits des ouvrages en vente. La belle affaire. Ils ont oublié que le coeur du procès n’était pas l’affichage des extraits, mais la simple possibilité offerte à Google de numériser TOUS les contenus et de les tenir à sa disposition « pour le jour où … » Alors oui, candide les éditeurs. Alors oui, dommage les auteurs qui ont laissé cette bataille leur échapper en déléguant pour l’essentiel leur représentativité aux même éditeurs. Mais non, les éditeurs n’ont pas tous les torts. Leur approche est conditionnée par les « règles du marché ». Et ces règles du marché les obligent à maintenir à flot la rentabilité de leur boutique. Donc même s’ils disposent d’une vision stratégique à moyen ou long terme, ils n’ont d’autre choix que d’effectuer des choix tactiques à court terme. Ils auraient – pour préférer la stratégie à la tactique – ils auraient disais-je, eu besoin que les autres acteurs (états et institutions notamment) se mobilisent différemment (= mettent de l’argent) et surtout davantage autour de ce projet qui nous concerne tous.

Remarque annexe : ce qui est très fort dans cette approche, c’est qu’en plus de créer un marché qui n’existait pas, en plus de s’en arroger l’exclusivité, et en plus d’en fixer les règles, Google ne va fâcher aucun « concurrent », traduisez, il n’empiète pas sur les plate-bandes d’Amazon ou des autres grossistes suffisamment présents en termes de part de marché, et si un jour ces derniers décidaient de vouloir entrer à leur tour sur le marché créé et contrôlé par Google, ils n’auraient d’autre solution de de se soumettre aux règles fixées … par le même Google.

Sur le même sujet ou presque (l’impact de l’accord passé par Google avec les éditeurs), précipitez-vous sur la lecture de cet article de l’EFF dont j’extrais le passage suivant :

  • « If approved by the court, the $125 million settlement would buy Google — and only Google — permission not just to scan books for indexing purposes, but also to expand Book Search to provide more access to the scanned books. (…) By settling rather than taking the case all the way (many copyright experts thought Google had a good chance of winning), Google has solved its own copyright problem — but not anyone else’s. Without a legal precedent about the copyright status of book scanning, future innovators are left to defend their own copyright lawsuits. In essence, Google has left its former copyright adversaries to maul any competitors that want to follow its lead. » Conclusion : « Those kinds of cases threaten to yield bad legal precedents that tilt the rules against disruptive innovation generally. » Voir également le commentaire ce cet article sur IP-Watch.

Re-conclusion : ça y est. C’est fait. A compter du jour de la publication de ce document (.pdf), Google est éditeur et libraire. Certes il est pour l’instant uniquement éditeur et libraire des oeuvres de la zone grise. Mas avec un droit d’exclusivité qui laisse clairement entrevoir à quel point il serait aujourd’hui aberrant de considérer qu’il en restera là et s’interdira de grignoter progressivement les « autres » marchés du livre.

Source : affordance



La mémoire Flash sera-t-elle un jour remplacée par le graphène ?
27 novembre 2008, 22 h 01 min
Filed under: science, Tech | Mots-clefs: , , , , ,

Par Jean-Luc Goudet

Un prototype de mémoire permanente réalisé en graphène, ce matériau tiré du graphite et apparenté aux nanotubes de carbone, a montré de prometteurs avantages. Cinq fois plus dense que l’actuelle mémoire Flash, il se révèle solide à l’usage et résistant à la température comme aux rayonnements électromagnétiques.

Depuis des années, l’industrie de l’électronique s’intéresse au graphène, cette couche monoatomique de carbone, bidimensionnelle donc, que l’on peut réaliser à partir du graphite. Cette structure est similaire à celle des nanotubes de carbone, constitués d’un feuillet monoatomique refermé sur lui-même.

Les propriétés conductrices du graphène ont été mises en évidence et la possibilité de maîtriser sa résistance en fait un matériau possible pour réaliser un transistor. En clair, il pourrait remplacer le silicium. Son avantage est une compacité bien plus grande. Alors que les circuits classiques, à force de miniaturisation, finiront par buter sur des limites physiques, nanotubes de carbone et graphène permettent d’aller un cran plus loin grâce à une surprenante stabilité à l’échelle atomique qui, au moment de sa découverte, a donné du fil à retordre aux théoriciens.

Après les premiers travaux sur le graphène en 2004, les électroniciens n’ont pas été longs à s’emparer de ce matériau et à découvrir qu’il peut notamment faire un bon semi-conducteur et même se substituer au cuivre pour conduire le courant entre circuits…

Voilà une nouvelle étape : la mémoire permanente, stockant l’information en dehors de toute alimentation électrique. Actuellement, c’est la mémoire Flash des clés USB et des cartes mémoire qui tient ce rôle. Dans la revue Nature Materials, trois chercheurs de l’université Rice (Etats-Unis), James Tour, Yubao Li et Alexander Sinitskii, annoncent faire mieux avec du graphène. Sur des feuilles de graphite épaisses de 5 à 10 nanomètres (et donc composées de plusieurs couches de graphène), ces physiciens ont obtenu des états bi-stables, autrement dit la possibilité de mémoriser un bit d’information.

Un feuillet monoatomique de graphène. Les atomes de carbone sont distribués sur un plan. © Jannik Meyer

Un feuillet monoatomique de graphène. Les atomes de carbone sont distribués sur un plan. © Jannik Meyer

Cinq fois mieux que le silicium

Chaque petite zone enregistrant cette information mesure 10 nanomètres, à comparer aux 45 nanomètres Lire la suite