OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 La part d’ombre de Google Livres http://owni.fr/2012/06/13/la-part-dombre-de-google-livres/ http://owni.fr/2012/06/13/la-part-dombre-de-google-livres/#comments Wed, 13 Jun 2012 11:46:56 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=113175

Paix des braves pour Les Echoshache de guerre enterrée pour La Tribune ;  calumet de la paix partagé pour le Nouvel Observateur : la presse est unanime pour célébrer l’accord-cadre rendu public lundi entre Google, le Syndicat national de l’édition (SNE) et la Société des gens de lettres (SGDL), sur la numérisation des livres indisponibles sous droits.

Il est vrai que l’évènement est d’importance, puisque cet arrangement met fin à plus de sept années de conflits entre le moteur de recherche et le monde de l’édition française, à propos du programme de numérisation Google Books, qui avait entendu renverser de fond en comble les règles du droit d’auteur pour progresser plus vite.

Pourtant derrière cette belle unanimité, de multiples signes, émanant notamment d’auteurs français méfiants ou remontés contre les instances prétendant les représenter, attestent qu’il reste comme “un caillou dans la chaussure“, pour reprendre les paroles de l’écrivain Nicolas Ancion…

Il faut d’abord mettre en lumière le côté clair de cet accord, pour mieux cerner ensuite son côté obscur, notamment en ce qui concerne ses liens avec la loi sur l’exploitation numérique des livres indisponibles du 20ème siècle, adoptée par le Parlement français en mars dernier.

Procès fleuve

L’essentiel du contentieux portait sur le recours par Google à l’opt-out – l’option de retrait – un procédé par lequel il demandait aux titulaires de droits de se manifester explicitement pour demander à sortir de son programme, ce qui lui permettait d’avancer dans la numérisation des ouvrages sans s’embarrasser a priori de la question chronophage de la gestion des droits.

Jugement Google/La Martinière : Alea jacta est ?

Jugement Google/La Martinière : Alea jacta est ?

Le verdict du procès Google/La Martinière est donc tombé vendredi, mettant fin plusieurs années d’incertitude en ...

Mais cette méthode a été condamnée par la justice française en décembre 2009, au terme d’un procès retentissant faisant suite à une plainte de l’éditeur La Martinière, soutenu par le SNE et la SGDL, qui a rappelé que l’opt-in – l’option d’adhésion – était seule compatible avec les règles du droit d’auteur français qui exigent que les titulaires de droits donnent un consentement explicite et préalable à l’utilisation de leurs œuvres.

L’impasse atteinte par Google en France a également trouvé écho aux États-Unis, où un autre procès fleuve l’oppose depuis plus longtemps encore aux auteurs et éditeurs américains. Saisi pendant plusieurs années d’une proposition de règlement entre les parties, qui aurait entériné le procédé de l’opt-out, le tribunal de New York en charge de l’affaire a lui aussi fini par estimer début 2011 que seule une solution à base d’opt-in pouvait être envisagée. Si un accord paraissait pouvoir être trouvé sur ce fondement avec les éditeurs américains, ce n’est visiblement pas le cas avec les auteurs réunis au sein de l’Author’s Guild, avec qui Google a repris une guerre de procédure acharnée. Et alors qu’on avait pu penser un moment que l’Author’s Guild allait être déboutée, le tribunal a fini à la fin du mois dernier par conforter sa position, ce qui place à présent Google dans une posture délicate aux Etats-Unis.

Cette situation d’échec dans le volet américain de l’affaire Google Livres contraste avec l’entente qui s’est installée peu à peu en France entre Google et les éditeurs, suite à sa condamnation en justice. Dès novembre 2010, Hachette Livres avait décidé de passer un protocole d’accord avec Google pour la numérisation de 50 000 oeuvres épuisées, sur la base de listes d’ouvrages établis par l’éditeur, ce qui consacrait un retour à l’opt-in. Il avait été suivi de manière emblématique par les éditions La Martinière, qui concluaient en août 2011 un accord paraissant suivre des principes similaires. Gallimard, Flammarion et Albin Michel annonçaient de leur côté en septembre 2011 un abandon des poursuites et l’ouverture de négociations.

L’accord-cadre conclu lundi s’inscrit donc dans une certaine logique et un mouvement graduel d’apaisement. Il consacre sans doute le basculement du groupe Editis, dont la position au sujet de Google Livres restait à ce jour incertaine, ainsi que l’abandon des poursuites par la SGDL, côté auteurs.

Réciprocité

Un internet raisonné où chaque partie se comprend” : les propos d’Antoine Gallimard lors de la conférence de presse mettent en avant l’esprit de réciprocité consacré par cet accord.

L’idée de base pour les éditeurs acceptant d’entrer dans l’accord consistera à travailler avec Google pour dresser une liste de titres figurant dans l’immense base de 20 millions d’ouvrages numérisés de Google, de vérifier qu’il en possède bien les droits et que les livres ne sont plus disponibles à la vente, que ce soit en papier ou en numérique.

L’éditeur aura alors la faculté de décider s’il souhaite que Google commercialise ses ouvrages via son propre dispositif de vente (Google Play), la “majorité des revenus”étant reversés à l’éditeur, d’après Philippe Colombet de Google France. Cet élément est décisif, car on imagine que c’est précisément ce taux de retour sur le produit des ventes de Google qui a satisfait les éditeurs français. Dans la première version du règlement américain, 63% des sommes étaient reversées aux titulaires de droits via le Book Right Registry. Ce règlement prévoyait également qu’au cas où les droits d’exploitation n’étaient pas retournés intégralement aux auteurs, le partage de ces revenus devait se faire à 65% pour l’auteur et à 35% pour l’éditeur. Gardez bien cela en tête, car il est fort probable que l’arithmétique soit beaucoup moins favorable aux auteurs avec l’accord-cadre français. Pour l’instant, il n’est cependant pas possible de connaître dans le détail le contenu de cet accord-cadre, qui ne sera transmis qu’aux éditeurs membres du SNE (et pas aux auteurs ? Tiens donc ? ;-).

En complément de ce partage des revenus, le SNE et la SGDL reçoivent eux aussi des sommes qui serviront pour les éditeurs à financer l’opération “Les petits champions de la lecture” et pour les auteurs à améliorer la base de données de la SGDL. Notons que le montant de ces sommes reste confidentiel côté français, alors qu’il était clairement annoncé en ce qui concerne le Règlement américain (125 millions de dollars). Autre pays, autres moeurs !

Mais l’argent n’est quand même pas tout et en matière de livre numérique, le nerf de la guerre, c’est d’abord la possession des fichiers. Or ici, les éditeurs obtiennent de pouvoir récupérer les fichiers numérisés par Google, assortis du droit d’en faire une exploitation commerciale, selon “plusieurs modalités proposées par Google” d’après le compte-rendu   de la conférence de presse dressé par Nicolas Gary d’Actualitté. Cette expression un brin sibylline renvoie visiblement à des possibilités de distribution, par les propres moyens de l’éditeur ou via des plateformes commerciales, étant entendu que, comme cela avait déjà plus ou moins filtré à propos des accords Hachette et Lamartinière, des exclusivités ont été consenties par les éditeurs français afin que les fichiers ne soient pas distribués par les concurrents les plus menaçants pour Google : Apple et Amazon. A ce sujet, il est sans doute assez cocasse de relever que les questions d’atteinte à la libre concurrence ont joué un rôle essentiel dans le rejet du règlement aux Etats-Unis et que l’Autorité de la Concurrence en France s’est déjà émue de l’évolution de Google vers une position dominante en matière dans le domaine du livre numérique.  Les éditeurs pourront par ailleurs également exploiter les fichiers sous forme d’impression à la demande.

Mis à part ces réserves sur lesquelles je reviendrai plus loin, on peut donc considérer l’accord-cadre français comme un échange de bons procédés, relativement équilibrés même s’il parait globalement très favorable aux éditeurs français. Google de son côté pourra à présent se targuer de l’exemple français pour essayer de trouver un terrain d’entente aux Etats-Unis ou dans d’autres pays dans le monde.

Pur hasard

Pourtant la part d’ombre de l’arrangement n’a pas manqué d’apparaître dès la conférence de presse de lundi, notamment lorsque Antoine Gallimard a dû répondre à propos des rapports entre ce dispositif et la récente loi sur la numérisation des livres indisponibles du 20ème siècle. Pour le président du SNE, “la présentation de cet accord-cadre n’est que pur hasard avec le calendrier de la loi sur la numérisation des oeuvres indisponibles du XXe siècle”.

Mais les similitudes sont tout de même troublantes et le pur hasard a visiblement bien fait les choses. Car la loi sur l’exploitation numérique des livres indisponibles du 20ème siècle porte exactement sur le même objet que l’accord-cadre conclu avec Google, à savoir le corpus massif des oeuvres qui ne sont plus disponibles à la vente sous forme papier ou numérique, mais qui restent protégées par des droits. Or ce qui frappe immédiatement, c’est la différence de fonctionnement au niveau juridique des deux dispositifs envisagés.

En effet, alors que les éditeurs et les auteurs se sont visiblement battus avec opiniâtreté pour faire triompher l’opt-in dans l’accord-cadre, ils ont accepté avec la loi sur les livres indisponibles que soit introduit dans le Code de propriété intellectuelle français un opt-out !  J’ai déjà eu l’occasion de dire que cette loi était plus que critiquable dans la mesure où elle  portait très fortement atteinte aux principes du droit d’auteur français et que loin de constituer une alternative à Google Livres, elle ne faisait qu’en singer (maladroitement) les modalités.

La fin de l’hégémonie de Google Books ?

La fin de l’hégémonie de Google Books ?

Google serait contraint d'obtenir un accord explicite des auteurs avant la numérisation de leurs œuvres. Que faire pour la ...

Or la loi française, dans l’exposé même de ses motifs, explique qu’il n’était en quelque sorte pas possible de faire autrement que de passer par un opt-out pour introduire un système de gestion collective viable pour les oeuvres orphelines. L’accord-cadre intervenu lundi prouve que c’est absolument faux et que de l’aveu même des éditeurs du SNE et des auteurs de la SGDL, qui ont pourtant fait un lobbying d’enfer pour pousser cette loi, une autre approche était tout à fait possible, plus respectueuse des droits de tous - à commencer par ceux des auteurs –  !

Il est donc évident maintenant que cette loi a introduit dans le Code des adultérations majeures au droit d’auteur quasiment pour rien et pour bien mesurer la gravité de la chose, il faut relire ce qu’en dit par exemple le juriste spécialisé en propriété intellectuelle Franck Macrez dans le premier commentaire du texte paru au Dalloz :

En définitive, et à s’en tenir à la cohérence de la loi nouvelle avec les principes traditionnels du droit d’auteur, le bilan de ce texte voté en urgence est désastreux [...] Les auteurs se voient, par la force de la loi, obligés de partager les fruits de l’exploitation de leur création avec un exploitant dont la titularité des droits d’exploitation numérique est fortement sujette à caution. L’obligation d’exploitation permanente et suivie, qui participe de l’essence même de l’archétype des contrats d’exploitation du droit d’auteur, est anémiée. La présomption de titularité des droits d’exploitation sur l’œuvre au profit de son propriétaire naturel est réduite à néant. Que reste-t-il du droit d’auteur ?

Tactique

Quelle cohérence y a-t-il de la part des éditeurs du SNE et des auteurs de la SGDL a avoir tant poussé pour faire advenir cette loi, alors qu’un accord-cadre avec Google était en préparation ?

On peut penser que la première – et sans doute principale – raison était avant tout d’ordre tactique. Il est beaucoup plus simple de négocier avec un acteur redoutable comme Google si on peut assurer ses arrières en lui faisant remarquer qu’en cas d’échec des pourparlers, on pourra se tourner vers un dispositif national, financé à grands renforts d’argent de l’Emprunt national pour numériser et exploiter les ouvrages indisponibles, sans avoir besoin des services du moteur de recherche.

Mais une fois ce bénéfice tactique empoché, il y a de fortes raisons de penser que les éditeurs préféreront l’accord-cadre au dispositif mis en place par la loi française. Tout d’abord, l’accord-cadre a le mérite de rester secret, ce qui est toujours bien pratique, alors que la loi française, malgré beaucoup d’obscurités lors de son adoption, est lisible par tout un chacun. Comme le fait remarquer malicieusement @BlankTextfield sur Twitter, Google et le SNE pourraient commencer leur opération des “Petits champions de la lecture”… en permettant à tout le monde de lire cet accord ! Chiche ? Sachant que le Règlement Google Books avait lui aussi la vertu d’être complètement public…

L’autre avantage réside sans doute paradoxalement dans les fameuses “exclusivités” que comporte l’accord-cadre, qui empêchent des acteurs comme Apple et surtout Amazon d’exploiter les fichiers. Il faut sans doute moins y voir une condition imposée par Google qu’une entente passée entre tous les acteurs. Car il ne doit pas tant déplaire aux éditeurs français qu’Amazon par exemple soit ainsi mis sur la touche ; Mister Kindle et ses prix cassés étant considérés comme l’antéchrist numérique par beaucoup… En comparaison, il faut reconnaître que le dispositif de la loi sur les indisponibles est plus ouvert, puisque la société de gestion collective qui récupèrera la gestion des droits grâce à l’opt-out est tenue d’accorder des licences d’exploitation commerciales sur une base non-exclusive.

Notons enfin que contrairement à ce qu’a indiqué Antoine Gallimard lors de la conférence de presse, il y a fort peu de chances que la loi sur les indisponibles et l’accord-cadre s’avèrent “complémentaires”, et ce, pour une raison très simple. Si les ouvrages figurent sur des listes permettant à Google de les exploiter commercialement et si les éditeurs récupèrent les fichiers avec la possibilité de les exploiter, par définition, ces livres ne sont PLUS indisponibles. Ils ne peuvent donc plus être inscrits sur la base de données gérée par la BnF, qui constitue la première étape du processus d’opt-out.

Si les éditeurs principaux du SNE font le choix de signer l’accord-cadre avec Google, la loi française sur les indisponibles sera mécaniquement vidée de sa substance et il n’en restera en définitive que les vilaines scories juridiques qu’elle a introduit dans le Code…

Allez comprendre ! Mais vous allez voir qu’il y a d’autres éléments fort éclairants…

Serf

Le grand mérite de cette loi sur les indisponibles est peut-être d’avoir amené un grand nombre d’auteurs à se mobiliser, en marge de la SGDL, pour la défense de leurs droits dans l’environnement numérique.

Des livres libérés de licence

Des livres libérés de licence

Les licences libres ont permis l'émergence de succès dans les domaines de la musique et de la photographie. En revanche, la ...

Réunis sous la bannière du collectif “Le droit du serf“, ils ont fait valoir, notamment lors de discussions avec le Ministère de la Culture, que les oeuvres indisponibles doivent être assimilées à des oeuvres épuisées, ce qui dans l’esprit du droit d’auteur français, signifie que les droits devraient entièrement leur revenir. Un éditeur qui laisse un ouvrage s’épuiser manque vis-à-vis de l’auteur à une obligation essentielle du contrat d’édition. Dès lors que l’éditeur reconnaît, comme c’est le cas dans l’accord-cadre avec Google, que les oeuvres sont bien “indisponibles”, il n’est pas normal qu’il puisse continuer à revendiquer des droits numériques et une prétention à toucher une rémunération.

Cette rémunération de l’auteur a toutes chances d’ailleurs d’être réduite à la portion congrue. Souvenez-vous que dans le Règlement américain, il était prévu que 63% des revenus dégagés par Google iraient aux titulaires de droits, avec une répartition de 65% à l’auteur et de 35% à l’éditeur. Dans le dispositif de la loi sur les indisponibles, les sommes doivent être partagées à 50/50 entre l’éditeur et l’auteur (ce qui est déjà plus défavorable…). Avec l’accord-cadre, ce sera dans la plupart des cas sans doute bien pire encore. En effet, pour pouvoir être en mesure d’exploiter les livres sous forme numérique, les éditeurs font signer aux auteurs des avenants concernant les droits numériques. On sait par exemple que c’est ce qu’a dû faire Hachette [PDF] suite à la passation de l’accord en 2010 avec Google. Or il est notoire que les éditeurs dans ce cas font signer des avenants numériques qui maintiennent le taux de rémunération prévu pour le papier (entre 8 et 12% en moyenne). Et beaucoup d’auteurs hélas ont sans doute déjà accepté de tels avenants… ce qui signifie qu’à tout prendre l’accord-cadre avec Google est beaucoup plus rémunérateur pour les éditeurs que la loi sur les indisponibles. C’est plus clair comme ça ?

Soulignons enfin un point essentiel : il y a tout lieu de penser que l’opt-in imposé à Google s’applique en définitive beaucoup mieux pour les éditeurs que pour les auteurs. En effet, comme le fait très justement remarquer dans une tribune caustique l’auteur de SF et pilier du collectif “le droit du serf”, Yal Ayerdhal, la sortie du dispositif de l’accord-cadre va sans doute nécessiter pour les auteurs une action positive en direction de leur éditeur, et le site Actualitté pointe également ce problème :

“[...] que peut faire un auteur pour empêcher que son oeuvre soit numérisée en amont, et non plus en aval, avec cette simple possibilité de faire retirer le livre de la liste ? ” La démarche est complexe, voire laborieuse, et le président du SNE de nous répondre : « Mais en tout cas, il a le droit de la faire retirer. Son droit de retrait est inaliénable. » Le droit, certes, mais rien à faire en amont de la numérisation…

On est donc bien toujours dans l’opt-out… mais pour l’auteur seulement ! Ceci étant dit, ce travers majeur existait aussi dans la loi sur les oeuvres indisponibles, qui offre à l’éditeur des moyens beaucoup plus aisés de se retirer du dispositif que pour l’auteur

Quelle filière industrielle pour la numérisation du patrimoine ?

Quelle filière industrielle pour la numérisation du patrimoine ?

Quelle voie intermédiaire prendre, entre une logique libérable de la privatisation basée sur la publicité et visant ...

Au final, on peut comprendre que certains auteurs se posent des questions à propos du rôle de la SGDL dans cet arrangement, alors que des points de désaccords importants existaient entre le SNE et cette organisation à propos de la question de l’évolution des contrats d’édition numériqueL’organisation répond à ces critiques en mettant en avant le fait que l’accord qu’elle a signé avec Google est indépendant de celui conclu par le SNE.

Admettons… mais comment expliquer alors qu’en 2010, la SGDL ait si vivement réagi à l’annonce du partenariat conclu entre Google en Hachette, en appelant ses membres à la plus grande vigilance ? En dehors du chèque versé par Google, quelles garanties a-t-elle bien pu obtenir qui aient à présent calmé ses frayeurs, alors que les modalités de fonctionnement de l’accord-cadre de lundi semblent identiques à celles de l’accord Hachette ?

D’autres acteurs de la “chaîne du livre” peuvent sans doute nourrir quelques inquiétudes. Il n’est plus question des libraires par exemple, alors qu’en 2011, La Martinière les mettait encore en avant (mais 2011, c’était déjà il y a si longtemps…). Quant aux bibliothèques, elles sont littéralement rayées de la carte par cet accord, alors qu’elles avaient quand même reçu quelques miettes symboliques dans la loi sur les indisponibles. En ce qui concerne leurs propres accords, aussi bien Hachette que La Martinière avaient évoqué la possibilité que les fichiers remis par Google soient transférés à la Bibliothèque nationale de France. Qu’en est-il pour cet accord ? Mystère… Sans compter que la BnF n’est pas l’ensemble des bibliothèques françaises et que la question du déficit criant de l’offre de livres numériques prévue pour elles reste entière.

Trois scénarios

Vous l’aurez compris, la part d’ombre principale de cet accord-cadre réside pour moi dans son articulation avec la loi sur les indisponibles. L’explication la plus simple consiste sans doute à se dire que les éditeurs français ont habilement joué sur tous les tableaux à la fois et qu’ils l’ont finalement emporté partout.

Mais essayons de nous porter dans l’avenir et d’envisager trois scénarios d’évolution pour cette loi :

  1. Le scénario idyllique : Les deux dispositifs s’avèrent effectivement complémentaires, comme l’avait prophétisé Antoine Gallimard. Les éditeurs gardent ainsi le choix entre deux voies différentes pour faire renaître leurs livres indisponibles. Certains vont travailler avec Google, d’autres – en nombre suffisant – passent par la gestion collective de la loi sur les indisponibles. Certains encore distinguent plusieurs corpus et les orientent soit vers Google, soit vers le dispositif Indisponibles, sur une base cohérente. Il en résulte au final deux offres distinctes et intéressantes pour les consommateurs. La France gagne l’Euro 2012 de football et on découvre un nouveau carburant inépuisable sur la Lune. Hem…

  2. Le scénario pathétique : Les éditeurs font le choix massivement d’adopter l’accord-cadre et de marcher avec Google. Comme je l’ai expliqué plus haut, cela tarit à la source le réservoir des oeuvres qui peuvent intégrer le dispositif, faute d’être indisponibles. La gestion collective envisagée par la loi demeure une sorte de coquille quasi-vide. Les sommes considérables de l’Emprunt national dévolues à ce projet auront été mobilisées en vain. Le Code de Propriété Intellectuelle reste quant à lui défiguré. La France est éliminée piteusement de l’Euro de foot 2012 et on apprend que la Lune émet des particules cancérigènes sur la Terre. Hem…

  3. Le scénario machiavélique : Contrairement à ce que j’ai dit plus haut, il existe tout de même une façon de connecter le dispositif  de la loi sur les Indisponibles à l’accord Google. Mais cela me paraîtrait tellement tordu que je n’avance l’hypothèse… qu’en tremblant ! Imaginons que Google et les éditeurs s’accordent sur un délai pour que le moteur n’exploite pas les oeuvres. Celles-ci sont donc bien indisponibles au sens la loi et elles peuvent être inscrites dans la base, ce qui déclenche l’opt-out. Peut alors jouer à plein l’effet de “blanchiment des contrats d’édition”, qui garantit aux éditeurs de conserver les droits, même sur les oeuvres pour lesquelles cela aurait pu être douteux (notamment les oeuvres orphelines).  Google réalise alors en France, ce qu’il ne peut plus rêver d’atteindre aux Etats-Unis, en demandant in fine une licence d’exploitation à la société de gestion collective.  Alors que les français étaient en passe de gagner l’Euro 2012, la finale est interrompue par une pluie de criquets. On découvre sur la Lune une forme de vie cachée, hostile et bavante, qui débarque pour tout ravager. Hem…

PS : merci @BlankTextField pour ses tweets #GBSfr sur cet accord, sans lesquels j’aurais eu bien du mal à démêler cet écheveau…


Images par Mike Licht [CC-by]

]]>
http://owni.fr/2012/06/13/la-part-dombre-de-google-livres/feed/ 26
La e-mémoire: rêve transhumaniste ou cauchemar déshumanisé? http://owni.fr/2011/01/17/la-e-memoire-reve-transhumaniste-ou-cauchemar-deshumanise/ http://owni.fr/2011/01/17/la-e-memoire-reve-transhumaniste-ou-cauchemar-deshumanise/#comments Mon, 17 Jan 2011 12:20:45 +0000 JCFeraud http://owni.fr/?p=42747 En fondant la Bibliothèque d’Alexandrie en 288 avant JC, Alexandre le Grand nourrissait le projet fou de conserver tout le savoir de l’humanité depuis l’invention de l’écriture à Sumer et Babylone. Sous l’empire romain et au plus haut de sa gloire, cette merveille de l’Antiquité compta jusqu’à 700.000 volumes sur papyrus et parchemins…avant d’être détruite et pillée par les disciples chrétiens du dernier des Ptolémée en l’an 642 comme le raconte le récent peplum Agora. Les savants et philosophes furent expulsés et toute cette mémoire partit en fumée, plongeant le monde dans l’éclipse intellectuelle et scientifique du bas moyen-âge. A l’époque nulle copie de sauvegarde n’était disponible…

Mais quinze siècles plus tard, le saut technologique quantique permis par la révolution numérique rendrait presque palpable le rêve de garder pour l’éternité la mémoire de chaque être humain né sur cette Terre !

L’homme est poussière et retournera à la poussière, mais ses souvenirs resteront gravés sur silicium dans une quête si humaine d’éternité. Les pharaons et Alexandre en rêvaient…Microsoft va le faire.

C’est en tous cas le projet fou de Gordon Bell, un chercheur vétéran de la firme qui a entrepris en 1998 de numériser tous ses écrits, puis d’archiver sur disque dur chaque jour de sa vie en photographiant, scannant, enregistrant méthodiquement tout ce qu’il voyait, mangeait, lisait ou ressentait. Baptisé MyLifeBits (Mes bouts de vie), cette vaine tentative de se constituer une e-mémoire est devenue un livre, qui vient de sortir en France chez Flammarion sous le titre Total Recall. Une allusion bien sûr au film de Paul Verhoeven adapté d’une nouvelle du grand Philip K.Dick (We can remember it for you wholesale).

Sauf que dans le film, la société Rekall vend des faux souvenirs qu’elle implante dans la mémoire de ses clients. Alors que Gordon Bell et son assistant Jim Gemmell prétendent vous aider à vous constituer votre propre mémoire électronique avec un véritable manuel : « imaginez que vous ayez accès, d’un simple clic, à toutes les informations reçues au cours de votre vie », résume l’incontournable Bill Gates qui préface le livre.

Se souvenir jusqu’à ne plus pouvoir vivre

Mais avant d’en arriver là, il vous faudra donc :

1. vous équiper du matos nécessaire (ordinateur, scanner, smartphone faisant appareil-photo-vidéo-GPS…)
2. numériser et sauvegarder maniaquement toutes vos archives personnelles (carnets d’adresse, documents administratifs, photographies, livres lus, musiques écoutées, mails échangés etc…)
3. vous convertir (ainsi que vos proches, votre employeur etc…) au « lifelogging », à savoir l’enregistrement en continu de votre quotidien sous forme de photos, fichiers audio, vidéos, parcours GPS…)
4. Et ce n’est pas le moins fastidieux, organiser soigneusement votre « e-mémoire » en classant le tout suivant une arborescence chronologique parfaite.

Explication rapide dans cette vidéo promotionnelle made in Microsoft:

Cliquer ici pour voir la vidéo.

Oui, imaginez un truc de dingues qui vous empêche finalement de vivre votre vie, de goûter l’instant présent, de savourer le fragile instant de bonheur d’une caresse de soleil sur le visage au premier jour du printemps car vous serez trop occupés à shooter les premiers bourgeons sur les arbres, ces gosses qui jouent devant vous, cette grappe de jeunes filles en fleur, tout en parlant tout seul pour noter-enregistrer vos impressions ! Qui n’a pas expérimenté l’impression de passer à côté de l’instant à force de trop vouloir le capturer en photo ou vidéo ?

Bien sûr Gordon Bell nous promet pour bientôt une automatisation de ce fastidieux processus de sauvegarde mémorielle à force de mini-caméra incorporée aux vêtements, de GPS intégré à votre terminal portable préféré permettant de restituer fidèlement vos impressions et vos sentiments, de retracer vos moindres pas.

Mais au fait à quoi rime tout cela ? Que fera-t-on vraiment de cette masse de souvenirs numérisés ? L’auteur avoue avoir stocké 261 gigaoctets sur son unité centrale, plus une centaine d’autres gigaoctects sur des serveurs extérieurs…Plus qu’il n’en aurait fallu pour sauver la bibliothèque d’Alexandrie consacré à un seul homme, si brillant soit-il ? N’est-ce pas un peu vain et pathétique ? Sauf à en faire un happening artistique et politique comme Hasan Elahi, qui soupçonné à tort d’activités terroristes aux etats-Unis, a décidé d’enregistrer sa vie en life-logging. Un geste militant en forme de pied de nez à la surveillance dont il est l’objet. A lire ici sur OWNI.

La numérisation : abolition du choix ?

Et un souvenir numérique vaut-il vraiment un vrai souvenir palpable ? La sensation d’un joli galet rond roulant dans votre main en souvenir d’un weekend en amoureux avec la femme de votre vie… est-ce que cela peut-être digitalisé ? Est-ce que cela tient sur une clé USB ? Et puis comment gérer cette fantastique masse de données sans l’oublier…ou devenir fou de nostalgie, obsédé par le passé, incapable de vivre dans l’instant présent ?

Dans une récente critique consacrée à ce livre Total Recall, Le Monde évoquait la nouvelle de Borgès “Funes ou la mémoire”: ou comment un jeune homme acquiert par accident le don de mémoire totale et en perd la raison, incapable de penser et vivre sa vie au présent tout en gérant ses souvenirs infinis…

Alors faire œuvre de mémoire oui, bien sûr. Mais pas de manière industrielle, robotisée, déshumanisée…Dans ce récent billet, Autant en emporte nos images, je disais ma nostalgie de la photo argentique qui obligeait à choisir minutieusement l’instant, la pose, l’exposition, la vitesse d’obturation pour faire LE cliché souvenir qui vous fera sourire encore dans 20 ans: « nous prenions des clichés pour garder le souvenir d’une bulle spatio-temporelle de bonheur, laisser un témoignage de nos fragiles existences, transmettre la mémoire familiale, témoigner de l’histoire en train de se faire…bref sourire à la vie et dire merde à la mort… ».

Aujourd’hui ce n’est plus pareil, ça change, ça change comme chantait Boris Vian dans la Complainte du Progrès :

Prendre non pas une, mais dix mais cent photos sans y penser. Les transmettre en quelques secondes d’un appareil numérique ou d’un smartphone sur l’écran d’un ordinateur, d’une tablette ou d’un téléviseur. Faire défiler paresseusement des centaines de clichés, stockées sur son PC, cocher ce qui nous plait, retoucher le cliché comme un chirurgien photoshop de l’image, diffuser une beuverie d’un soir ou un souvenir de vacances sur le réseau d’un clic et l’oublier immédiatement…

Pardon je m’autocite encore.

Le risque d’une e-surveillance consentie

Mais tout à son scientisme geek béat, Gordon Bell balaye, zappe presque toutes ces interrogations :

Total Recall va bouleverser le fait même d’être humain. A terme, l’avènement de ce programme constituera pour la prochaine génération un changement aussi important que l’ère numérique l’a été pour la notre.

Et nous revoilà partis dans le délire flippant de la « transhumanité » cher à Google, le meilleur ennemi de Microsoft…il n’y a pas de hasard. « Ce que nous essayons de faire c’est de construire une humanité augmentée, nous construisons des machines pour aider les gens à faire mieux les choses qu’ils n’arrivent pas à faire bien (…) Google veut-être le troisième hémisphère de votre cerveau », prophétisait récemment le patron de la Firme, Eric Schmidt. J’en parlais dans ce billet.

Pire l’auteur, qui dit avoir eu l’idée de MyLifeBits pour se « débarasser totalement du papier », élude carrément la question centrale de la possibilité d’une e-surveillance de nos vies numérisées par l’Etat et ses pseudopodes policiers arpenteurs du Net: « Comment ne pas craindre, par exemple, que le gouvernement nous espionne par le biais de nos e-souvenirs ? », se demande-t-il benoîtement. Comment en effet ne pas craindre d’être fliqué jusque dans notre intimité mémorielle quand déjà les caméras de surveillance scrutent nos villes et nos vies comme autant d’yeux inquisiteurs (voir la carte des 1300 nouvelles caméras prévues en 2011 à Paris sur OWNI?

Et bien Gordon Bell et son co-auteur Jim Gemmel ne craignent pas Big Brother et son Brave New World. Normal, ils travaillent pour Microsoft. Ils nous promettent la main sur le coeur un Little Brother qui serait chacun d’entre nous:

La face démocratique d’une société de surveillance globale dans laquelle les moyens d’enregistrement, au lieu d’être aux mains d’une autorité centrale unique, sont partagés entre des millions d’individus.

Tu parles Charles, moi je préfère garder mes souvenirs pour moi. Et si possible sous forme de vraies choses analogiques: une photo prise à Paros dans les Cyclades un été 1990 où le bleu Klein de l’azur claque sur la blancheur des maisons chaulées; le galet rond d’Etretat dont je vous parlais plut haut; un brin de lavande cueilli un jour en montagne par ma fille aînée; une mèche des cheveux blonds de sa cadette; un instant à deux rayonnant de lumière sur le toit de la maison Gaudi à Barcelone…et tant d’autres choses palpables, exhalant un parfum de douce nostalgie, un moment de bonheur, de grâce ou d’amour que jamais la numérisation ne pourra exprimer autrement que par une pâle copie fantôme.

“Après votre mort, le corpus d’informations ainsi constitué permettra même la création d’un « vous » virtuel. Vos souvenirs numériques et les traits de votre personnalité, sous forme fossilisée, formeront un avatar avec lequel les générations futures pourront converser”, fantasment les auteurs.

Ou comment accéder au désir si humain d’immortalité, le vieux rêve d’Alexandre et de Pharaon, la boucle est bouclée. Pour ma part, je ne sais si j’ai envie de finir sous forme d’hologramme 3D, radotant méthodiquement ma vie fossilisée dans un cimetière numérique. Je préfèrerais je crois laisser des choses de moi comme un jeu de piste, des écrits, des photos, des vidéos façon puzzle. A exhumer patiemment, sûrement pas en un clic. Si cela intéresse l’un de mes descendants ou quelqu’un d’autre. Et si demain surtout, on a encore la patience de donner le temps au temps des souvenirs…

Billet publié originalement sur le blog Sur mon écran radar sous le titre “Total Recall”, votre vie numérisée pour l’éternité ?

Photos FlickR CC : Amy Halverson ; Jurvetson ; Tony Hall.

]]>
http://owni.fr/2011/01/17/la-e-memoire-reve-transhumaniste-ou-cauchemar-deshumanise/feed/ 0
Google Books, libraire numérique depuis 2010 http://owni.fr/2011/01/10/google-books-libraire-numerique-depuis-2010/ http://owni.fr/2011/01/10/google-books-libraire-numerique-depuis-2010/#comments Mon, 10 Jan 2011 07:30:51 +0000 Olivier Ertzscheid http://owni.fr/?p=41097 Mes étudiants vous le confirmeront, j’avais dès 2006 annoncé que Google deviendrait un jour libraire. Et j’avais également indiqué qu’il le serait au plus tard en 2010. Il s’en est donc fallu de peu (25 jours), mais j’ai gagné mon pari :-) Le 6 décembre restera donc comme la date officielle de lancement de Google Edition : http://books.google.com/ebooks.

Disponible uniquement aux États-Unis, l’ouverture pour l’Europe (et la France ?) et annoncée pour le début 2011 (“first quarter 2011″).

Pas le temps de faire un billet d’analyse, je me lance donc, par défaut, dans une petite revue de liens qui permettront, je l’espère, de circonscrire les principaux enjeux de ce lancement. Car figurez-vous qu’en plus de ce lancement, Google a, ces derniers jours, multiplié les annonces. Mais d’abord une question.

Pourquoi lancer Google Edition maintenant et dans une (relative) précipitation ?

Parce que c’est bientôt Noël et parce que comme tous les foyers qui peuvent faire flamber leur Carte Bleue pour l’occasion sont déjà équipés de cafetières, de micro-ondes, d’ordinateurs, et de lecteurs DVD, tous les indicateurs et tous les analystes le disent : ce Noël sera celui des tablettes tactiles et autres e-readers (liseuses). L’iPad va faire un carton (même si je vous conseille d’attendre la prochaine version). Et outre-Atlantique, les ebooks vont se vendre comme des petits pains (ben oui, faudra bien remplir les sus-cités tablettes et autres e-readers). Donc c’eût été digne de la stratégie d’un vendeur de sable en Afrique sub-saharienne que de ne pas lancer Google Edition avant les fêtes de Noël (pour info, et d’après une étude de Forrester citée ici, “le marché US représente près de 1 milliard de dollars en 2010 et devrait tripler d’ici 2015″, d’autre part, ici, “le marché du livre électronique progresse : +200% de ventes en 2009 pour les États-Unis.”).

La question des chiffres

Épineuse. Pour certains, reprenant la communication officielle de la firme [en] pour certains donc, Google Edition c’est 3 millions de livres sur les 15 millions d’ouvrages numérisés à ce jour par le moteur, issus des catalogues de 35.000 éditeurs et plus de 400 bibliothèques (source). Pour d’autres, dans Google Edition on partirait sur “4.000 éditeurs pour environ 200.000 livres mis en vente. Les éditeurs recevront jusqu’à 52 % du prix de vente.” (source) La vérité est ailleurs probablement à chercher du côté du supplément livres du Los Angeles Times :

Google is working with all of the big six major publishing houses — Random House, Penguin, HarperCollins, Hachette Book Group (sic), Simon and Schuster and Macmillan — and thousands of smaller publishers to offer more than 250,000 in-print books for sale. Google eBooks will also launch with about 2.7 million public-domain books in its store, which can be accessed for free.

Voilà. 2,7 millions d’ouvrages du domaine public + 250.000 ouvrages sous droits = pas loin de 3 millions d’ouvrages, sur les 15 millions que Google dit avoir numérisé, et dans lesquels figurent au moins 60% d’œuvres orphelines qui ne seraient donc pas, pour l’instant et en attendant que la justice se prononce sur la dernière version du règlement Google, qui ne seraient donc pas dans l’offre de lancement de Google Edition.

La question des droits (et des ayants-droit).

Problème épineux et consubstantiel de Google Books (cf les différents procès et la mise sous coupe réglée du règlement afférent). Avant de lancer Google Edition, Google s’est aussi efforcé de faire bonne figure auprès des ayants-droit :

  • “meilleure accessibilité des contenus légaux depuis son moteur. (…) Une modification de l’algorithme de Google afin de faire remonter systématiquement les contenus identifiés comme légaux ne serait pas à exclure.”
  • nettoyage de l’auto-complétion (pour éviter les suggestions du type “Houellebecq… BitTorrent”)
  • “répondre en 24 heures aux demandes de retrait de contenus litigieux de la part d’ayants-droit”
  • “fermer les vannes d’AdSense aux sites pirates”

La question des DRM, des formats et des concurrents

On a beaucoup dit (et écrit) que la caractéristique de Google Edition serait l’absence de DRM. Faux [en]. Il y aura bien des DRM. Reste à savoir s’ils seront limités aux œuvres sous droits ou s’ils seront étendus aux œuvres orphelines. Cette question constituera un des points à surveiller tout particulièrement. Le modèle de l’allocation proposé par Google permettant en effet partiellement d’évacuer la question des DRM castrateurs, question certes sensible pour les ayants-droit et les éditeurs mais aussi et surtout facteur ô combien bloquant pour le décollage du marché.
La plupart des ouvrages disponibles sur Google Edition seront – c’était annoncé et cela reste une bonne nouvelle – au format open-source ePub. J’ai bien dit la plupart.
Ben… [en] des concurrents y’en a plein : Amazon, Apple, Amazon, Apple, Amazon, Apple. Peut-être aussi Barnes&Noble (plus gros libraire américain).

La question des (petits) libraires (indépendants)

Ben oui. Dans ce monde un peu fou de la librairie (et pas que dans celui-là d’ailleurs), le même Google qui était hier le grand méchant ogre est aujourd’hui en passe de devenir la planche de salut de la librairie indépendante [en]. Google leur fournirait les briques et le mortier (“brick and mortar”) nécessaires à la construction de leur librairie numérique. À moins qu’il ne s’agisse du goudron et des plumes nécessaires à son enterrement de première classe. Mais du coup, le grand méchant ennemi de la librairie indépendante reste Amazon et Google s’offre une relative virginité ainsi qu’une main d’œuvre qualifiée qui fera diligence pour aider le même Google à vendre… ses livres. Ou comment créer à moindre frais une chaîne de libraires franchisés Google (rappelons pour mémoire qu’il y autant de libraires indépendants en France que sur tout le territoire américain, et si la nouvelle est accueillie avec enthousiasme par l’alliance des libraires indépendants américains, l’enthousiasme risque d’être moins spontané du côté du Syndicat de la Librairie Française… )

With access to over three million titles in the Google system, a variety of e-book formats, and compatibility with most of the e-reading devices out there, independent bookstores have a powerful platform available to them. Without having to concentrate on the technical details of selling e-books, indies can focus on their “bread-and-butter” services like curation and personal book recommendations. (source)

More than 200 independent bookstores nationwide will be able to sell Google eBooks. (LATimes)

Créer une armée de libraires “Powered by Google”. (TechCrunch)

La question des supports de lecture

C’est là où Google Edition s’inscrit en rupture du modèle dominant avec sa stratégie de l’allocation. Mais on pourra aussi lire les ouvrages achetés sur Google Edition sur à peu près tou(te)s les tablettes/smartphones/e-readers/iPad (via une application en cours de développement)… à l’exception notable du Kindle d’Amazon :-)

La question du nuage (comme support de lecture)

Les ouvrages de Google Edition sont (et resteront pour la plupart d’entre eux) dans les nuages du cloud computing. Or on apprend que Google lancerait demain (mardi 7 décembre) son système d’exploitation Chrome OS, permettant d’équiper d’ici Noël les premiers Netbooks tournant sous Chrome OS, le même Chrome OS étant la première version à supporter le Chrome Web Store et son magasin d’application sur le même modèle qu’Apple (apprend-on ici). Donc ? Donc en plus des tablettes, smartphones, PC et e-books, Google se réserve aussi son Netbook comme potentiel support de lecture, et comme fournisseur d’applications pour sa chaîne de libraires franchisés. [maj : Google a bien lancé [en] le premier prototype de portable avec Chrome OS) 

La question du partage du gâteau

Houlala. Va falloir s’accrocher (voir par ici les “pricing options”, [en]) Plusieurs options donc. Les librairies indépendantes franchisées. Le modèle d’agence (c’est l’éditeur et non le libraire qui fixe le prix). On sait que, pour les ouvrages sous droits et uniquement ceux-là :

* l’éditeur touchera jusqu’à 52% du prix si l’ouvrage est vendu “sur” Google Edition (jusqu’à 45% s’il est vendu par un détaillant – ou un libraire partenaire)

Less than 10 percent of Google’s publishing partners asked for an agency deal, but they represent over half of the best-sellers in the store, the company said, and they get 70 percent of the sale price. (source)

Rappelons au passage que depuis le règlement Google (et même si celui-ci n’est toujours pas définitivement validé par la justice américaine), et concernant les œuvres orphelines, si les ayants-droit sont connus ils peuvent fixer le prix de vente, mais pour l’immense majorité des œuvres sans ayants-droit connus, et sauf accord particulier (comme dans le cas d’Hachette), c’est Google et lui seul qui fixera et modifiera comme il l’entend son prix (dans une fourchette de 12 tranches de prix comprises entre 1,99 dollars et 29,99 dollars)

La question du partage du gâteau (encore). Je fais et refais, depuis 2009, le pari avec mes étudiants que Google mettra en place sur Google Edition un équivalent du modèle AdWords permettant de rémunérer les auteurs non pas uniquement “au pourcentage des ventes” mais aussi – et peut-être surtout – “à la consultation”. D’autres (analyste chez Forrester [en]) ne sont pas loin de me suivre et font l’hypothèse de la création d’un “ad-supported publishing model” dans lequel Google vendra des liens sponsorisés (= proposera des campagnes AdWords) sur le contenu des ouvrages :

Where Dickens’s, “It was the best of times, it was the worst of times,” could end up sponsored by a Google AdWords campaign that reads, “Is your day feeling like the worst of times? Try our new sports drink to get your afternoon back on track.

Et le même d’ajouter :

First, books are the only medium left not significantly sponsored by advertising. From the Android Angry Birds game app to Pandora music streams to Hulu.com to the venerable NYT.com, advertising is essential to the success of nearly all media—analog and digital. The only reason book advertising has not happened is that the economics of distributing books have required that people pay for them—in a way they have never paid for the newspaper, magazines, or even music, where a majority of listening has always been radio-based.” (…) “the economics of publishing are swiftly moving away from an analog production model. (I blogged about this to much ado last month), which means that soon, we will no longer need to force the entire cost of a book on the buyer of the book, but instead can extract value from the reader of the book, in direct proportion to the value they get from it. In other words, the more pages they read (the more value they get), the more ads they see and the more value the publisher and author receive.

La question des oeuvres orphelines

Le réglement Google (settlement) n’ayant toujours pas été définitivement validé, reste la question de savoir si les oeuvres orphelines dont les ayants-droit ne sont pas connus figureront ou non dans le pack de départ de Google Edition. L’AFP et Letemps.ch semblent penser que non.
J’incline à penser que oui, parce que primo, bien malin celui qui réussira à les y dénicher, que deuxio, la “chaîne du livre sous droits” va avoir d’autres soucis immédiats à gérer en terme de positionnement et de choix stratégiques, et que tertio, le contrat avec Hachette risque de faire tâche d’huile et qu’une fois que la tâche sera suffisamment grande, Google pourra alors ouvrir en grand le robinet des oeuvres orphelines, sans grande crainte de représailles ou de procès.

J’allais oublier : la machine bizarroïde qui vous imprime et vous relie un livre de 300 pages en 5 minutes arrive en Europe [en]. Elle est déjà présente dans 53 bibliothèques et librairies des États-Unis. Je vous ai déjà dit que Google était partenaire de l’Espresso Book Machine ?

Moralité : Google Edition est en fait une librairie. Google Print était en fait une bibliothèque. Ne reste plus qu’à attendre le lancement de Google Library qui sera en fait une maison d’édition. Je verrai bien ça pour dans deux ans ;-)

Lire aussi l’expérience utilisateur et les réflexions d’Hubert sur La Feuille.

Sources utilisées pour la rédaction de ce billet (dans le désordre). Les ** signalent les articles particulièrement intéressants et/ou synthétiques (de mon point de vue) :

Google veut se refaire une image auprès des ayants-droits
Google eBooks propose 3 millions de livres numériques pour son lancement
Adobe announces adoption of ebook DRM by Google
Google eBooks is live: just in case Amazon, B&N, and Apple aren’t enough
Radio-Canada La revue du web – 6 décembre 2010
**Will Google eBooks Save Indie Booksellers?
Discover more than 3 million Google eBooks from your choice of booksellers and devices
** Google launches its eBooks store
Google’s New Bookstore Cracks Open the E-book Market
** The Ultimate Effect Of Google E-Books: A New Ad-Supported Model For Books
Google pourrait lancer Chrome OS mardi
Google nous invite pour une annonce Chrome
Google prêt à lancer le Nexus S
Google eBooks, la librairie en ligne est ouverte aux États-Unis
** Google Books overview
Google livres programme partenaires
** Google Editions : diviser pour mieux régner
First Espresso Book Machine in Continental Europe

Publié initialement sur le blog Affordance sous le titre Google édition : books.google.com/ebooks

Crédits photos flickr sous licence Creative Commons PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales Visualist Images ; digitalnoise ; Stuck in Customs

]]>
http://owni.fr/2011/01/10/google-books-libraire-numerique-depuis-2010/feed/ 5
Facebook, la vie téléchargée http://owni.fr/2010/11/18/facebook-la-vie-telechargee/ http://owni.fr/2010/11/18/facebook-la-vie-telechargee/#comments Thu, 18 Nov 2010 15:03:00 +0000 Olivier Ertzscheid http://owni.fr/?p=36160 Ca y est c’est fait. Sur mon compte Facebook, dans l’onglet “Account” > “Account settings”, j’ai vu apparaître le petit lien magique que j’attendais tant : “Download your information”

J’allais enfin pouvoir télécharger toutes mes données personnelles. Après avoir indiqué que “oui, oui, je suis sûr de bien vouloir les télécharger“, et une heure plus tard, j’ai reçu dans ma boîte mail un message de Facebook avec un lien d’activation pour accéder au précieux fichier.

Mais il m’a d’abord fallu doublement montrer patte blanche : une première fois en redonnant mon mot de passe (ok, précaution élémentaire), et une deuxième fois en jouant au jeu des photos de mes amis.

Je traduis :

Pour vérifier que vous êtes bien le propriétaire de ce compte, merci de reconnaître les personnes tagguées sur ces photos suivantes.

Il faut reconnaître 5 amis et on l’on n’a droit qu’à 3 erreurs (“I’m not sure“), soit 8 questions en tout. Le problème c’est que les photos affichées ne sont pas des portraits de vos amis, mais des photos prises au hasard dans le photostream de tous vos contacts Facebook, c’est à dire toutes les photos déposées par tous vos amis.

Et là première angoisse : je suis ami avec plein de gens, mais surtout j’ai plein “d’amis d’amis” et encore davantage “d’amis étudiant(e)s”. Et autant vous dire que je ne passe pas mon temps à regarder toutes les photos postées sur Facebook par tous mes “amis”. Et donc ça ne loupe pas, on me demande de reconnaître quel est l’ami qui se cache derrière ces photos :

Voilà voilà voilà … Donc ben du coup je n’ai plus droit qu’à 2 erreurs en espérant que les autres photos seront plus … explicites. Quelques reconnaissances plus tard, c’est gagné :

Une fois le téléchargement effectué, je me retrouve avec çà :

Le dossier avec :

  • mes photos de profil  (album-Profile Pictures.html)
  • la liste alphabétique de tous mes amis (friends.html)
  • les événements auxquels j’ai été convié (events.html)
  • mes courriers reçus sur facebook (messages.html)
  • tout ce que j’ai posté sur mon “mur” (profile.html), soit – en ce qui me concerne – l’équivalent de 150 pages Word, et ce qui m’a permis de retrouver la date précise de mon arrivée sur Facebook: c’était le 11 Juillet 2007 à 13h40 et mon premier statut disait: “At home”. Largement de quoi imprimer un aussi épais que futile “egobook”.

Le dossier avec :

  • toutes mes photos (c’est à dire en ce qui me concerne, uniquement 2 pauvres photos de profil)

Soit un dossier complet d’1,3 Méga-octets.

Remarque : ce dossier et les fichiers qu’il contient est un “à plat”. Ainsi, dans le fichier “profile.html” on retrouve bien – et on peut activer – les liens hypertextes postés sur mon mur ou dans mes “statuts”, mais on ne retrouve naturellement pas le graphe relationnel/navigationnel qui constitue le vrai trésor de guerre de Facebook, notamment – depuis l’activation de la fonctionnalité – les personnes qui ont “aimé” (= le fameux bouton “like”) tel ou tel statut.

Et maintenant un peu de maths

Sachant qu’un individu (moi en l’occurrence) peut être considéré comme un utilisateur type du réseau social Facebook, et sachant qu’il y a au moins 500 millions d’utilisateurs sur Facebook, quel est le poids des données personnelles détenues par Facebook ?

Solution : 500 millions multiplié par 1,3 méga-octets = 650 millions de mégaoctets.

Ce qui nous donne : 650 Téra-octets de données personnelles disponibles sur Facebook [EDIT: selon le commentaire d'un employé de Facebook posté sur le blog d'Olivier Ertzscheid, ce chiffre serait encore plus élevé, notamment parce que l'entreprise de Mark Zuckerberg a collecté plus de 160 téraoctets de photos sur la seule année 2007. Par ailleurs, Twitter stockerait pas moins de 4 pétaoctets (4.096 téraoctets) par an.]

65 fois la bibliothèque du Congrès

Sachant que “10 téraoctets pourraient contenir toute la collection des ouvrages imprimés de la bibliothèque du Congrès” (source), on peut donc supposer que Facebook détient au moins l’équivalent de 65 bibliothèques du Congrès uniquement composées de données personnelles. Celle-ci comptant plus de 33 millions d’ouvrages, cela fait donc l’équivalent de (33 x 65) : 2.145 millions de livres de données profilaires.

Et encore, je dis bien “au moins” car dans les profils Facebook ce sont les photos qui prennent le plus de place, que je n’en ai que deux (photos) dans le mien et qu’en moyenne mes amis sont plus proches d’une bonne cinquantaine (de photos toujours), et je ne vous parle même pas de mes “amis-étudiants” (il n’est pas rare de voir plus de 300 photos dans certains profils). Mais bon on va pas chipoter, l’ordre de grandeur me semble déjà suffisamment parlant …

Mon mur, ma bataille

L’équivalent de 150 pages Word pour moi en 3 ans, et pour 499.999.999 autres, 2.145 millions de livres de données profilaires dont probablement plusieurs centaines de millions également et uniquement remplis de ces traces profilaires, conversationnelles, le reste étant occupé par la documentation iconographique rétrospective des 500 millions d’habitants de cette communauté. Vertigineux.

Facebook en grand ordonnateur du nouvel ordre documentaire mondial?

Facebook est, par le nombre, la première communauté humaine de la planète numérique. Si l’homme est un document comme les autres, et si l’ordre documentaire du 21ème siècle sera celui d’un pan-catalogue des individualités humaines, Facebook est en bonne place pour remporter la mise ou pour en devenir à tout le moins le grand ordonnateur, le grand sachem de ce qui est “su”.

De la thésaurisation des profils au trésor de guerre

Au-delà des chiffres et des questions de “vie privée”, il faut relire ce billet de Tim Berners Lee, une nouvelle fois visionnaire, dans lequel il évoque le Giant Global Graph.

  • Le net est un graphe d’ordinateurs connectés.
  • Le web est un graphe de contenus connectés, dont Google est, pour l’instant, l’outil qui permet le mieux d’en sonder les profondeurs, d’en donner l’image la plus “complète” possible.
  • Les réseaux sociaux sont un graphe d’individus connectés, dont Facebook est, pour l’instant, l’outil qui permet le mieux d’en sonder les profondeurs, d’en donner l’image la plus “complète possible”.

L’enjeu est désormais de savoir qui sera le premier à pouvoir réunir la puissance des 2 graphes. La guerre des graphes a désormais officiellement commencée. Et comme toutes les guerres, elle fut d’abord larvée, chacun essayant de circonscrire au mieux ses frontières naturelles (les contenus pour Google, les profils pour Facebook).

Elle fut ensuite une série de petites offensives permettant de jauger les forces et faiblesses de l’adversaire en envoyant une petite armée le combattre sur son terrain : ce que tenta de faire Google en lançant “son” réseau social (Orkut), ce que tenta de faire Facebook en nouant alliance avec Microsoft pour s’installer – mais en restant dans ses frontières – sur le marché du “search”.

“Projet Titan”

Et puis un jour, à l’occasion d’une escarmouche, on sort l’artillerie lourde et on engage “officiellement” le début des hostilités. C’est désormais chose faite entre Google et Facebook.

L’escarmouche ce fut ce “cheval de troie” qui permettait à un nouvel arrivant sur Facebook d’importer rapidement l’ensemble de ses contacts Gmail pour densifier rapidement son réseau d’amis. Jusqu’à ce que Google exige une contrepartie, c’est à dire que les utilisateurs de Gmail puissent récupérer et importer – par exemple – leurs contacts Facebook. Un blocage par ailleurs rapidement contourné par Facebook.

Et l’on apprend (sur Techcrunch) que Facebook lancerait (demain lundi ?) son webmail, nom de code “projet Titan” (sic) :

Le réseau social proposerait ainsi à ses utilisateurs, qui sont plus de 500 millions dans le monde, une adresse email personnelle @facebook.com, permettant d’envoyer des mails à tous les internautes, qu’ils aient une messagerie Hotmail, Yahoo ou Gmail. Aujourd’hui, les membres de Facebook ne peuvent envoyer de messages qu’aux autres membres du site.

(Source)

Le courriel et les webmails sont, pour ces deux acteurs, un cheval de Troie idéal et hautement stratégique permettant d’assiéger la place-forte de nos pratiques connectées :

  • D’abord parce que les mails  rassemblent, parce qu’ils “synthétisent” notre réseau relationnel (nos “contacts”),
  • Ensuite parce qu’ils sont le point d’entrée le plus aisé vers le cloud computing, le stockage “dans les nuages” ou plus exactement sur les serveurs de ces grandes compagnies de pans entiers de nos vies sociales (pièces jointes, documents de travail, photos, etc …)
  • Parce qu’ils contiennent également ce que nous avons à raconter de plus “intime”, de plus “personnel” et qu’ils permettent donc d’affiner encore l’affichage de publicités “contextuelles” en scannant le contenu desdits mails,
  • Enfin parce que les webmails peuvent, au sein d’un écosystème semi-fermé (comme Facebook) ou semi-ouvert (comme Google et sa galaxie de services), constituer un point pivot autour duquel hiérarchiser l’ensemble des autres données affiliées à notre profil, à notre “empreinte numérique”.

Techcrunch souligne ainsi que “Facebook aurait les moyens à la fois de hiérarchiser les courriels et de les intégrer à ses autres fonctions (partage de photos, calendrier etc.) d’une façon très convaincante.” (source)

Thesaurus : From society of query to society of contact

Google est depuis longtemps emblématique de ce que Geert Lovink appelle une “Société de la requête”. Facebook représente lui, les promesses d’une société des contacts étendus, ou distendus. Or requêtes comme contacts représentent la conquête et l’apprentissage d’un langage commun à l’humanité tout entière ; plus précisément un thésaurus, c’est à dire :

Un type de langage documentaire qui consiste en une liste de termes sur un domaine de connaissances, reliés entre eux par des relations synonymiques, hiérarchiques et associatives.

En l’occurrence, de l’approche commune de Google et Facebook on pourrait dire qu’elle vise à faire émerger et à circonscrire un type de langage documentaire qui consiste, en une liste de requêtes (déposées sur le moteur ou sur chacun de nos “murs”), portant sur l’ensemble des domaines de connaissance existants (des plus fondamentaux aux plus futiles).

Ces requêtes sont reliées entre elles par des relations lexicales (ingénierie linguistique) et associatives “amicales” ou “contactuelles” (ingénierie de la recommandation reposant sur des graphes relationnels) permettant de hiérarchiser l’ensemble des requêtes et des profils en fonction du contexte de la requête et/ou du profil du requêtant.

Moralité. L’étymologie du mot thésaurus désigne, en latin, le “trésor”. De ce trésor là nous n’avons pas encore fini de mesurer la valeur. De ce trésor là nous connaissons déjà ceux qui veulent en être les grands avaleurs.

Cet article a initialement été publié sur Affordance

__

Crédits photo: Flickr CC dbking, Eneas, Mosman Library, malias

]]>
http://owni.fr/2010/11/18/facebook-la-vie-telechargee/feed/ 15
Des « Robins des Bois » libèrent les livres de Google Books http://owni.fr/2010/10/13/des-%c2%ab-robins-des-bois-%c2%bb-liberent-les-livres-de-google-books-sur-internet-archive/ http://owni.fr/2010/10/13/des-%c2%ab-robins-des-bois-%c2%bb-liberent-les-livres-de-google-books-sur-internet-archive/#comments Wed, 13 Oct 2010 10:27:16 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=31445 Hier, sous le billet que j’avais consacré cette semaine aux livres du domaine public dans Google Books, un internaute nommé Pablo Iriarte a laissé un très intéressant commentaire, qui m’incite à revenir sur cette question dans un nouveau billet.

Visiblement, les éditeurs ne sont pas les seuls à essayer de récupérer des ouvrages scannés par Google pour les réutiliser à leurs propres fins. Des utilisateurs d’Internet Archive auraient procédé à des téléchargements massifs (900 000 livres !) pour les charger dans Internet Archive, afin qu’ils puissent être débarrassés des restrictions d’usage imposées par Google et regagner ainsi pleinement le domaine public.

Un procédé très astucieux

Ces Robins des Bois exploiteraient une faille des conditions d’utilisation de Google Books. Celles-ci interdisent en effet d’extraire du contenu de Google Books en procédant à des « requêtes automatisées » (type aspiration de base de données), mais rien n’interdit à une myriade d’individus de venir télécharger quelques ouvrages pour les déposer dans Internet Archive. Google n’a pas la possibilité de les attaquer, pas plus certainement qu’il ne peut agir contre Internet Archive, dans la mesure où le site ne fait qu’héberger des contenus chargés par ces usagers.

Extraits des travaux de Charles Darwin publié par Archive.org

J’avais déjà eu vent de telles pratiques au détour d’un billet de mars dernier écrit par Peter Hirtle sur LibraryLaw Blog. Il s’interrogeait à propos de ces agissements : « One has to wonder about the utility of well-meaning efforts such as those of the Internet Archive to capture and store copies of the Google scans« . En cherchant bien dans les forums d’Internet Archive, on trouve effectivement des discussions relatives à des chargement de livres du domaine public extraits de Google Books (voyez cet échange du 29 juillet 2010).

Un watermark contesté

Ailleurs, on apprend également que des utilisateurs d’Internet Archive font disparaître le watermark « Numérisé par Google » que la firme appose au bas de toutes pages des ouvrages de sa bibliothèque numérique », car ils considèrent qu’une telle marque n’a aucune valeur juridique, lorsqu’elle est apposée sur un ouvrage du domaine public.

This would be illegal on Google’s part since no one can copyright or restrict the text part of a public domain item [...] we can and should remove their watermarks, since once again this is after all public domain stuff. The founding fathers of the United States would turn-over in their graves is the actually saw what the political scum in this country have done to the copyright laws. Protection was never meant to be for all eternity or for some parasitic mega-corporate mass-media corporations.

Une fois « libérés » dans Internet Archive, les livres sont placés sous le statut « Public Domain » qui permet tout type de réutilisation, y compris à des fins commerciales.

Finalement, à la lumière de cet exemple, comme de celui que j’avais repéré mercredi, on se rend compte que les restrictions que Google tente d’imposer pour verrouiller son contenu sont peut-être beaucoup plus fragiles qu’on ne pourrait penser. Et ce qui va également dans ce sens, c’est que malgré ces extractions massives, Google n’a pas réagi pour l’instant.

Merci à Pablo d’avoir attiré mon attention sur ce point. Je copie ici in extenso son commentaire qui vous apportera des précisions supplémentaires :

J’ai réalisé il y a quelques semaines que plus de 900 000 livres avaient été extraits à partir de Google Book Search et archivés sur Internet Archive. Ce « détournement » des documents du domaine public, scannés par Google à partir des fonds des bibliothèques m’a bien plu car c’est un joli cas d’arroseur arrosé… le même « fair use » évoqué par Google peu alors être utilisé par un autre organisme comme l’internet archive pour se justifier.

Malgré le fait que les PDFs ne sont pas diffusés par l’archive (il y a toujours un lien sur la version de Google qui pourrait compenser l’abus) le full text est bel et bien proposé dans différents formats au téléchargement et à la consultation en ligne via son propre système.

Selon la courte explication donné par Internet Archive sur cette page :

« Digitized books from many different libraries from the Google Book Search program. These digital files have been downloaded from the Google site and uploaded to the Internet Archive by users. While these books may be old enough to be in the public domain, but there is no guarantee by anyone of their legal status. These books have been made text searchable as a finding aid and downloading refers to Google’s site. Please refer to Google’s site for any rights issues or restrictions. »

Ils ont trouvé la parade qui va dans le même sens que celui montré dans ce billet : si les documents ont été extraits par les utilisateurs, cela exclue l’extraction par des moyens automatiques tant redoutée par Google. Cela me paraît très intéressant car, au final, si les utilisateurs se mettent à télécharger en masse les PDF de Google des œuvres du domaine publique, à faire tourner l’OCR dessus et rediffuser sa propre version en texte brut rien ne pourrait les empêcher.

En regardant de près les 900 000 documents on voit très vite que c’est toujours le même utilisateur qui a fait le boulot, ce qui est encore plus surprenant ! Mais tout s’explique quand on lit son code d’utilisateur : « TPB » (les pirates sont encore parmi-nous, hip-hip !)

J’ai tenté de chercher des explications ou un semblant de partenariat du côté de Google ou ailleurs et je n’ai rien trouvé pour le moment, jusqu’à la parution de votre billet qui ajoute une nouvelle lumière et un trou inattendu pour lequel ces documents peuvent retourner dans le domaine public. Le plus drôle de l’histoire est que maintenant il y a des livres pour lesquels la version européenne de Google Books ne donne que des extraits mais qu’on peut télécharger complètement via Internet Archive car ils ont exploité le texte intégral fourni par la version américaine du moteur, par exemple cette version des travaux de Charles Darwin publié en 1896, qui dépasse la date fatidique de 1870 pour nous, pauvres européens.

Je me réjouis de voir la réaction de Google (si réaction il y en a…) mais je doute qu’ils tentent quelque chose contre ce détournement car ils attaqueraient le principe fondateur du fair-use qui équivaudrait à se tirer une balle dans le pied. Et finalement ce ne sont que 900’000 livres…

>> Article publié initialement sur S.I.Lex

>> Illustration FlickR CC : Jameson42

]]>
http://owni.fr/2010/10/13/des-%c2%ab-robins-des-bois-%c2%bb-liberent-les-livres-de-google-books-sur-internet-archive/feed/ 3
Temps de calcul humain disponible http://owni.fr/2010/10/12/temps-de-calcul-humain-disponible/ http://owni.fr/2010/10/12/temps-de-calcul-humain-disponible/#comments Tue, 12 Oct 2010 16:42:47 +0000 Roud http://owni.fr/2010/10/12/temps-de-calcul-humain-disponible/ Où comment même le troll peut contribuer au progrès de l’humanité…

De très nombreux blogs utilisent des CAPTCHA pour empêcher les robots spammeurs de mener leur sombre ouvrage. Ce joli nom aux consonances un peu soviétiques est l’acronyme de “Completely Automated Public Turing test to tell Computers and Humans Apart”, soit en bon français “test de Turing Public Complètement Automatisé permettant de reconnaître les Ordinateurs des Humains”.

Déchiffrer un CAPTCHA

Turing, l’un des grands génies multidisciplinaires du XXe siècle, avait proposé le test suivant : imaginez que vous chattiez avec deux interlocuteur inconnus, l’un étant un homme, l’autre une machine, comment feriez-vous pour les distinguer ? (dans un genre un peu différent il y a le fameux psy d’Emacs). A priori, plus la machine est intelligente, plus il va vous falloir du temps pour la distinguer de l’homme.

La voie la plus rapide est de tester les compétences analytiques et synthétiques de votre interlocuteur dans des domaines pour lesquels l’ordinateur est toujours bien inférieur à l’homme. Un exemple est la reconnaissance de formes, utilisée donc dans nos CAPTCHA : avant de pouvoir laisser un commentaire, l’interlocuteur doit reconnaître des caractères déformés, et les taper dans une fenêtre.

Si cette tâche est typiquement assez difficile pour un ordinateur, elle reste très facile pour l’homme, qui en une fraction de seconde mobilise les ressources de son puissant cerveau pour déchiffrer le CAPTCHA (et avoir le droit de laisser son commentaire pertinent ou son flame).

Du gâchis ? Plus maintenant !

Mais quel gâchis quand on y pense ! Tous les jours, 100 millions de CAPTCHA sont déchiffrés sur les blogs, sites, etc. C’est autant de tâches d’analyse complexe insolubles par des ordinateurs (par définition) et réalisées par des internautes. D’où l’idée derrière reCAPTCHA : “recycler” ce temps de calcul humain disponible gratuitement pour suppléer les ordinateurs sur les problèmes qu’ils ne savent pas à résoudre. Les détails de l’algorithme et la philosophie de la méthode sont exposés dans un article paru cette semaine dans la prestigieuse revue Science.

Le but du jeu ici est d’aider à la numérisation de livres, afin de préserver la connaissance humaine et de la rendre accessible au plus grand nombre. Les pages des livres sont scannées, et chaque mot est transformé en image bitmap par un logiciel approprié. Un autre logiciel de reconnaissance optique de caractères essaie ensuite de reconstituer le mot à partir de cette image.

Le problème est qu’environ 20% des mots ne peuvent être reconnus automatiquement par les logiciels. C’est là qu’entre en jeu reCAPTCHA : il utilise les capacités intellectuelles des internautes laissant des commentaires sur les blogs pour lire les mots que les ordinateurs ne peuvent pas lire.

En effet, reCAPTCHA vous demande de reconnaître deux mots pour pouvoir laisser un commentaire. Pour l’un des mots, reCAPTCHA connaît la réponse : il s’agit d’un des mots déjà déchiffrés par d’autres humains, mais non reconnaissable par un ordinateur. C’est sur ce mot-ci, appelé “mot de contrôle” qu’on testera si vous êtes vraiment un internaute ou un robot spammeur.

L’autre mot est le mot inconnu que l’ordinateur ne sait pas déchiffrer, le mot “test”. C’est sur ce mot qu’on vous mettra réellement à contribution : reCAPTCHA va comparer votre proposition aux propositions d’autres internautes sur ce mot. Si les trois premières personnes tombant sur ce mot proposent la même lecture et qu’il n’est pas reconnaissable automatiquement, ce mot est considéré comme déchiffré et sera utilisé comme mot de contrôle futur. Si les réponses humaines sont plus variables, ce mot reste comme un mot test et on additionne le nombre de possibilités proposées par les internautes pour ce mot. Dès qu’une proposition a plus de 2.5 voix [1] , ce mot est considéré comme lu.

Évidemment, il y a des cas où les mots ne sont pas du tout lisibles. Dans ce cas, vous pouvez demander un autre CAPTCHA à reCAPTCHA – il y a un petit bouton “reload” à côté du CAPTCHA. Si plus de six utilisateurs demandent à changer de CAPTCHA pour un même mot, le mot est considéré définitivement comme illisible et est sorti des bases de données de reCAPTCHA [2] .

L’ efficacité de reCAPTCHA a été évaluée sur 50 articles extraits des archives du New York Times entre 1860 et 1970, pour un total de 24 080 mots. 99.1 % des mots ont pu être déchiffrés par reCAPTCHA (216 erreurs), contre 83.5 % des mots pour de simples logiciels de reconnaissance automatique. Un taux de 99 % est en général le taux de réussite “professionnel” : pour l’anecdote, un des professionnels humains “témoin” travaillant sur les mêmes textes a effectué 189 erreurs, presque autant que reCAPTCHA.

Cependant, les erreurs de reCAPTCHA et les erreurs humaines sont de natures différentes : reCAPTCHA est plutôt sensible aux erreurs de “reconnaissance” des mots, par exemple le logiciel va couper des mots au milieu ou au contraire grouper des mots ensemble, tandis qu’un humain va “bêtement” se tromper en faisant une faute typographique ou orthographique…

reCAPTCHA fonctionne depuis 2007. Après un an, il avait été installé sur 40 000 sites web et 1.2 milliards de CAPTCHA avaient été déchiffrés, soit 440 millions de mots déchiffrés correctement. Si on considère que 25 % des mots dans un livre scanné sont mal reconnus, cela correspond à la bagatelle de 17 600 livres transcrits manuellement. En 2008, les créateurs de reCAPTCHA estimaient que l’équivalent de 160 livres par jour sont déchiffrés par reCAPTCHA, qui fournit l’équivalent du travail de 1 500 personnes déchiffrant un mot par seconde et travaillant 40 h par semaine.

En plus d’être utile, reCAPTCHA est plus efficace qu’un CAPTCHA traditionnel : en effet, les algorithmes des robots spammeurs peuvent “apprendre” à lire des CAPTCHA dans la mesure où les déformations habituelles sur les CAPTCHA sont faites numériquement. Or, les distorsions des mots imprimés sont beaucoup plus aléatoires, puisqu’il s’agit de “vraies” distorsions dues à des problèmes d’impression, des problèmes du papier, sans compter le bruit numérique dû au passage au scanner, etc.

Du crowdsourcing à toutes les sauces

Comme l’expliquent les auteurs, reCAPTCHA est la mise en pratique d’une idée fascinante, qu’ils appellent “human computation” (pouvoir de calcul humain ?). C’est une petite rupture dans notre vision de l’ordinateur : au lieu d’essayer d’améliorer les machines pour en faire des équivalents humains, tâche peut être simplement impossible à long terme, on utilise la puissance d’internet pour mettre en réseau des hommes afin de résoudre les problèmes complexes insolubles par la puissance de calcul brute des ordinateurs.

On parle ici de numérisation de livres, mais il existe aussi d’autres projets, comme Fold It, un jeu en ligne dans lequel les gens essaient de déterminer la structure des protéines, ou encore Galaxy Zoo dont nous avait parlé Dr Goulu. On peut imaginer que pour les grands défis numériques de demain, la mission de l’ordinateur ne sera alors que la mise en réseau et l’exécution en parallèle de tâches lourdes mais simples ; mais le vrai pouvoir de pensée, la vraie créativité resteront humaines.

J’aime bien cette idée également pour son corollaire un peu utopique. Qui pourra breveter une protéine dont la structure aura été trouvée grâce au calcul humain parallèle volontaire ? L’utilisation massive et volontaire des capacités des gens ne pourra pas être marchandisée, et le pouvoir de calcul humain deviendrait alors un pouvoir tout court, authentiquement démocratique …


[1] Une proposition d’un logiciel de reconnaissance optique de caractères comptant pour 0.5 voix
[2] Je suis personnellement un peu paresseux et j’ai tendance à abuser de ce bouton, dorénavant j’essaierai quand même de proposer quelque chose…

Références

Crédit photo CC FlickR par labguest

>> Ce billet a été initialement publié sur le blog de Tom Roud.

]]>
http://owni.fr/2010/10/12/temps-de-calcul-humain-disponible/feed/ 3
Quelle filière industrielle pour la numérisation du patrimoine ? http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/ http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/#comments Thu, 01 Jul 2010 16:11:27 +0000 Christian Fauré http://owni.fr/?p=20934

Le contexte de la consultation sur le Grand Emprunt

La cacophonie et la mécompéhension autour du Grand Emprunt, et plus précisément sur le volet numérisation, font qu’on est actuellement dans une situation de crise, au sens propre du terme : quelque chose va se décider.

Au départ, c’étaient 150 millions qui devaient être alloués aux institutions pour qu’elles puissent poursuivre et accélérer les projets de numérisation ; au final ce ne sont plus que des montants de prêts (donc remboursables avec intérêts) pour favoriser la mise en place d’une filière industrielle du numérique, basée sur des partenariats publics/privés.

On sait que l’actualité de la crise économique de ces derniers mois a certainement beaucoup favorisé la formulation très libérale de la consultation publique (le développement du « machin numérique ») lancée par le secrétariat de la Prospective et du Développement de l’économie numérique. De plus, dans le cadre d’une période d’austérité et de restrictions budgétaires importantes dans les dépenses de l’État, le Grand Emprunt devient un dossier beaucoup particulièrement épineux pour le gouvernement : difficile de dire « on fait les valises et on rentre » après avoir fait de la relance par l’innovation un axe important de la stratégie française.

Deux tentations s’opposent donc entre celle du ministère de la Culture et celle du ministère des Finances : le premier veut continuer à croire à la nécessité d’une politique culturelle tandis que le second tente de radicaliser les choix qui devront être faits sur la base exclusive du principe de rentabilité. Il n’y a donc plus de consensus au sein même du gouvernement sur l’avenir du Grand Emprunt, et les différentes institutions qui doivent participer à la solution (BnF, bibliothèques municipales, INA, IRCAM, Cinémathèque, Cité des Sciences, archives, musées, etc.) ne comprennent plus la règle du jeu, qui semble par ailleurs changer chaque jour en ce moment.

La vision qui est présentée ici est une tentative de réponse à la consultation publique sur le volet numérique. Elle a l’ambition de sortir par le haut des apories dans lesquelles la question de la numérisation du patrimoine dans le cadre du grand emprunt se retrouve aujourd’hui.

La publicité est-elle la solution ?

L’activité industrielle autour de la numérisation de contenus culturels et patrimoniaux est l’activité de numérisation qui est aujourd’hui la moins rentable si on la compare aux archives, cadastres et autres documents administratifs (littérature grise). D’autre part, on sait que Google a beaucoup investi sur cette activité avec sa plate-forme Google Books dont on commence à peine à entrevoir l’ampleur. Quel industriel voudrait, dans ces conditions, prendre le risque d’investir sur un secteur d’activité à faible potentiel rémunérateur tout en ayant la machine de guerre de Google en embuscade ? Soyons clairs : personne. Il faut donc poser le problème différemment.

Commençons pour cela par évacuer toutes les fausses bonnes idées que l’on peut entendre sur le modèle d’affaire qui pourrait rendre cette filière numérique rentable. Pour cela il faut d’abord savoir que la numérisation d’un ouvrage n’est, en moyenne,  rentabilisée qu’au bout de vingt ans, uniquement en ce basant sur le service de reproduction que propose la BnF. C’est une moyenne car, bien évidemment, certains ouvrages ne font l’objet d’aucune demande de reproduction. Quand se pose la question de savoir comment ce seuil peut être abaissé ne serait-ce que sur dix années, la réponse que j’entends systématiquement est : la publicité.

La publicité est généralement le joker que l’on avance quand on est à court d’idées. Et c’est assurément le modèle d’affaire le plus simple à proposer : il me manque 100 millions ? Qu’à cela ne tienne, la pub fera le reste. Comment et sur quelles bases ? La réponse est généralement plus évasive. Faut-il monter un mécanisme et une régie publicitaire en propre ? Faut-il s’appuyer sur les solutions clés en mains proposées par Google ? Cette dernière réponse serait pour le moins ironique puisque Google aurait une part importante du bénéfice publicitaire sans avoir investi dans la numérisation. Faire sans Google, c’est à l’inverse prendre le risque de se retrouver dans le collimateur d’un industriel du web qui s’y connaît et qui a les moyens de ses ambitions.

On préférera donc essayer de composer avec Google plutôt que de le concurrencer sur son propre terrain en faisant « Cocorico ! ». Les arguments basés sur la valorisation via un modèle d’affaire fondé sur la publicité ne tiennent pas la route, encore moins quand l’on sait que la valeur publicitaire sur le web, comme l’avait écrit Tim O’Reilly dès 2007, tend à se diluer très fortement. C’est la raison pour laquelle Google doit indexer toujours plus de contenus, nativement numériques ou à numériser,  pour amortir la baisse tendancielle de la valeur unitaire et nominale de la publicité.

Que vaut le numérique ?

Retour à la case départ : comment valoriser la numérisation du patrimoine ? Songeons-y un instant, si l’on se donne tant de mal pour imaginer un modèle d’affaire viable pour une filière industrielle de numérisation, c’est peut-être parce que le numérique, de manière tendancielle, ne vaut rien. Le numérique a un coût, surtout lorsqu’on doit numériser, mais, une fois l’investissement réalisé, financièrement et en tant que tel, il ne vaut plus rien. Soyons plus précis : un fichier numérique ne vaut rien. Et c’est bien la raison pour laquelle le monde de l’édition freine des quatre fers lorsqu’il s’agit de faire circuler un fichier numérique existant (même pour en donner une copie pour archive à une institution, la plupart refusent). Un fichier numérique en circulation, c’est de la nitroglycérine pour celui qui en attend une source de revenu.

Acceptons donc cette thèse, qui est aussi une hypothèse de travail, que le fichier numérique ne vaut rien. Et vérifions cette proposition :

  • pour les institutions, c’est généralement le service de reproduction qui est la principale source de revenu, c’est-à-dire le retour à l’impression papier.
  • pour les plates-formes de diffusion de contenus numériques, on sait bien que ce n’est pas le fichier numérique que l’on paye mais un écosystème technologique (format de fichiers propriétaires, logiciels verrouillés, périphériques spécifiques, fonctionnalités d’achat rapide brevetées, etc.)
  • pour d’autres initiatives plus confidentielles mais notables (par exemple PublieNet), c’est la qualité d’une présence sur le web et la sensibilité de la communauté des lecteurs/clients qui fait la différence : entre l’éditeur numérique et les lecteurs/acheteurs, il y a un crédit et une confiance.

La valeur d’un fichier numérique a donc besoin d’un service autre que la simple diffusion pour pouvoir avoir une valeur financière.

Le service de reproduction doit devenir le premier industriel d’impression à la demande

Loin d’enterrer les poussiéreux services de reproduction, il faut les muscler. Ces services, qui aujourd’hui nous semblent d’un autre âge, doivent se doter d’un service d’impression à la demande digne des autres acteurs leaders sur ce créneau. L’économie d’échelle qu’ils peuvent avoir, qui plus est sur la base d’oeuvres particulièrement attrayantes ne peut qu’être profitable. Cette re-fondation peut ramener dix ans, au lieu des vingt actuels, le délai d’amortissement d’une numérisation.

La chose n’est pas gagnée d’avance pour autant : il faut une plate-forme web en self-service qui demande du travail, il faudra être très rapide et avoir une logistique aussi affûtée que celle d’Amazon, a minima sur le territoire français. L’objectif est clairement de livrer au domicile d’un client l’impression d’un ouvrage relié de qualité en moins de 48 heures, et à peine plus s’il y a une demande d’impression personnalisée.

Sur cette voie, il va y avoir des frictions avec les plate-formes de distribution des éditeurs de la chaîne du livre. Mais pas dans l’immédiat puisque les modèles sont actuellement différents (pas d’impression à la demande, pas de self-service et pas de livraison au particulier), mais si la plate-forme d’impression à la demande est un succès, elle pourra proposer ses services différenciants aux éditeurs (traditionnels, mais aussi numériques) : par exemple proposer des « templates » de formats variés et personnalisables. N’oublions pas que près des trois quarts du coût d’un livre représentent les coûts d’impression, de distribution, de diffusion et de points de vente.

Le cas Gallica

Comment doit s'articuler le lien entre la BnF et Gallica ?

La filière de numérisation peut donc trouver un premier modèle économique dans l’impression. Pour où l’on voit que la valorisation de la numérisation se fait d’abord sur… l’impression. Mais se pose toujours la question de la diffusion sous format numérique et en ligne. Premier constat : c’est la vocation de Gallica. On comprendra dès lors que la filière numérique qui est appelée de ses vœux par le gouvernement aura du mal à accepter de faire le travail de numérisation pour que le fruit de son investissement se retrouve diffusé en ligne gratuitement sur Gallica.

Gallica devra être repensée, et pour commencer il faut que la bibliothèque numérique quitte le giron exclusif de la BnF. Cela veut dire que Gallica aura le statut d’un établissement public-privé dans lequel l’ensemble de plate-forme technologique sera possédée et gérée par le consortium privé investissant dans la filière numérique.

Statutairement, la BnF doit garder le contrôle et la maîtrise de la politique culturelle que porte Gallica. Mais cette maîtrise ne sera plus exclusive, elle devra être partagée car si cette bibliothèque en ligne se nourrit des ouvrages numérisés, et il faudra bien un modus vivendi et des droits de quotas pour chacun : la BnF peut vouloir numériser en premier des ouvrages qui ne sont pas jugés commercialement opportun pour le partenaire privé. Un système de quotas, qui devra évoluer dans le temps, doit être mise en place. Par exemple, sur les cinq premières années, sur dix ouvrages numérisés, le partenaire privé pourra en choisir cinq, tout comme la BnF. Par la suite, les résultats de la filière numérique serviront de référent pour faire évoluer les quotas : si la filière est sur le chemin de la rentabilité le ratio peut s’infléchir en faveur de la BnF, ou l’inverse si la rentabilité tarde à se faire jour. L’essentiel est de ne pas figer la formule et d’y introduire une variable dépendant de la rentabilité, sans quoi tout l’édifice s’effondre.

Cette réorganisation du statut juridique de Gallica devra nécessairement initier une refonte de la politique de gestion des droits des oeuvres qui n’est pas opérationnelle en l’état actuel (une licence sur mesure que ne peuvent pas exploiter les robots, et que d’ailleurs personne ne comprend vraiment).

Bien évidemment, d’un point de vue technologique, la plate-forme de service d’impression évoquée précédemment sera nativement intégrée à Gallica, on peut même forcer le trait en disant que Gallica ne sera qu’un module de la plate-forme d’impression.

Les métadonnées : clés de voûte de la nouvelle filière industrielle

Aussi étonnant que cela puisse paraître, dans cette consultation publique sur « le développement de l’économie numérique », il n’y est jamais question de métadonnées. Le mot n’y apparaît même pas une seule fois le long des trente-neuf pages du document. C’est proprement sidérant. Et ça l’est d’autant plus que la politique industrielle qui va être mise en place devra placer la question des métadonnées au cœur de tout le dispositif industriel.

Si l’impression à la demande était le volet diffusion papier et Gallica le volet diffusion numérique, ces deux activités passent à une niveau supérieur grâce à la politique sur les métadonnées. La richesse numérique de notre patrimoine est directement proportionnelle aux métadonnées qui le décrivent. Le trésor des institutions patrimoniales réside aussi et surtout dans leurs catalogues et leurs thesauri : tout comme on ne peut gérer un patrimoine physique sans métadonnées la question devient encore plus urgente quand l’oeuvre est numérisée : une politique numérique sans politique des métadonnées n’est qu’une chimère, un délire, une schwarmerei comme disait Kant.

Plutôt que de me répéter, je vous renvoie ici à ma note sur Les enjeux d’une bibliothèque sur le web où il était question des orages sémantiques mais aussi d’étendre la pratique de gestion d’un catalogue d’oeuvres à une pratique de gestion d’un catalogue des discussions et des polémiques relatives à ces oeuvres. Ainsi, fort de ce nouveau positionnement, et sur la base de sa nouvelle plate-forme technologique, la nouvelle filière industrielle du numérique pourra proposer des outils avancés à l’Éducation nationale pour doter l’enseignement d’un outil d’annotation et de contribution qui dépasse la vision simpliste et fade des « like », et donne enfin le pouvoir aux enseignants d’enseigner.

Chaque plate-forme de diffusion des oeuvres numériques rencontre très vite sa limite dans les faiblesses de sa politique des métadonnées. Le cas d’iTunes est représentatif : c’est une panique monstre pour faire des découvertes dans le catalogue, c’est pourtant paradoxal quand on sait que, même sur iTunes, les métadonnées (titre, auteur, artistes, jaquette, etc.) sont la vraie valeur des fichiers numériques (Cf. Quand les métadonnées ont plus de valeur que les données).

Pour les oeuvres qui sont du ressort de la BnF, le travail de bascule de l’ensemble des catalogues au format du web sémantique avec leur diffusion sur le web a déjà été initié : cette démarche est la clé de voûte, à la fois technologique et économique, de tout le système. Pour les oeuvres audios et vidéos (des oeuvres de flux), les outils d’annotation contributives (avec des métadonnées BottomUp et TopDown) doivent être développés en complément des catalogues descriptifs existants.

Le catalogage des orages sémantique permet également d’obtenir tout un appareil critique issu des informations collectées via le dispositif des orages sémantiques Si celui-ci est géré par la BnF, on peut réussir à mener une politique industrielle des technologies numérique dont le coeur du dispositif s’appuie, et trouve son crédit, dans la politique culturelle. Une logique économique exclusivement consumériste n’est pas une fatalité, loin s’en faut, car ce qui est brièvement décrit ici est un chemin vers une économie de la contribution financièrement rentable.

*

On peut donc sortir de l’alternance destructrice entre :

  • d’un côté une logique libérable de la privatisation adossée à une vision exclusive sur les retours sur investissement à court terme, grâce au dieu de la publicité ;
  • de l’autre une politique culturelle maintenue sous perfusion publique, mais à perte (la logique de la réserve d’indiens).

Que le Grand Emprunt accouche de quelque chose ou non, nous n’échapperons pas à cette lancinante question : quelle politique industrielle pour les technologies de l’esprit ? La seule réponse crédible passe par le positionnement de la politique culturelle au cœur de l’outil industriel, pas à côté. « Trade follows film » disait le sénateur américain McBride en 1912 : on va peut-être arriver à le comprendre cent ans plus tard en France, notamment pour donner au commerce et à l’économie un autre visage que le consumérisme américain.

Enfin, par pitié, arrêtons de parler systématiquement de e-tourisme dès qu’il est question des territoires. Les territoires sont autre chose que des destinations touristiques, et les régions n’hivernent pas toute l’année pour se réveiller quand les Parisiens et les étrangers prennent leur vacances. Ces modèles d’affaire sur le e-tourisme sont dangereux et méprisants.

Billet initialement publié sur le blog de Christian Fauré

Images CC Flickr Troy Holden et ►bEbO

]]>
http://owni.fr/2010/07/01/quelle-filiere-industrielle-pour-la-numerisation-du-patrimoine/feed/ 5
Livre cherche futur clair http://owni.fr/2010/05/05/livre-cherche-futur-clair/ http://owni.fr/2010/05/05/livre-cherche-futur-clair/#comments Wed, 05 May 2010 16:56:17 +0000 Michèle Battisti http://owni.fr/?p=14637 Quelques points retenus dans les nombreuses déclarations faites lors de la table ronde organisée le 28 avril 2010 par le Sénat pour poursuivre les réflexions déjà engagées sur l’avenir de la filière du livre, en mettant l’accent sur la question du prix unique, puis sur les modèles envisagés pour la numérisation du patrimoine.

Article mis également en ligne sur le site de l’ADBS

Vidéocast de la table-ronde. Sur le site Public-Sénat

Un enjeu : sortir du cadre

Que le marché du livre numérique ait pris son essor, voilà qui semblait (presque) reconnu par tous. Mais le paysage reste flou. Au fils des vingt-quatre déclarations, on a évoqué tantôt le livre homothétique [1] – une étape qui restera sans nul doute provisoire –, tantôt le livre véritablement numérique, soit deux objets indéniablement différents, ce qui démontre les difficultés rencontrées pour établir des classifications rigoureuses, une tentation à laquelle il est encore difficile de résister.

Il y avait le même consensus pour reconnaître que le numérique était une opportunité. Mais ce ne sera vraiment le cas que si l’on accepte effectivement d’innover, en se démarquant totalement du livre sur support papier [2]. La tentation du livre homothétique démontre que la démarche n’est pas aisée.

Innover implique d’investir. S’il est vrai que le numérique demande des compétences techniques et qu’il représente indéniablement des coûts (articulés différemment que ceux de ceux du support papier), une loi sur le prix unique et les subventions ne doivent pas se substituer aux investissements en recherche et développement qui s’imposent. La tentation est grande aussi d’adopter des positions défensives – on a parlé de ligne Maginot -, en prenant pour exemple l’évolution du secteur de la musique qu’il serait pourtant hasardeux d’utiliser, ne serait-ce que parce que les usages des œuvres musicales sont différents.

Pour faire état de la situation, il suffit de rappeler que lorsque l’on passe de l’analogique vers le numérique, l’on passe d’une économie de biens à économie de services [3], soit un paradigme différent impliquant de nouveaux usages et de nouveaux modèles économiques.

Le prix unique : une solution ?

Le prix unique, prix fixé en amont par les détenteurs de droits initiaux, qui assure la diversité éditoriale doit-il (peut-il) être appliqué au livre numérique ? Le principe permet d’éviter que le prix ne soit fixé en aval, en fonction d’un format et non d’un contenu, par d’autres opérateurs, qualifiés de « prédateurs », qui en capteront la valeur. S’il convient effectivement d’organiser les conditions de la concurrence, d’autres voies sont offertes à côté du prix unique.

Mais si l’idée d’un prix unique devait être retenue, les usages autorisés par le livre numérique (feuilletage, téléchargement d’un ensemble ou d’une partie …) étant multiples, il sera sans nul doute difficile de définir l’assiette des droits à collecter [4].

Par ailleurs, puisque la règle est d’application nationale, il faut trouver une solution à la concurrence des détaillants étrangers, souvent très puissants. La même question se pose pour la TVA appliquée au livre numérique qui, réduite, créerait effectivement des conditions compétitives favorables aux industries culturelles, leur permettant de prouver qu’elle sont tout autant innovantes et économiquement rentables que celles d’autres pays [5], notamment les Etats-Unis où la pression fiscale est moindre.

Il convient toutefois d’avancer prudemment, en évitant de créer trop tôt un cadre trop rigide, et d’envisager une phase d’expérimentation. Il ne serait pas judicieux d’imposer un prix unique, qui n’est qu’un moyen, sans avoir fixé en préalable des objectifs au livre numérique. Pour fixer le prix juste [6], permettant de rémunérer les auteurs et d’assurer un accès normal au consommateur, il faut définir l’objet « livre électronique », identifier son marché et connaître les attentes des consommateurs. Il convient de ne pas adopter à la légère une dérogation qu’est un prix unique sans s’assurer de l’efficacité d’un tel dispositif.

Comme le regrettent certains, on parle désormais de biens culturels et non d’œuvres, et c’est bien « le marché qui dicte la loi ».

Une filière du livre ébranlée

Si la solidarité entre professions a été affichée, leurs intérêts sont différents et elles avancent sur le chantier numérique « en ordre dispersé ». Les libraires assuraient une égalité de l’accès sur tout le territoire et, pour certains, la présence physique de ces médiateurs, même dans l’univers numérique, a encore du sens. La TVA à taux réduit donnera sans nul doute une impulsion à ces métiers, surtout s’ils disposent d’outils communs et d’un hub [7] interprofessionnel donnant accès aux fichier des livres numériques et à des services à des conditions et une capacité technique égales pour tous. Mais le numérique, a-t-on signalé aussi s’abstrait de la logique du territoire et du temps (longue traîne), ce qui signifie que les librairies doivent évoluer, que certaines sont amenées, à disparaître et que l’on s’oriente vers une (re)valorisation d’autres modes d’exploitation des œuvres (comme le spectacle vivant pour la musique).

Que l’on doive disposer d’une plateforme pour une offre non seulement nationale, mais européenne, qui soit interopérable, et de services simples à utiliser, voici un autre consensus qui a été facilement trouvé. C’est le seul moyen de répondre à la diversité des usages du livre numérique dont entend disposer le consommateur et d’en assurer la pérennité. Mis à la disposition de l’ensemble de la filière du livre, il permettra aussi d’aider celle-ci.

Un prix unique ? Oui si les auteurs « y trouvent leur compte », avait-il été dit aussi. Mais si les éditeurs se font céder les droits numériques depuis une quinzaine d’années, restent à définir les modalités de la rémunération liée à l’exploitation des oeuvres, à faire évoluer les fichiers propres à la lecture numérique, à structurer la distribution numérique auprès des libraires traditionnels ou des nouveaux entrants, soit autant de chantiers ouverts tout comme les négociations en cours avec les éditeurs étrangers et les illustrateurs. On y a ajouté le coût de la numérisation rétrospective et de la renégociation des droits, souvent sous-estimé.

Le livre numérique, a-t-on même suggéré, serait une mauvaise réponse à la crise structurelle que connaît aujourd’hui le livre, à laquelle s’ajoute la crise économique. Le livre numérique ne serait-il qu’une échappatoire, une fuite en avant qui ne règle aucun problème ? Cela semble peu probable.

Les nombreux rapports officiels qui ont déjà paru sur le livre contenaient des recommandations pour créer des conditions équilibrées pour la chaîne du livre. Dans ce nouveau cadre, d’autres solutions doivent être envisagées que la simple transposition de l’univers physique, ce qui conduit notamment à privilégier la voie contractuelle et non la voix normative. Le contrat est indéniablement un domaine mouvant. Les éditeurs ne reprennent-ils pas aujourd’hui le contrôle sur les contrats proposés autrefois par des gros opérateurs, comme Amazon, pour donner accès à des catalogues larges en échange de concessions sur les prix ? Toutefois l’idée d’un prix unique n’est pas totalement écartée, ne serait-ce que pour protéger certains acteurs. Pour l’instant, il n’est envisagé que pour le livre homothétique.

Réguler pour assurer le développement du marché dans sa pluralité et son dynamisme, comme il l’a été clairement demandé lors de l’une des interventions. Une sacrée gageure !

Numériser le patrimoine : une tâche urgente

Europeana est appelée à accueillir un plus grand nombre d’œuvres, en améliorant la contribution d’autres pays que la France, et à proposer de nouvelles fonctionnalités. Mais le partenariat public /privé que tous appellent de leur voeux représente des défis en terme d’accessibilité et de pérennisation, d’où la décision de la Commission européenne de nommer un comité des sages pour l’aider à prendre des décisions. Pour éviter de créer « un trou noir » entre les œuvres du XIXe et du XXIe siècle, il s’agit de trouver une solution légale pour les œuvres orphelines. En ce qui concerne les œuvres épuisées, plusieurs modèles existent déjà : une numérisation par les ayants droit et un accès aux œuvres payant ; un portail public qui renvoie à des plateformes de vente ; l’octroi de licences à des bibliothèques leur permettant de numériser et de donner accès aux œuvres.

On numérise depuis belle lurette en France et les sommes en jeu, par rapport à d’autres investissements structurels, seraient totalement dérisoires. On dispose dans notre pays de « l’écosystème industriel » pour la numérisation ainsi que des moyens technologiques (la plateforme Polinum, par exemple). Non seulement la numérisation, faite selon les normes et les choix techniques définis par les bibliothèques, est de grande qualité, mais avec le grand emprunt et d’autres ressources, on dispose des moyens financiers nécessaires, la France occupant à cet égard une position singulière en Europe. Reste la volonté politique de répondre à l’enjeu stratégique et culturel que représentent ces travaux pour la France ! Si l’engagement de la puissance publique est plus prégnant que dans d’autres pays, une accélération du processus s’impose aujourd’hui.

Les bibliothèques, acteurs de la numérisation

Les attentes du public, c’est ce que connaissent bien les bibliothèques, les archives et des centres de documentation qui représentent plusieurs millions d’usagers. « Repères d’accès dans la chaîne du livre », pour évoquer leur rôle de médiateurs de la connaissance, on a souligné qu’elles ont su maîtriser depuis longtemps toutes les potentialités du web 2.0, tant en amont, en relation avec plusieurs partenaires, pour agréger les sources, qu’en aval pour proposer des services au public. Veillant, comme l’indiquent plusieurs déclarations faite au nom de l’interprofession[8], à ce qu’un équilibre soit maintenu entre le service public et le respect des droits, elles opèrent sur le front de la conservation du patrimoine et de sa mise à disposition, la numérisation du patrimoine étant indissociable de sa valorisation. Incitées naturellement à expérimenter plusieurs solutions, il est important que des offres spécifiques leur soient faites. C’est l’objet d’un livre blanc du numérique qui sera publié prochainement par l’interassociation qui regroupe ces professions.

La Bibliothèque nationale de France joue le rôle d’un agrégateur pour l’ensemble du patrimoine du pays. Avec le grand emprunt, elle change effectivement d’échelle, mais il lui faut inventer un nouveau modèle économique, fondé sur un retour investissement, ce qui implique de faire converger la logique culturelle fondé sur les contenus, et une logique économique. Ce que l’on a souligné à nouveau, ce sont la variété des modèles qui coexistent ou qui doivent encore être mis au point avec divers partenaires. Les modèles sont encore à inventer et aucune piste n’est exclue.

Il serait réducteur de tracer un avenir qui découpé entre une ligne Maginot, lié à une volonté de protectionnisme étroit, et « le grand vent de la concurrence ». La concurrence est nécessaire pour une diffusion optimale et assurer une notoriété, mais pas au détriment d’une organisation insuffisante de la masse. Si différents modèles peuvent être adoptés, le modèle défendu par Google aujourd’hui n’est pas bon car il se traduit par un monopole commercial des documents qu’il numérise et parce qu’une entreprise privée ne donne aucune sécurité juridique, technique ou financière. Pour régler la question de la zone grise[9], production éditoriale qui a cessé de vivre commercialement mais qui reste protégée juridiquement, il faudrait s’orienter vers un accord établi entre les éditeurs et le gouvernement, vers un système forfaitaire, a-t-il été dit aussi.

Le marché évolue vite et la présence sur le marché dépendra aussi du prix pratiqué par les éditeurs dès aujourd’hui. La logique de numérisation de masse est inévitable et faut disposer d’instruments permettant d’accéder rapidement et aisément au patrimoine littéraire de langue française, qu’il soit sous droits ou libre de droits. « Jouer collectif », par une négociation entreprise par l’ensemble des grandes institutions culturelles françaises, pour éviter de se faire dicter une politique économique et financière par quelques grands acteurs, c’est qu’il convient de faire pour donner une crédibilité au financement public.

C’est Google qui, étrangement, aura le dernier mot. Soulignant que le rapport Tessier mettait l’accent sur l’importance d’un partenariat public/privé, il annonce qu’il tiendra compte des financements dont dispose la France (l’emprunt notamment) dans ses propositions, qu’il est prêt à acquitter des droits à une société de gestion collective pour pouvoir utiliser les œuvres orphelines, et rappelle que lorsqu’il s’agit d’œuvres épuisées l’ayant droit peut manifester sa volonté.

Imaginer l’avenir : une tâche impossible aujourd’hui

Puisque le marché du livre numérique évolue vite – la dernière césure importante date de janvier 2010 -, et que le paysage, a-t-il été souligné aussi, est encore plus flou à présent, on est tenté de reprendre en conclusion la remarque signalant l’absence actuelle de stabilité des modèles et la difficulté de faire des projections aujourd’hui.


[1] Le livre est dit homothétique lorsque sa version numérique est identique à la version papier.

[2] Le livre numérique, un marché qui a vocation à « cannibaliser » à plus ou moins long terme le livre papier.

[3] Ce qui a des conséquences en matière de TVA qui appliquée aux services ne pas être réduite

[4] Offre éditoriale de livres numériques. Des freins juridiques ? Michèle Battisti, Documentaliste-Sciences de l’information, 2010, n°2 (à paraître en mai 2010)

[5] Mais la pression fiscale varie considérablement aussi au sein de l’Union européenne

[6] On a souligné que l’arbitrage se faisait dans le temps consacré aux loisirs non dans le budget loisirs, ce qui occultait, note-t-on, la dimension professionnelle du livre numérique. On note aussi le transfert de la valeur sur le matériel, ce qui incitait à envisager de prélever le plus possible en amont (abonnement et matériel) et de combiner cette solution avec politiques tarifaires très diversifiée

[7] Hub : métaplateforme pour distribution du livre numérique

[8] Quel avenir pour la filière du numérique ? Déclaration faite par l’Interassociation Archives-Bibliothèque-Documentation (IABD), 27 avril 2010

[9] La notion de zone grise, Michèle Battisti et Dominique Lahary, Actualités du droit de l’information, n°59, juin 2005,


Billet publié initialement sur Paralipomènes sous le titre “Quel avenir pour le livre numérique et la filière du livre ? Une question sans réponse aujourd’hui”

Photo CC Flickr changecase

]]>
http://owni.fr/2010/05/05/livre-cherche-futur-clair/feed/ 2
Google Book et les bibliothèques américaines: vers des accords plus équilibrés? http://owni.fr/2010/04/18/google-book-et-les-bibliotheques-americaines-vers-des-accords-plus-equilibres/ http://owni.fr/2010/04/18/google-book-et-les-bibliotheques-americaines-vers-des-accords-plus-equilibres/#comments Sun, 18 Apr 2010 12:24:43 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=12540

Image CC Flickr floato

La bibliothèque de l’Université de Virginie a obtenu des aménagements dans son partenariat avec le géant américain, qui en atténuent certains aspects contestables : les contreparties exigées ont été revues à la baisse.

Le mois dernier, des informations importantes nous sont parvenues des États-Unis, au sujet de modifications intervenues dans les accords liant Google à plusieurs bibliothèques partenaires de son programme de numérisation des livres.

À ma connaissance, ces nouveaux éléments n’ont fait l’objet d’aucun commentaire en France, alors même qu’ils attestent qu’un nouveau type de rapports, plus équilibrés, est peut-être en train de se mettre en place outre-Atlantique.

Contrairement à ce qui se passe pour les bibliothèques européennes (à l’exception notable de la bibliothèque de Lyon), plusieurs bibliothèques américaines ont choisi de considérer que les accords les liant à Google constituaient des documents publics et obtenu qu’ils puissent être rendus révélés.

C’est le cas pour l’université de Virginie qui a publié à la mi-février une nouvelle version de son contrat, intervenue pour tenir compte de modifications découlant du Règlement Google Book, dont certains aspects ont des conséquences sur les bibliothèques partenaires de Google (le contrat est ici et voir pour une FAQ éditée par l’Université de Virginie à propos de son partenariat avec Google).

C’est Peter Hirtle sur LibraryLaw Blog, le premier qui a relevé que ce nouvel accord contenait des aménagements substantiels, information relayée ensuite par James Grimmelmann sur The Laboratorium.

L’Université de Virginie est partenaire du programme Bibliothèques de Google Book depuis 2006, mais elle s’était limitée jusqu’à présent à fournir à Google des ouvrages du domaine public, pour lesquels le droit d’auteur était expiré. Au début de l’année, l’université a choisi d’approfondir son partenariat avec Google en devenant une fully participating library (Bibliothèque Pleinement Participante), ce qui correspond au degré le plus élevé de collaboration et consiste à accepter de remettre à Google des ouvrages protégés par le droit d’auteur pour qu’il les numérise (voir ici pour la définition de ces différents degrés de participation). On savait déjà qu’une bibliothèque comme celle de Michigan avait fait ce choix et visiblement, Stanford s’est également décidée en février à remettre à Google ses livres sous droits.

Pour la bibliothèque de l’université de Virginie, ce changement de statut a été l’occasion d’une renégociation de l’accord qui atténuent plusieurs des aspects les plus contestables des contreparties exigées par Google en échange de la remise des fichiers à titre gracieux.

On sait en effet, grâce à la révélation des premiers contrats de Michigan et de l’université de Californie, que Google impose à ses bibliothèques partenaires des conditions de quatre ordres :

  • Une exclusivité commerciale, pouvant s’étendre sur des périodes très longues (2050 visiblement pour certaines bibliothèques américaines ; 25 ans pour les bibliothèques européennes) ;
  • Une exclusivité d’indexation (c’est-à-dire le fait d’empêcher les moteurs de recherche concurrents d’indexer le contenus des fichiers remis aux bibliothèques) ;
  • Des restrictions d’usage des fichiers : limitation du téléchargement, interdiction de remettre les fichiers à des tiers, y compris pour des partenariats non-commerciaux, etc. Ces restrictions, qualifiées par Olivier Ertzscheid d’ « eugénisme documentaire », s’imposaient sans limitation de durée dans le temps, même pour des ouvrages appartenant au domaine public.
  • Une clause de confidentialité, interdisant la révélation du contenu du contrat.

Outre la levée de la confidentialité, il semblerait que l’université de Virginie ait obtenu dans son nouveau contrat que l’ensemble de ces exclusivités et restrictions disparaissent complètement à l’issue d’une durée de 15 ans, à compter de la remise des fichiers à la bibliothèque. Elle bénéficierait alors d’une propriété pleine et entière, comme si elle avait procédé à la numérisation par elle-même [4.10 (d)].

Dans le même temps, la portée de l’exclusivité commerciale a été atténuée. Il reste interdit à l’Université de développer à partir des fichiers remis par Google des services similaires à ceux que Google Book Search comporte, mais les parties s’accordent pour reconnaître que l’impression à la demande ne fait pas partie de ces services et que l’université pourra se lancer dans ce type d’activités sans avoir besoin de recueillir l’accord de Google, quand bien même ce service serait payant [4.10 (b)]. L’université de Michigan a visiblement déjà obtenu un tel assouplissement de son contrat, qui lui a permis de mettre en place un service d’impression à la demande en partenariat avec Amazon.

D’autres clauses illustrent cette recherche d’un meilleur équilibre entre Google et son partenaire. On relève par exemple que si Google n’est pas en mesure, pour une quelconque raison, d’assurer l’accès aux ouvrages numérisés du domaine public pendant 6 mois, toutes les restrictions prévues par l’accord seront levées et la bibliothèque retrouvera une pleine propriété de ses propres copies [4.10 (c)]. Une autre clause indique que si Google apporte des améliorations (en termes de qualité par exemple) à ses propres fichiers, il doit s’efforcer de remettre une copie améliorée à la bibliothèque qui a fourni le livre original [4.13].

Comme l’indique Peter Hirtle dans son billet, toutes ces améliorations profitent grandement aux bibliothèques partenaires, surtout que dans le même temps, Google est toujours lié à l’obligation d’offrir un accès gratuit aux ouvrages du domaine public qu’il numérise [4.3].

Cependant, je me démarquerais de son analyse en ajoutant que des points majeurs de déséquilibre subsistent toujours : l’exclusivité d’indexation en particulier figure toujours en toutes lettres dans le contrat, inchangée [4.9]. La crispation sur ce point montre combien cet aspect est important pour la stratégie de Google Book. Je vous recommande à cet égard de lire le passage consacré par Marin Dacos et Pierre Mounier dans leur récent ouvrage , L’édition électronique, à la manière dont Google Book utilise le data mining :

On constate que Google Books ne se comporte ni comme un éditeur, ni comme un libraire. Il utilise sa puissance de calcul et d’indexation pour réaliser un gigantesque système d’information sur le livre, menant le data mining (fouille de données) à son paroxysme pour construire des cartes et des itinéraires entre les objets numériques et les outils de son armada de services.

On comprend dès lors que Google cherche à se réserver la possibilité de construire un tel système d’information, quitte à recourir à une exclusivité d’indexation qui constitue une atteinte grave à la liberté d’accès d’information et porte en elle le risque d’une dérive vers le monopole.

Le même déséquilibre est toujours patent en matière de métadonnées. Outre ses ouvrages, la bibliothèque de l’Université de Virginie accepte de remettre à Google ses métadonnées, en lui concédant une licence très large d’utilisation (heureusement à titre non exclusif) [2.6].

On peut également se demander ce qu’il adviendra des avancées de ce contrat si le Règlement Google Book, auquel il est fondamentalement lié, n’est pas validé par la justice américaine (et il semble bien que de nombreux aspect de ce règlement seront rejetés par le juge Denny Chin, même si l’incertitude est encore forte sur ce point). Google se montrera-t-il toujours aussi généreux s’il est ramené à la case départ de son procès américain ?

Et pendant ce temps en Europe…

L’autre question concerne la situation des bibliothèques européennes, qui par contraste avec leurs homologues américaines, demeurent sous l’emprise de contrats beaucoup plus restrictifs, portant atteinte au domaine public dont elles ont accepté de confier la numérisation à Google.

L’idée avait été avancée à la fin de l’année dernière qu’un comité des sages puisse être réuni au niveau de l’Union européenne pour déterminer les conditions acceptables dans le cadre de partenariats public-privé de numérisation. Nous sommes en avril et nous ne voyons toujours rien venir de ce côté…

En attendant, le gouvernement italien a vraisemblablement signé en mars un accord de numérisation avec Google qui est loin d’être aussi équilibré que ceux conclus par les bibliothèques américaines. La clause de confidentialité sévit toujours (mais comment un gouvernement peut-il accepter cela !) et le fait qu’on nous annonce que l’on pourra accéder aux documents numérisés par le biais d’Europeana n’est pas en soi une garantie que les restrictions d’usage ont été levées, car Europeana se contente de moissonner des métadonnées et de faire des liens vers les documents numérisés.

Du côté de la France, au gré des rapports officiels qui se succèdent, un certain flottement règne sur la question d’un éventuel partenariat de numérisation avec Google. C’est le moins que l’on puisse dire…

Le rapport Tessier de décembre condamnait fermement les exclusivités et restrictions des accords et préconisait une autre piste de partenariat avec Google sous la forme d’un échange de fichiers. A suivi le rapport Gaillard de la commission des finances du Sénat qui, au nom du réalisme budgétaire et malgré les perspectives ouvertes par l’emprunt national, semblait à nouveau favorable à un partenariat « classique » avec Google. Et cette semaine, le rapport sur le livre numérique de Christine Albanel préconise de faire… les deux à la fois ! Échangeons les fichiers ET réfléchissons à un accord de numérisation avec « de grands moteurs de recherche » (qui ça ?). Cocasse !

Mais il y a mieux… Les lecteurs attentifs du journal La Tribune auront peut-être relevé un article en date du 25 mars dernier « Les Français préparent leur alternative à Google Livres », comportant ce passage singulier :

Le ministère de la Culture, les éditeurs et représentants des auteurs ont accepté d’ouvrir des discussions pour aboutir d’ici à juillet à un accord tripartite, sur la numérisation des livres du XXe siècle épuisés. Objectif: numériser en masse, à partir des fonds de la BnF, quelque 500.000 à 1 million d’ouvrages, en y consacrant une part du grand emprunt. Auteurs et éditeurs accepteraient de libérer en bloc les droits, sans obliger à une autorisation œuvre par œuvre. L’accord prévoirait un modèle de diffusion et d’exploitation avec un partage de revenu à définir. Si un tel accord est conclu, la France serait en position de proposer à Google l’échange de fichiers suggéré en janvier par la mission Tessier, sur la numérisation du patrimoine écrit : Google pourrait être retenu pour numériser les ouvrages tombés dans le domaine public. Il remettrait à la BNF un fichier d’une œuvre patrimoniale, contre une œuvre du XXe siècle sous droit numérisée par les Français.

En gros, cela revient à dire : l’argent de l’emprunt national utilisé pour numériser des livres sous droits des éditeurs français ; le patrimoine confié à Google et pour le « payer », un échange de fichiers, non pas ouvrages du domaine public contre ouvrages du domaine public, à l’image de ce que prévoyait le rapport Tessier… mais ouvrages protégés contre ouvrages libres de droits !

Hum…

Personnellement, j’arrête de lire les rapports français et de m’intéresser à leurs pirouettes d’apprentis sorciers ; je leur préfère le « travail au corps » que les bibliothèques américaines mènent pour neutraliser pas à pas le venin des exclusivités.

Cliquer ici pour voir la vidéo.

Billet initialement publié sur :: S.I.Lex ::

À lire aussi : Google livres : par le petit book de la tablette (1/3)

]]>
http://owni.fr/2010/04/18/google-book-et-les-bibliotheques-americaines-vers-des-accords-plus-equilibres/feed/ 1
La photographie est-elle encore moderne? http://owni.fr/2010/04/06/la-photographie-est-elle-encore-moderne/ http://owni.fr/2010/04/06/la-photographie-est-elle-encore-moderne/#comments Tue, 06 Apr 2010 15:31:10 +0000 André Gunthert http://owni.fr/?p=11717 481030442_ede95597b7

Le monde de la photographie éprouve aujourd’hui un paradoxe nouveau. Il a absorbé dans la pratique le choc de la numérisation, sa plus importante mutation technologique depuis l’invention du négatif (Talbot, 1840). Mais il reste fortement attaché à ses symboles traditionnels et montre une résistance surprenante à admettre ou à faire valoir cette évolution dans ses représentations.

Les effets de la numérisation peuvent être expliqués par sa principale caractéristique: la dématérialisation du support. Tout comme la notation écrite a permis la reproduction et la diffusion des messages linguistiques, la transformation de l’image en information la rend indépendante du support matériel, qui n’en est qu’un véhicule temporaire.

Cette transformation a quatre conséquences majeures. Elle modifie de façon radicale les conditions de l’archivage des documents, désormais intégrables à des bases de données numériques, ce que je caractériserai par leur indexabilité. Elle préserve la capacité de modifier les photographies après-coup, créant une continuité entre la prise de vue et la post-production, soit une nouvelle versatilité. Elle facilite leur télécommunication instantanée, les faisant accéder à une forme d’ubiquité. Elle permet leur intégration aux contenus diffusables par internet, et consacre ainsi leur universalité.

Partagées avec toutes les autres sources numériques, ces propriétés apportent à l’image fixe un ensemble de bénéfices pratiques, techniques et économiques dont l’ampleur est sans précédent. Or, tout se passe comme si le domaine photographique s’était figé dans une sorte d’académisme culturel, camouflant les évolutions apportées par la numérisation derrière la continuité revendiquée de ses pratiques et de ses modèles dominants.

Une révolution invisible?

Il n’est pas rare que les évolutions technologiques engendrent des mutations culturelles dans les pratiques professionnelles. L’histoire fournit de nombreux exemples de ces périodes de crise, qui prennent l’aspect de la fameuse “querelle des Anciens et des Modernes” – autrement dit la polarisation en deux camps des adversaires et des partisans du changement, ainsi que l’émergence d’un théâtre de la dispute, qui assure la publicité des débats.

Loin de constituer un phénomène exceptionnel, la résistance à l’innovation est au contraire le symptôme le plus régulier d’un processus de transition culturelle. Elle est d’autant plus forte que les modifications demandées aux acteurs sont importantes et que le rythme du changement est rapide.

Présentée sous la forme inédite d’une technologie accessible au grand public, la photo témoigne d’une aptitude incontestable à accueillir l’innovation. Son apparition elle-même a suscité la colère des graveurs, des dessinateurs ou des miniaturistes, professions menacées par la nouvelle venue.

D’abord snobé en 1851 par la Société héliographique, première association du champ photographique, le collodion humide s’impose en une poignée d’années comme le nouveau standard. Son successeur, la plaque sèche, qui suscite en 1880 réticences et quolibets de la part des photographes professionnels, s’installe dans la pratique courante dès 1886.

Perçu comme un gadget au début des années 1930, le film 35 mm est rapidement adopté par la jeune génération, qui fait du Leica «l’appareil préféré des reporters opérant en situation d’urgence» (Chéroux, 2008). Ce n’est pas la première fois que la photographie doit faire face à une évolution majeure. Elle a toujours su s’adapter dans des délais relativement brefs.

La révolution numérique, qui affecte le domaine photographique de manière sensible depuis le début des années 1990, ne s’inscrit pas dans cette généalogie. Indicateur de l’évolution des pratiques, le remplacement des matériels s’est considérablement accéléré depuis 2003.

En 2009, le parc actif des équipements de prise de vue en France est estimé à près de 45 millions d’appareils numériques (dont 18,7 millions de camphones) pour 12,3 millions d’argentiques (dont 5,3 millions d’appareils jetables). Depuis 2008, les organismes spécialisés ont cessé de tenir la statistique du marché des appareils argentiques neufs, dont le volume n’est plus considéré comme significatif. Sur le terrain, pour la photo amateur comme pour la photo de presse, la messe est dite – les pixels ont remporté la bataille.

Pourtant, du côté des manifestations publiques de l’activité photographique, on pourrait en douter. Alors que le cinéma, avec la 3D, argument-clé de l’évolution de la filière, a su promouvoir une image attractive de son rapport aux nouvelles technologies, alors que la consultation musicale via le podcasting ou les portails en ligne est désormais intégrée à l’offre commerciale, la photographie reste étrangement en retrait, incapable de valoriser les évolutions réelles de sa pratique.

Organisé par l’association Gens d’images depuis 1999, le prix Arcimboldo, dédié à la création numérique, demeure une manifestation discrète. Une seule exposition thématique notable a été proposée en 2007 par le musée de l’Elysée de Lausanne, sous le titre: “Tous Photographes! La mutation de la photographie amateur à l’heure numérique“. En revanche, les Rencontres internationales de la photographie d’Arles, principal festival du secteur, affichent cet été parmi leurs thématiques “Les esthétiques qui disparaissent avec le numérique”. Un avis comme celui que j’ai pu exprimer en 2006: “Flickr, l’une des choses les plus importantes qui soit arrivée à la photographie” (Gunthert, 2006) est resté une prise de position isolée.

Après le colloque “Nouvelles perspectives pour les photographes professionnels“, proposé par l’Ecole Louis-Lumière au Sénat, qui a accordé une place généreuse aux regrets des professionnels installés (avec notamment la projection de l’”autodafé” tragicomique de Jean-Baptiste Avril), plusieurs photographes ont tenu à m’assurer en privé que cette déploration complaisante n’était pas représentative de l’esprit de la jeune génération. Le fait est que celle-ci n’a aujourd’hui guère de support ni de porte-paroles visibles.

Faute d’une mobilisation plus affirmée des acteurs du renouvellement, les effets de la numérisation dans le champ photographique se résument, dans le débat public, à l’antienne de la concurrence des amateurs et à la dénonciation de la retouche.

Le dogme de l’objectivité menacé par Photoshop

La recherche de boucs émissaires en période de crise est un réflexe compréhensible. Mais les difficultés économiques de la filière relèvent d’un ensemble de causes autrement plus complexes que le rôle fantasmé des amateurs.  Ajoutons que la présence de l’image dans l’espace public, via les supports de publicité ou d’information, a habitué nos contemporains à la consommation sans coût apparent d’une ressource qui semble abondante, bien avant la gratuité des contenus sur internet. Les difficultés que rencontrent aujourd’hui les professionnels proviennent d’abord des pratiques qu’ils ont eux-mêmes contribué à mettre en place.

La récurrence de l’interdit de la retouche, encore manifestée récemment par l’exclusion d’un lauréat du World Press Photo, forme un symptôme plus inquiétant. On se souvient qu’avant même la diffusion de la photographie numérique, l’apparition de logiciels de traitement d’image avait suscité l’émoi des spécialistes. Dans L’Œil reconfiguré, William Mitchell évoquait dès 1992 l’entrée dans «l’ère post-photographique», indiquant combien les destinées du médium et de la retouche paraissaient interdépendantes.

Retouche dimage, concours Lathlète complet, Le Journal, 1913 (cliquer pour agrandir).

Retouche d’image, concours “L’athlète complet”, Le Journal, 1913 (cliquer pour agrandir).

La retouche numérique s’inscrit pourtant pleinement dans la continuité des pratiques photographiques professionnelles, où le travail du matériau visuel est un impératif aussi évident que celui du signal sonore pour la musique enregistrée. Contrairement aux affirmations organicistes de théoriciens improvisés, l’inquiétude provoquée par l’irruption de Photoshop n’est pas la conséquence de la versatilité nouvelle du support, mais plutôt celle de la visibilité inédite du post-traitement, désormais exposé aux yeux de tous.

En consultant les ouvrages de référence du siècle passé, les étudiants des années 2010 seront surpris de constater que Roland Barthes pas plus que Susan Sontag ou Rosalind Krauss n’évoquent dans leurs travaux l’existence de la retouche. Ce t aveuglement est le résultat d’une longue hypocrisie du monde professionnel qui, réservant les secrets de fabrication de l’image photographique aux initiés, a réussi à imposer le postulat de son authenticité “naturelle”. Seule Gisèle Freund, avec une lucidité rare, écrivait dès 1936:

«La photographie, quoique strictement liée à la nature, n’a qu’une objectivité factice. La lentille, cet œil prétendu impartial, permet toutes les déformations possibles de la réalité, parce que le caractère de l’image est chaque fois déterminé par la façon de voir de l’opérateur. Aussi l’importance de la photographie, devenue dynamique sous la forme du film, ne réside-t-elle pas seulement dans le fait qu’elle est une création, mais surtout dans celui d’être un des moyens les plus efficaces de détourner les masses des réalités pénibles et de leurs problèmes.»

Depuis Photoshop, il est plus difficile de glisser la retouche sous le tapis. Plus difficile, mais pas impossible, comme le prouve l’argumentaire développé au cours d’une édition d’Envoyé spécial, diffusé le 10 décembre 2009 sur France 2. En distinguant avec soin les secteurs frivoles du portrait de studio, de la mode et de la publicité (où le post-traitement peut se déployer en toute liberté), du seul domaine qui compte, celui de l’information (où l’on souligne que la retouche reste proscrite), le reportage applique la tactique classique de l’exception circonstancielle, qui a maintes fois sauvé la légitimité menacée du médium (Gunthert, 2008).

En cette matière, la confusion est telle qu’il est nécessaire de l’énoncer clairement: non, la versatilité n’est pas une menace pour la photographie, mais bien une puissance mise à la disposition de la création. La véracité de l’enregistrement n’est garantie a priori par aucun paramètre technique, mais seulement par l’éthique de l’auteur.

Dans le domaine de l’information – symbole de la pratique photographique –, tout comme la latitude d’expression d’un journaliste ne fait pas obstacle à l’exactitude, il faut admettre qu’un photographe ne restitue qu’une vision de l’événement, et que celle-ci ne comporte pas moins de marques de subjectivité que son équivalent écrit. Enfin, contrairement au dogme, le photoreportage, marqué depuis ses origines par la contamination avec l’illustration et les artifices rhétoriques (Gervais, 2007), ne constitue nullement l’alpha et l’oméga du document visuel, mais plutôt le successeur de la peinture d’histoire, dont le rôle est de représenter les événements conformément aux attentes de la culture dominante.

La versatilité est une chance pour la photographie de secouer l’évangile pesant de l’automatisme, qui entrave depuis si longtemps l’aveu de sa dimension graphique. Comme dans les années 1920, lorsque László Moholy-Nagy repérait les prémices de la “Nouvelle vision”, c’est dans la publicité qu’on trouvera aujourd’hui l’expérimentation d’une liberté où s’esquissent les contours de la nécessaire auteurisation de la photographie.

Si l’on est attentif à l’évolution des attentes des contemporains, et qu’on s’aperçoit qu’une œuvre signée a désormais plus de crédibilité qu’un document soi-disant impartial, on comprendra que la subjectivité, loin d’être l’ennemie de l’authenticité, en constitue aujourd’hui le meilleur garant. Il ne manque qu’un Moholy-Nagy pour déployer les atouts de ce nouveau paysage.

filet650-500

Intervention dans le cadre du colloque “Nouvelles perspectives pour les photographes professionnels”, Ecole Louis-Lumière, Paris, 29 mars 2010.

Références

> Clément Chéroux, Henri Cartier-Bresson. Le tir photographique, Paris, Gallimard, 2008.

> Patrice Flichy, L’Innovation technique, Paris, La Découverte, 1995.

> Gisèle Freund, La Photographie en France au XIXe siècle. Essai de sociologie et d’esthétique, Paris, La Maison des Amis des livres/A. Monnier, 1936.

> Thierry Gervais L’Illustration photographique. Naissance du spectacle de l’information, 1843-1914, thèse de doctorat d’histoire, Lhivic/EHESS, 2007 (en ligne: http://culturevisuelle.org/blog/4356).

> André Gunthert, “Flickr, l’une des choses les plus importantes qui soit arrivée à la photographie” (propos recueillis par Hubert Guillaud), InternetActu, 8 juin 2006 (http://www.internetactu.net/…).

> André Gunthert, “Sans retouche. Histoire d’un mythe photographique”, Etudes photographiques, n° 22, octobre 2008, p. 56-77 (en ligne: http://etudesphotographiques.revues.org/index1004.html).

> Lucie Mei Dalby, Stéphanie Malphettes, Charles Baget et. al., “Photos en trompe-l’œil” (vidéo, 30″), Agence Capa, 2009, diffusé le 10/12/2009 sur France 2.

> William J. Mitchell, The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Londres, MIT Press, 1992.

> László Moholy-Nagy, Peinture Photographie Film et autres écrits sur la photographie (1927, trad. de l’allemand par C. Wermester et al.), Paris, Gallimard, 2006.

> Amélie Segonds, Indexation visuelle et recherche d’images sur le Web. Enjeux et problèmes, mémoire de master, Lhivic/EHESS, 2009 (en ligne: http://culturevisuelle.org/blog/4118)

> Article initialement publié sur Culture Visuelle

]]>
http://owni.fr/2010/04/06/la-photographie-est-elle-encore-moderne/feed/ 1