OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Licence Edition Equitable : vers des archives ouvertes ? http://owni.fr/2011/04/29/licence-edition-equitable-vers-des-archives-ouvertes/ http://owni.fr/2011/04/29/licence-edition-equitable-vers-des-archives-ouvertes/#comments Fri, 29 Apr 2011 08:30:37 +0000 Lionel Maurel (Calimaq) http://owni.fr/?p=59915 Présentée lors du Salon du Livre de Paris, la Licence Édition Equitable proposée par C & F Editions, a déjà fait l’objet de plusieurs commentaires, louant cette initiative visant à garantir un certain nombres de droits aux lecteurs de livres numériques. Elle se rapproche en cela de la récente Déclaration des Droits de l’Utilisateur de Livres Numériques proposée outre-Atlantique et s’inscrit dans le mouvement de protestation contre les DRM qui s’est exprimé lors du Salon du Livre cette année.

Cette licence propose en effet de créer « entre lecteur et éditeur un contrat équitable et durable« , en excluant pour ce dernier le recours aux DRM (verrous  numériques) afin de garantir au lecteur certaines facultés essentielles : le droit de lire sur les supports de son choix (interopérabilité), le droit de copier sur des supports personnels (copie privée), le droit de changer de format, le droit de copier des extraits ou le droit de faire circuler dans un cercle de proximité.

Après avoir discuté avec Hervé Le Crosnier sur son stand, à l’origine de cette initiative, j’aimerais revenir sur un autre aspect de cette licence, qui a fait l’objet de moins de commentaires, mais qui me paraît important dans la mesure où il pourrait introduire dans le domaine de la création la logique des archives ouvertes.

La licence ne consacre pas seulement des droits au profit du lecteur ; elle propose également d’instaurer un équilibre entre les droits du lecteur et les droits de l’éditeur (on verra qu’il s’agit même d’un tryptique, avec les droits de l’auteur).

Les auteurs disposent des Licences Creative Commons pour indiquer au lecteur ce qu’il peut faire avec leur œuvre. La Licence Édition Équitable vise à remplir le même rôle pour définir les droits du lecteur et ses responsabilités envers le processus éditorial.

C & F Editions a en effet déjà publié des livres papier sous licence Creative Commons (voir un exemple ici sous licence Creative Commons Attribution-Pas d’usage commercial). Cette ouverture est concevable pour l’édition classique (certains en ont même fait un modèle économique à part entière), mais elle peut poser problème avec le livre numérique, dans la mesure où un utilisateur peut tout à fait mettre à disposition à titre gratuit un fichier sous licence CC-BY-NC (y compris en P2P), ce qui est difficilement compatible avec son exploitation commerciale.

L’idée de la licence Edition Equitable consiste à dissocier le droit de l’auteur sur le texte « brut » des droits de l’éditeur sur la version « transformée » à l’issue du processus de mise en forme de l’oeuvre, aboutissant à l’eBook.

Ainsi, selon les termes de la licence, l’auteur conserve la possibilité de placer son oeuvre originale sous licence Creative Commons (ce qui implique qu’il ne cède pas ses droits à l’éditeur de manière exclusive, comme avec un contrat d’édition classique). L’éditeur conserve cependant des droits exclusifs sur la version eBook qu’il aura produite, sous réserve de respecter les facultés essentielles  garanties au lecteur par la licence. Le lecteur de son côté dispose du droit de copier et de rediffuser le contenu « brut » de l’oeuvre :

Le lecteur/lectrice a le droit de rediffuser le contenu de l’œuvre en respectant les volontés de l’auteur quand elles sont exprimées par une licence d’usage. Ceci est distinct de la rediffusion du document édité (livre, notamment livre numérique, album musical, et cela plus encore s’il s’agit d’œuvres de collaboration ou de compilation).

Droits dissociés, archives ouvertes

On voit donc que des droits différents sont attachés à différentes « manifestations » de la même oeuvre (pour parler en langage FRBR) : il ne sera pas permis de faire des copies et de diffuser gratuitement les versions au format ePub mises en forme par l’éditeur, mais rien n’empêchera l’auteur de diffuser son texte original sur un blog ou site personnel, ni aux lecteurs d’en faire de même (si l’auteur le permet, en plaçant son texte sous une licence CC, par exemple)

Cette logique de droits dissociés me paraît particulièrement intéressante, dans la mesure où elle introduit dans le secteur de la création littéraire la logique des archives ouvertes.Dans le modèle de l’Open Access, les auteurs d’articles de revues scientifiques concluent avec les éditeurs des contrats spécifiques de cessions de droits limitées, de manière à pouvoir conserver la faculté d’auto-archiver une version de leur production, soit sur un site personnel, soit dans une archive ouverte.

Dans certains modèles d’Open Access, l’auteur peut archiver un pre-print, c’est-à-dire son propre « manuscrit numérique »,  antérieur à la mise en forme opérée par l’éditeur (PDF éditeur). On est alors très proche de la logique de la Licence Édition Équitable (voyez ici)

[...] in terms of content, post-prints are the article as published. However, in terms of appearance this might not be the same as the published article, as publishers often reserve for themselves their own arrangement of type-setting and formatting. Typically, this means that the author cannot use the publisher-generated .pdf file, but must make their own .pdf version for submission to a repository.

C’est par exemple un tel système d’auto-archivage qui est accepté par la célèbre revue scientifique Nature :

When a manuscript is accepted for publication in an NPG journal, authors are encouraged to submit the author’s version of the accepted paper (the unedited manuscript) to PubMedCentral or other appropriate funding body’s archive, for public release six months after publication.
In addition, authors are encouraged to archive this version of the manuscript in their institution’s repositories and, if they wish, on their personal websites, also six months after the original publication.

Étendre cette logique de l’Open Access au domaine de la création me paraît particulièrement intéressant. A titre personnel, je n’accepte plus de céder mes droits de manière exclusive pour des projets d’édition, qu’il s’agisse d’ouvrages ou d’articles. Cela heurte de front mes convictions et je sais que je suis loin d’être le seul auteur dans ce cas !

Sortir le livre numérique de l’impasse

Des appels avaient déjà été lancés pour construire un pont entre la logique des archives ouvertes et l’édition numérique générale. Pierre Mounier et Marin Dacos appelaient ainsidans les colonnes du Monde en mai 2010, à sortir le livre numérique de l’impasse, en faisant le choix de « l’édition électronique ouverte » impliquant que l’eBook soit « lisible, manipulable et citable« , en phase  avec la « culture web » des utilisateurs. La licence Edition Equitable constitue un premier effort pour construire une telle passerelle.

Il est également frappant de voir que la Licence Edition Equitable se rapproche dans son esprit du système du Freemium adopté par Revues.org, destiné à servir de modèle économique durable au libre accès. Les articles de Revues.org en HTML demeurent en accès libre et gratuit, mais ces mêmes contenus, en format ePub et assortis de services et fonctionnalités ajoutés, font l’objet d’un accès payant, par le biais de formules d’abonnement.

Ces modèles, qui distinguent selon les manifestations différentes des mêmes oeuvres, repositionnent la valeur du travail éditorial dans l’environnement numérique, non sur l’accès exclusif, mais sur les services associés aux contenus (voir le billet consacré par Silvère Mercier à ces questions de migration de la valeur dans l’environnement numérique,  déjà largement à l’oeuvre dans le domaine de la musique).

En l’état, la Licence Edition Equitable n’a cependant pas encore la consistance d’une « véritable » licence. Elle ressemble davantage aux Common Deeds des licences Creative Commons (versions simplifiées destinées au grand public) et il manque encore à formaliser un véritable « code » qui traduirait les droits et obligations découlant des principes énoncés en termes juridiques.
On pourrait se tourner pour cela vers les outils déjà mis en place pour l’Open Access et notamment la Copyright ToolBox de la fondation SURF.

Il conviendrait également d’étudier quelles sont les répercussions de cette licence, destinée à encadrer les rapports entre l’éditeur et le lecteur, sur le contrat d’édition signé entre l’éditeur et l’auteur. Comme le montre l’expérience de l’Open Access, c’est dès ce niveau que se jouent beaucoup des libertés du lecteur. Hubert Guillaud a également lancé des pistes intéressantes, en préconisant d’ajouter au concept de Licence Edition Equitable des dispositions garantissant certains droits aux auteurs, notamment en terme de rémunération, tout comme le commerce équitable assure un revenu décent aux producteurs.

Ce travail de formalisation de la Licence Édition Équitable mérite à mon avis sérieusement d’être entrepris, et il serait d’autant plus intéressant qu’il soit conduit de manière collaborative entre juristes, utilisateurs d’eBooks, auteurs et bien entendu éditeurs, dont on espère qu’ils seront nombreux à rejoindre C & F Editions dans cette initiative.

Ils seraient en tout cas bien avisés de le faire pour sortir de l’impasse dans laquelle les sirènes législatives actuelles sont en train de les enfermer…

En refusant le web et son ouverture par crainte du piratage, en tentant de clôner le livre imprimé – sa représentation, ses usages de lecture, son mode de distribution et jusqu’à son modèle économique, sur le support numérique, en n’accordant pas une place primordiale à l’innovation et à l’imagination, les principaux acteurs du monde de l’édition se sont engagés dans une voie sans issue.
(Pierre Mounier et Marin Dacos)


Publié initialement sur ::S.I.Lex:: sous le titre, Licence Edition Equitable : vers des archives ouvertes de la création ?
Crédits photos et illustrations :
Via Flickr : Livre origami par Elmthelemon [cc-by-nc-sa] ; Ebooks galore par Libraryman [cc-by-nc-sa] ; Creative Commons road sign par Giuli-O [cc-by] ; (Kafka) Uneasy Dreams par Celeste [cc-by-nc]

]]>
http://owni.fr/2011/04/29/licence-edition-equitable-vers-des-archives-ouvertes/feed/ 1
Libre accès à la recherche: entre idéal et nécessité http://owni.fr/2010/12/01/libre-acces-a-la-recherche-entre-ideal-et-necessite/ http://owni.fr/2010/12/01/libre-acces-a-la-recherche-entre-ideal-et-necessite/#comments Wed, 01 Dec 2010 11:39:18 +0000 Pierre Mounier http://owni.fr/?p=33463 Titre original : Libre accès : entre idéal et nécessité, un débat en mutation

Depuis ses débuts, la question du libre accès aux publications scientifiques, et plus largement aux résultats de la recherche fait l’objet de débats passionnés au sein de la communauté scientifique. La présence au cœur de ce débat de figures militantes comme Stevan Harnad (Okerson&O’Donnell, 1995), Jean-Claude Guédon, Harold Varmus (Brown, Heisen&Varmus, 2003), la succession dans le temps de manifestes-pétitions comme la déclaration de Budapest (Budapest Open Access Initiative) en 2001, la lettre ouverte des chercheurs appelant à la constitution d’une « Public library of Science » , la déclaration de Bethesda en 2003 puis celle de Berlin la même année, en constituent les repères les plus marquants.

Plus récemment, cette question s’est trouvée connectée et incluse comme un cas particulier du plus large débat qui traite du statut des biens informationnels comme biens communs. Ainsi Philippe Aigrain établit dans son ouvrage Cause Commune une relation entre le libre accès et les débats sur les logiciels libres, mais aussi avec les brevets sur les médicaments ou encore sur le piratage musical. Pour lui, la question qui forme condition de possibilité de cet élargissement du débat est en réalité celle de l’extension à la propriété intellectuelle des accords commerciaux internationaux menés au sein de l’OMC au milieu des années 90 (accords ADPIC) (Aigrain 2005, p.161).

Pour Paul Davis (Davis, 2009), les arguments avancés en faveur du libre accès, surtout lorsqu’il font l’objet de comptes rendus dans la presse, se positionnent très souvent sur un plan moral et politique. Dans les assemblées scientifiques, ce sont plus souvent des considérations professionnelles, liées aux besoins de communication de la recherche qui sont avancées. Placée sous l’égide de l’Open Society Foundation dirigée par Georges Soros, la conférence de Budapest en particulier, et la déclaration du même nom à laquelle elle aboutit, constitue un exemple abouti de jonction entre les intérêts professionnels des chercheurs et un programme politique libéral promouvant la libre circulation des idées et de l’information. La présence d’une dimension politique et philosophique dans les prises de position des différents acteurs est pourtant loin d’être uniforme. C’est dans les sciences du vivant et en médecine qu’on les retrouve exprimées de la manière la plus claire, en raison en particulier des problématiques éthiques qui imprègnent fortement les activités liées à la santé.

Très présentes dans les sciences du vivant, ces motivations n’ont pourtant pas toujours la même importance dans d’autres disciplines. D’autres rationalités, de nature socio-technique ou économique par exemple, peuvent être à la source d’initiatives de publication en accès libre. Et dans le travail de reconstitution des logiques de développement du libre accès, sans doute faudrait-il réévaluer le rôle que joue le passage du système de publication scientifique de l’imprimé au numérique en réseau.

Lorsqu’on tente en effet de reconstituer les séquences historiques par lesquelles le secteur des publications scientifiques passe, au moment du déploiement de la problématique du libre accès, on est frappé de la concomitance entre plusieurs facteurs de causalité potentielle non reliés entre eux : les facteurs ayant conduit à ce que l’association américaine des bibliothèques de recherche (ARL) a qualifié de « serials crisis » ont été bien identifiés : il s’agit, pour l’essentiel de la constitution d’une logique de « portefeuilles de revues » par les éditeurs de littérature scientifique qui fait suite aux fortes concentrations financières qu’a connu ce secteur à partir des années 90 (McCabe 2004), avec la constitution d’un marché « inélastique » du fait d’un mésusage par les acteurs scientifiques (chercheurs, bibliothécaires et institutions de recherche) de systèmes bibliométriques comme le Science Citation Index proposé par l’ISI (Guédon 2001).

La crise de la communication scientifique ainsi déclenchée conduit alors ces acteurs à trouver des solutions. La publication exclusivement numérique et sur Internet des résultats de la recherche, que ce soit par le biais des archives ouvertes (primitivement appelées « e-print servers ») ou de revues électroniques en libre accès, apparaît alors comme une planche de salut possible. Autrement dit, dans cette séquence temporelle, le passage au numérique arrive en bout de chaîne : il est une modalité technique de la réponse que chercheurs et bibliothèques tentent d’apporter à la crise des périodiques scientifiques. Or, et c’est la thèse qui est proposée ici, il est sans doute possible de considérer le passage au numérique du système de publication scientifique comme une cause, une incitation directe en faveur du libre accès, indépendamment même de la crise du prix des périodiques scientifiques. Deux approches différentes du phénomène permettent de le montrer : sur un plan socio-technique d’abord, économique ensuite.

Archives ouvertes et accès ouvert

Souvent évoquées ensemble, les questions du libre accès et des archives ouvertes sont quelquefois confondues. C’est bien sûr une erreur factuelle dans la mesure où, par exemple, le protocole OAI-PMH proposé lors de la Convention de Santa Fé en 1999 et qui donne une réalité technique à la notion d’archive ouverte, n’implique pas nécessairement de libre accès aux publications qui se trouvent hébergées dans ces archives . Ce qui est « open » dans le cas de l’OAI-PMH, ce sont en réalité les métadonnées et non le texte intégral des publications auxquelles elles renvoient. Protocole d’interopérabilité à faible coût d’acquisition (« low barrier » selon les termes de ses promoteurs (Lagoze&Van den Sompel, 2001) ), OAI-PMH sert les objectifs de dissémination des contenus numériques de ses promoteurs par la libre circulation des métadonnées d’abord.

C’est la raison pour laquelle il a connu depuis une adoption très large et bien au delà des seules archives ouvertes, à tout le domaine de l’interopérabilité dans le secteur de l’information scientifique. Aujourd’hui, la plupart des plateformes de revues scientifiques, quelle que soit leur position par rapport au libre accès, utilisent ce protocole pour être « moissonnées », ie indexées par les moteurs de recherche scientifique : Oaister par exemple, mais aussi Google Scholar, du moins jusqu’en 2008, ou des répertoires de revues comme le DOAJ. En sciences humaines et sociales, le prochain moteur de recherche Isidore qui donnera un accès unifié à l’ensemble des données disponibles s’appuie sur ce protocole pour indexer les entrepôts de données.

Le développement des archives ouvertes et même du protocole OAI-PMH n’est pour autant pas totalement déconnecté de la question de l’accès ouvert. Le modèle archétypal sur lequel les archives ouvertes – dont on rappelle ici la définition comme dépôts ouverts où les chercheurs archivent leurs articles – se sont développées, est Arxiv, archive de physique des hautes énergies créée par Paul Ginsparg en 1991 au National Laboratory de Los Alamos. Cette archive, qui s’est développée depuis dans un certain nombre de disciplines connexes (mathématiques, autres domaines des sciences physiques et astronomie), et fait désormais l’objet d’un soutien de plusieurs institutions scientifiques de premier plan n’a, selon les explications que Ginsparg apporte lui-même dans un article célèbre (Ginsparg 1994), pas eu pour objectif de répondre à la « crise des périodiques scientifiques ». Elle étendait en fait, avec des moyens nouveaux, une pratique de communication scientifique propre à la communauté disciplinaire à laquelle appartient Ginsparg.

Cette tradition est celle d’une communication désintermédiée entre chercheurs sur la base de premières versions ou de projets de publications (preprints). Dans cet article, Ginsparg explique bien comment la création d’Arxiv est la continuation par d’autres moyens d’une pratique ancienne de reproduction des preprints par photocopies et distributions par envoi postal. La création de l’archive est alors considérée comme une amélioration technique permettant de développer ces pratiques de communication de manière plus efficace. Elle joue donc un double rôle : l’accès instantané de toute la communauté scientifique aux derniers résultats de recherche – c’est donc la vitesse qui joue ici – mais aussi la possibilité pour l’auteur de voir son article examiné et corrigé avant publication. L’archive joue donc bien un rôle de vecteur de circulation de l’information scientifique et en même temps de lieu où s’exerce l’évaluation par les pairs. Il lui manque une dernière fonction qui reste aux revues scientifiques classiques : la validation, ou, comme le dit Jean-Claude Guédon, le bureau d’enregistrement des découvertes.

En effet, alors que l’évaluation par les pairs est ouverte (open peer reviewing) dans le cas d’une archive ouverte, ce qui en assure la rapidité et l’efficacité, elle est au contraire organisée et contrôlée dans le cas des revues, ce qui permet une validation et une certification des publications. Dans ce cas, la complémentarité entre archive ouverte (en libre accès) et revues scientifiques (en accès restreint) est fonctionnelle avec une répartition des rôles entre les deux lieux de publication. C’est à peu près la même logique qui a présidé à la création de Repec en 1996, dans la continuité de Wopec, créé 6 ans plus tôt. Comme l’explique bien Thomas Krichel (Krichel, 2000), son fondateur, le service qu’il commença à développer à partir de 1990 se situait dans la continuité d’échanges traditionnels entre bibliothèques universitaires portant sur les working papers des économistes.

Ici encore, cette initiative ne se positionne pas contre le système traditionnel de revues publiées par les éditeurs commerciaux de littérature scientifique ou avec pour objectif de le remplacer, mais en complémentarité avec lui. Pour les économistes comme pour les physiciens, les revues ne jouent plus depuis longtemps le rôle de vecteur de l’information scientifique qu’elles ont pu remplir dans le passé. Des réseaux d’échanges informels et décentralisés entre chercheurs au sein de communautés spécialisées ont profité de la démocratisation des moyens de communication pour se développer et remplir à leur tour ces fonctions beaucoup plus efficacement que le système traditionnel de publication en revues. Pour autant ces dernières n’ont pas fini de jouer leur rôle dans le système scientifique, en se repliant quasi-exclusivement sur la fonction de validation et certification de la publication.

À cette première étape du raisonnement, on peut donc dessiner un paysage pour la question du libre accès légèrement plus complexe que ce que donne à voir une approche exclusivement centrée sur les dimensions politiques et éthiques du sujet. De fait, le développement des archives ouvertes peuplées de preprints et de working papers s’est plutôt effectué autour des questions de rapidité d’accès à l’information scientifique, parfois avec des pratiques d’open peer review et ne constitue pas l’opposition frontale au système traditionnel de publication des revues que l’on pouvait attendre. Aux unes la nouveauté, la rapidité et l’échange communautaire – et la récente évolution d’Arxiv qui recense désormais les billets de blogs commentant les articles en est un beau témoignage -, aux autres la validation de l’information, mais aussi la certification, et finalement l’évaluation de l’activité scientifique des chercheurs.

En réalité, la situation est évidemment beaucoup plus confuse et diverse, en particulier aux yeux des acteurs eux-mêmes : tout à leurs objectifs de ventes aux bibliothèques de recherche de services performants d’information scientifique, les éditeurs de littérature scientifique ne ménagent pas leurs efforts sur la rapidité de l’accès à l’information. Ainsi l’éditeur Elsevier propose-t-il aujourd’hui dans certaines de ses formules d’abonnement un accès direct aux articles en cours d’évaluation dans les revues. Certains comme le groupe Nature ont d’ailleurs expérimenté, avec des fortunes diverses, la mise en open peer review de certains articles .

Du côté des promoteurs des archives ouvertes, les hésitations sont aussi nombreuses sur les filtres à mettre en place : ces archives ouvertes, surtout lorsqu’elles sont institutionnelles, c’est-à-dire adossées à une institution de recherche qui y place une partie de son crédit scientifique, doivent-elles recevoir toutes les contributions ? Faut-il instaurer un principe de modération et sur quelles bases ? Faut-il se contenter des working papers ou chercher à obtenir aussi les versions définitives des articles, malgré les politiques très diverses des éditeurs sur ce sujet ?

Les lois d’airain de l’économie de l’attention

On a vu que la question du libre accès aux publications scientifiques pouvait être analysée de deux manières : d’un point de vue politique comme la motivation de l’activité de recherche par la poursuite d’idéaux tels que l’avancement des connaissances et leur partage au niveau mondial ; d’un point de vue socio-technique comme la continuation des pratiques de communication scientifique par d’autres moyens. Une troisième voie d’analyse s’ouvre maintenant, qui va aborder la question sous l’angle économique.

Il est en effet possible d’analyser cette fois-ci aussi bien la crise du prix des périodiques scientifiques que le mouvement pour le libre accès comme deux conséquences, deux modes opposés de régulation d’un même phénomène : la destruction brutale de l’équilibre entre offre et demande sur le marché des connaissances scientifiques. Dès la fin de la seconde guerre mondiale, un observateur aussi bien placé que pouvait l’être l’organisateur de l’effort scientifique de guerre aux Etats-Unis, Vanevar Bush, pouvait exprimer ce déséquilibre dans son célèbre article « As We may Think » (Bush 1945).

Depuis, l’augmentation considérable des résultats de recherche produits par une augmentation significative des investissements de recherche et développement dans la plupart des pays industrialisés a été constatée et mesurée par de nombreux auteurs, dépassant les capacités de consultation d’un quelconque chercheur. Cette surabondance de l’offre par rapport à la demande sur des marchés de biens informationnels a été caractérisée par plusieurs économistes comme relevant de ce qu’ils ont pu qualifier d’ « économie de l’attention » (Simon 1971) , l’information n’étant plus rare mais surabondante par rapport au nombre de ceux qui se trouvent en capacité de la consommer, ce sont donc ces derniers, c’est-à-dire la demande, qui deviennent excessivement rares. Dans une telle situation, deux modes de régulation, parfaitement opposés, peuvent être mis en œuvre.

D’un côté, il est possible de reconstituer artificiellement de la rareté en mettant en place des labellisations discriminantes qui concentrent la valeur sur une partie minoritaire de l’offre et retirent toute valeur à ce qui en est exclu. Ce n’est pas le rôle du Science Citation Index mis en place sous l’impulsion puis dans la lignée de Eugene Garfield dans les années 60 (Garfield 1983, pp.6-19) pour d’autres fins, mais c’est le résultat effectif auquel il est arrivé. La notion de « core journal », le système du Science Citation Index, les mesures de taux d’impact ont pour résultat, sinon pour finalité, de définir un corpus clos d’un nombre limité de revues « de référence » pour une discipline donnée. Cette évolution, efficace d’un certain point de vue, crée cependant un goulot d’étranglement au niveau de la publication.

S’il peut satisfaire – et c’est ce à quoi il est destiné – les chercheurs comme lecteurs, disposant d’un corpus sélectionné et pertinent, il est aussi très contraignant pour ces même chercheurs qui, recrutés en nombre exponentiel en particulier dans les années 60, éprouvent des difficultés grandissantes à publier dans les revues labellisées – les seules qui soient reconnues par les institutions de recherche. Autrement dit, le déséquilibre entre offre et demande, résolu pour la lecture, est désormais déplacé au niveau de la publication. Ce mode de régulation d’un marché soumis aux pressions de l’économie de l’attention, qui peut être qualifié de régulation « en amont », ne fait en réalité que déplacer le problème.

Il existe un autre mode de régulation cette fois-ci « en aval » et qui consiste à ne pas contrarier la pression de l’offre. Les moyens de publication numérique qui ont la propriété, on l’a dit, de baisser le prix d’accès à la publication, et qui se caractérisent aussi par des coûts marginaux de copies très faibles voire à peu près nuls, permettent de mettre en oeuvre cette politique : et cette fois-ci, ce ne sont plus seulement des archives ouvertes qui se développent, mais aussi des revues électroniques qui se multiplient. Ici, le déséquilibre est bien maintenu ou reporté sur le marché de la lecture d’articles scientifiques, désormais produits en trop grande quantité pour être tous lus. Dans ce contexte, on comprend bien que toute barrière d’accès au texte intégral de l’article devient insoutenable.

Les publications scientifiques connaissent le même phénomène que celui qui frappe les médias d’information généralistes : ils doivent être (d’accès) gratuits pour avoir une chance d’être lus. Le libre accès n’est plus un but politique ni une commodité socio-technique, mais il est devenu une nécessité économique. Il s’agit d’un facteur très classique qui touche transversalement les mécanismes de distribution des biens informationnels sur Internet : la régulation sur l’usage de ces biens se fait a posteriori, par la mise à disposition d’outils performants de recherche d’information comme des moteurs fédérés permettant aux lecteurs de retrouver uniquement ce qu’ils cherchent en écartant tout bruit parasite (Chantepie, 2008, p.500). Dans ce cadre, le protocole OAI-PMH prend tout son sens comme brique technologique indispensable au moissonnage d’un grand nombre de sources d’information éparpillées, interrogeables grâce à lui, via une interface unique.

Entre, d’un côté, le système régulé par l’amont, et de l’autre la publication ouverte, il y a bien une alternative, car les deux propositions sont fondamentalement opposées dans leur principe et leur mode de mise en oeuvre. C’est le cas en particulier en ce qui concerne les modèles d’affaires qu’ils impliquent. Le système traditionnel de publication maintenant une rareté artificielle de l’offre, continue à se développer sur la base d’un accès tarifé aux publications : c’est l’abonnement et le modèle classique des lecteurs-payeurs. D’un autre côté, le modèle du libre accès ne fait pas disparaître les coûts comme par enchantement. Ils ne peuvent être pris en charge par le lecteur et sont reportés sur les auteurs. C’est le modèle que propose PLoS, facturant près de 3000$ la publication d’un article dans l’une de ses revues . La prise en charge des coûts de publication peut être collectivisée ou individualisée, selon le modèle économique adopté. Les plateformes de revues de sciences humaines françaises : Cairn, Persée et Revues.org par exemple, ne facturent pas la publication des articles aux revues qui ne les facturent pas à leur tour aux auteurs.

Les coûts existent, ils sont importants comme pour toute publication scientifique, mais sont mutualisés entre les différents organismes de recherche et d’enseignement supérieur qui les soutiennent. Que l’on soit dans un cas ou dans l’autre, l’intérêt du modèle d’accès ouvert est qu’il ne crée pas de goulot d’étranglement : le nombre de publications possibles dépend des capacités financières des institutions de recherche et le phénomène de rareté artificielle des lieux de publication est moindre. Par ailleurs, le phénomène d’économie de l’attention provoqué par la rareté relative des lecteurs est régulé en aval par l’utilisation d’outils de recherche fédérés et de protocoles d’interopérabilité permettant aux chercheurs de trier l’information dont ils ont besoin.

Les deux modèles sont opposés donc, et sans doute relativement rétifs à l’hybridation. On peut être assez sceptique sur les initiatives qui, des deux côtés, tentent d’expérimenter l’introduction de la logique économique adverse au sein de leur propre modèle d’affaire.

Ainsi, les modèles « open choice » adoptés maintenant par la plupart des éditeurs commerciaux et qui permettent à un auteur de diffuser son article en libre accès au sein d’une revue qui, elle, ne l’est pas, resteront sans doute limités du fait d’un manque de cohérence en réalité préjudiciable aux niveaux économiques et techniques. De l’autre côté, les système de « barrière mobile » qui affectent les publications en libre accès partiel, surtout pour protéger leur diffusion papier lorsqu’elle existe, ne dépasseront peut-être pas la période de transition pour laquelle ils ont été conçus.

Conclusion

On constatera que le débat sur l’open access vu sous cet angle se rapproche fortement de tous ceux qui affectent aujourd’hui les biens informationnels et culturels dans les réseaux numériques. De la même manière que les publications scientifiques, la musique, la presse, le livre même sont au centre d’interrogations relatives à ce qu’on appelle désormais l’ « économie du gratuit » (Anderson, 2009).

Dans le domaine des publications scientifiques comme des autres biens informationnels, tout indique donc que le modèle de l’accès ouvert puisse perdurer et se développer : au delà des considérations morales et politiques qui sont souvent invoquées à l’appui de ce modèle, au delà des intérêts professionnels des chercheurs eux-mêmes, les conditions technologiques et économiques de circulation de l’information dans les réseaux numériques le soutiennent fortement.

Mais rien n’indique par ailleurs qu’il doive remplacer le système classique de publication scientifique. On voit désormais très clairement l’élément central sur lequel celui-ci s’appuie, qui justifie son existence : il s’agit tout à la fois de la certification de la production de connaissances scientifiques, et en même temps – et c’est lié -, du contrôle de l’activité de publication ; autrement dit, de l’évaluation de l’activité scientifique.

Bibliographie

Aigrain, P., 2005. Cause commune : L’information entre bien commun et propriété, Fayard.

Anderson, C., 2009. Free : The Future of a Radical Price, Hyperion.

Brown, P.O., Heisen, M.B. & Varmus, H.E., 2003. Why PLoS Became a Publisher. PLoS Biol, 1(1), e36. Available at : http://dx.doi.org/10.1371/journal.pbio.0000036 [Accédé Octobre 13, 2009].

Bush, V., 1945. As We May Think. The Atlantic monthly, 176(1), 101-108.

Chantepie, P., 2008. Le consommateur comme plate-forme : l’économie du marketing en ligne. Dans X. Greffe & N. Sonnac, éd. Culture Web. Paris : Dalloz, pp. 495-511.

Davis, P.M., 2009. How the Media Frames ’Open Access’. Journal of Electronic Publishing, 12(1).

Garfield, E., 1983. Citation Indexing – its Theory and Application in Science, Technology, and Humanities, Philadelphia, USA : ISI Press.

Ginsparg, P., 1994. First Steps Towards Electronic Research Communication. Computers in Physics, 8(4), 390-396.

Guédon, 2001. In Oldenburg’s Long Shadow : Librarians, Research Scientists, Publishers, and the Control… Dans ARL membership meeting proceedings. Toronto : Association of research libraries. Available at : http://www.arl.org/resources/pubs/m… [Accédé Octobre 3, 2009].

Krichel, T. , 2000. Working towards an Open Library for Economics : The RePEc project. Dans Ann Harbor, MI. Available at : http://openlib.org/home/krichel/myers.html [Accédé Octobre 13, 2009].

Lagoze, C. & Van de Sompel, H., 2001. The Open Archives Initiative : Building a low-barrier interoperability framework. Dans Proceedings of the ACM/IEEE Joint Conference on Digital Libraries. pp. 54-62.

McCabe, M.J., 2004. Law serials pricing and mergers : A portfolio approach. Contributions to Economic Analysis & Policy, 3(1), 1221.

Okerson, A.S. & O’Donnell, J.J. éd., 1995. Scholarly Journals at the Crossroads : A Subversive Proposal for Electronic Publishing, Washington D.C. : Association of Reseach Libraires.

Samuelson, P. & Varian, H.R., 2002. The ’New Economy’ and Information Technology Policy. Dans J. A. Frankel & P. R. Orszag, éd. American economic policy in the 1990s. MIT Press.

Simon, H., 1971. Designing Organizations for an Information-Rich World. Dans Computers, communications, and the public interest. pp. 72, 37. (Chantepie 2008, p.500)

>> Cet article (version de l’auteur) a été publié dans une version éditée dans la revue Hermès, n°57 intitulé « Sciences.com, libre accès et sciences ouvertes », p. 23-30 et initialement sur le web sur Homo Numericus

>> Illustrations CC FlickR : judy_breck, boltron-, h_pampel

]]>
http://owni.fr/2010/12/01/libre-acces-a-la-recherche-entre-ideal-et-necessite/feed/ 1