Option libre. Du bon usage des licences libres
II Le système construit par les licences libres, les bases d’un nouvel équilibre
Chapitre
1
La maturation d’un nouvel équilibre grâce aux licences libres


Pages :   1    2 
La prise en compte de nouveaux usages (1.1) a donné lieu à différents courants de pensée (1.2) qui contribuent au succès croissant du « Libre » (1.3).

1.1 L’affirmation de nouveaux usages

L’efficience juridique des licences libres repose en amont sur une reconnaissance d’un droit exclusif (généralement le droit d’auteur, mais il peut s’agir d’autres droits, voire de plusieurs droits exclusifs), et en aval par un usage à rebours1 de ce droit dans le but, notamment, de favoriser un travail collaboratif. Le bénéficiaire du monopole initial s’appuie ainsi sur la technique du contrat (l’article 1134 du Code civil disposant que « [l]es conventions légalement formées tiennent lieu de loi à ceux qui les ont faites ») pour autoriser certains usages, rendant possible la diffusion massive des créations, dont il encadre le bénéfice.
La caractéristique différenciatrice des pratiques basées sur l’usage de licences libres est leur grande ouverture : chaque titulaire décide de partager ses droits avec tous plutôt que de les négocier avec chacun. Il serait néanmoins réducteur de limiter le Libre au seul comportement de ses acteurs puisque le phénomène, aux implications beaucoup plus étendues, consacre un nouvel équilibre : il s’agit donc d’un système alternatif, basé sur la construction d’un patrimoine numérique commun2, dans lequel chaque utilisateur devient acteur potentiel.
Dans ce nouveau système où tous bénéficient de prérogatives très larges, il n’y a plus d’économie reposant sur l’exploitation directe du « monopole » (il peut néanmoins en exister d’autres, périphériques à la création) et l’intérêt à contribuer (ou, plus généralement, à développer le projet) est lui aussi partagé entre tous3. On verra aussi que cette situation devient juridiquement4 pérenne – c’est-à-dire irréversible – lorsque, généralement en raison du nombre de contributeurs se répartissant la propriété du tout, la licence devient le seul cadre possible d’exploitation de la création entière (même si chacun est libre de valoriser ses propres apports personnels).
Ce mouvement prend place dans un contexte de remise en question de la propriété intellectuelle classique (1.1.1) et d’un affrontement entre plusieurs conceptions (1.1.2). Il débouche sur un nouvel équilibre (1.1.3).

1.1.1 La remise en question de la propriété intellectuelle classique

La liste est bien entendue non limitative, mais deux phénomènes notables conduisent à cette remise en question de dogmes antérieurs : un changement de paradigmes bouleversant nombre de nos conceptions d’une part (1.1.1.1) ; de multiples abus du système, notamment dans l’usage des droits, d’autre part (1.1.1.2), ce qui mène naturellement à rechercher des alternatives (1.1.1.3).

1.1.1.1 Des changements de paradigmes

Notre société n’a plus grand-chose de commun avec celle du XVIIIe siècle : les mentalités, les usages et outils ont évolué. Nombre de nos paradigmes ont changé, avec un impact direct sur le regard que nous portons à la création et l’innovation5  : leur changement de nature (1.1.1.1.a), l’influence de la mondialisation (1.1.1.1.b) ou encore la contestation des postulats fondateurs de la propriété intellectuelle (1.1.1.1.c).
La nouvelle nature de la création : numérique, plurale et gratuite
Il suffit de comparer les créations des auteurs au XVIIIe et au XXIe siècles, pour que tout le monde convienne que la transformation est de taille : leur support est aujourd’hui essentiellement numérique (alors que des centaines de supports différents circulaient autrefois), elles s’inscrivent ou reposent sur des créations tierces et leur exploitation est très souvent gratuite.
La pluralité dans la création
Il n’y a plus aujourd’hui de créateur ou d’auteur « solitaire » tel qu’imaginé lors de la création des différents droits. En effet, à l’ère « informationnelle » qui est la nôtre, cette vision romantique doit s’effacer au profit de la réalité plus pratique d’une création plurale par principe, à fortiori dans le domaine des nouvelles technologies où la coopération et le respect des standards sont essentiels au succès d’un projet. Cela pose de nombreuses questions aux juristes, qui ont pour matière première des lois qui concevaient la création comme unique, entière et appartenant à un seul : d’où, notamment, les réflexions relatives aux œuvres multimédias6 ainsi que la multiplication des conventions d’indivision.
Il est donc nécessaire d’adopter une approche différente qui, par une refonte des droits – voire par l’édiction de licences obligatoires –, réponde à ces changements d’une manière favorable à la création et à l’innovation (en envisageant peut-être des rémunérations équitables). En l’espèce, les licences libres s’avèrent être une réponse adaptée puisque chaque participant/auteur/acteur à l’œuvre a expressément consenti à une exploitation de sa contribution sous réserve du respect de sa licence7.
On peut faire grief à l’ubiquité de l’information qui la rend accessible à tous les ordinateurs du globe quelques secondes après son apparition. Ainsi, à la différence d’hier, il n’y a plus aujourd’hui d’invention qui « bouleverse » la société et les usages, mais au contraire une multitude de petites inventions, incrémentales, qui vont dans le même sens8. À partir de là, l’inventivité caractérisant les inventions brevetables n’est plus aussi patente qu’elle l’était – souvent simple avancée dans l’état de l’art plutôt qu’éclair de génie.
Le numérique comme nouveau paradigme
Par le numérique, l’œuvre – fictivité juridique – est communiquée par un support tout aussi immatériel et ubiquiste : les rendant tout deux à la portée de tous, en tout lieu, et tout temps. L’outil numérique va transformer nos usages et notre industrie, puisque tout tend à devenir numérique et peut être reproduit à l’identique (même des objets en trois dimensions peuvent aujourd’hui être stockés sous forme numérique avant d’être reproduits par des imprimantes 3D9), sans perte et avec un coût qui tend vers zéro. Par ailleurs, puisqu’il coûte généralement beaucoup plus cher de produire quelque chose de nouveau que de se baser sur l’existant, le numérique renforce le succès de l’open source (comme base de composants préexistants).
À l’échelle du marché, on observe plus globalement que ce phénomène concerne de nombreuses industries (télécommunication, médias, constructeurs, etc.) qui se préparent, tant bien que mal, à cette « convergence du numérique »10.
Néanmoins, beaucoup de juristes restent réticents à y voir une raison suffisante pour infléchir leur appréhension des œuvres : objets de droits étant eux-mêmes immatériels, pourquoi devrait-on les penser différemment alors que leur contenant est indépendant de la création (un tableau est protégé de la même façon qu’il s’agisse de la toile originale ou de sa version numérisée) ? Le réflexe, compréhensible au regard du paradigme autrefois partagé, sera à la longue qualifié d’autisme si, incapables de sortir des affirmations définitives et contradictoires, les juristes ne réalisent pas que tout l’environnement qui entoure la conception et la diffusion des œuvres a changé dans une mesure telle qu’il convient de repenser les droits11.
Le combat mené par l’industrie culturelle12 contre les pratiques sociales émergentes – sur la seule base d’indicateurs économiques (de surcroît très contestables13) – est donc un égarement qui ne saurait durer : dans notre monde numérique où l’information est passée de la rareté à la surproduction, la propriété intellectuelle doit jouer un rôle radicalement différent.
L’innovation doit aujourd’hui par principe être ouverte et partagée. Il est même possible que ce nouveau paradigme concoure à une redistribution de la donne économique au profit des pays en développement – même si le retard de ces derniers en terme d’infrastructures constitue actuellement un obstacle majeur (avec d’autres facteurs parmi lesquels un faible taux d’alphabétisation).
La gratuité de la création
L’une des conséquences irrémédiables du numérique est souvent la gratuité. Ainsi, Chris Anderson (auteur des ouvrages Free ! et The Long Tail) explique qu’« [i]l est désormais clair que tout ce que le numérique touche évolue vers la gratuité […]. D’une certaine manière, le web étend le modèle économique des médias à toutes sortes d’autres secteurs économiques ». Ajoutant enfin qu’« [i]l n’y a jamais eu un marché plus concurrentiel que l’Internet, et chaque jour le coût marginal de l’information devient plus proche de rien du tout ».
La théorie de la longue traîne (long tail), exposée la première fois par Chris Anderson en 2004, explique le succès des sociétés qui vendent de nombreux produits, chacun en petite quantité, grâce au marché mondial et interconnecté d’aujourd’hui. En corollaire, Kevin Kelly ajoute que « [q]uand la copie se généralise, vous avez besoin de vendre des choses qui ne peuvent pas être copiées ». Il donne ainsi certains exemples comme l’immédiateté, la confiance, la personnalisation, l’authenticité, l’interprétation, etc. L’expérience très médiatisée de Radiohead diffusant gratuitement les copies de son dernier album doit néanmoins être relativisée : nul doute que l’effet n’aurait pas été identique pour un artiste moins connu, nul doute non plus que l’initiative similaire d’un artiste moins connu aurait été moins médiatisée… Cela étant posé, rien ne laisse présager que de telles initiatives ne puissent pas être répliquées à des échelles plus humbles.
Le corollaire d’un tel changement économique est qu’il convient de repenser toute l’exploitation commerciale liée à ces œuvres : une telle gratuité induit l’élaboration de nouveaux modèles économiques, l’entrée de nouveaux acteurs et la nécessaire évolution de l’industrie antérieure (qui reposait souvent sur un modèle qui n’a aucune raison d’être maintenu en l’état).
L’impact de la mondialisation sur la propriété intellectuelle
Au surplus, les pays industrialisés ne cessent d’accroître leur dépendance vis-à-vis de pays auprès desquels ils externalisent leurs moyens de production, ce qui provoque, en contrepoint, la nécessaire concentration d’une propriété… essentiellement immatérielle. Ajoutez à cela l’arrivée de nouvelles puissances (comme la Chine, l’Inde et la Corée du Sud pour l’Asie) renversant les équilibres précédents, on comprend la fragilité du modèle et la crispation de certains en faveur de son renforcement.
L’harmonisation des différents droits
Il a été expliqué précédemment que les différents droits de propriété intellectuelle étaient généralement harmonisés par voie de traités internationaux14. Ceux-ci ont généralement pour vocation de fixer le minimum commun de protection. En amont, un mécanisme quasi systématique de réciprocité impose aux pays concurrents d’intégrer de nouveaux droits dans leur législation, ou de changer l’étendue de ceux existants, s’ils ne veulent voir leurs entreprises pénalisées à l’international.
Néanmoins, cela se fait au détriment du cours normal des droits de propriété intellectuelle qui naissent et évoluent au gré des sociétés15. Une telle évolution (voire introduction) forcée peut gravement porter préjudice à une société qui conserve une culture ou un savoir traditionnel très fort. Au-delà, les droits de propriété intellectuelle constituent de véritables freins à l’expansion des pays en voie de développement : leur introduction profitant essentiellement à des sociétés étrangères qui s’installeront lourdement armées de droits sur leur territoire au détriment de l’économie locale composée d’entreprises non encore innovantes et peu coutumières de ce système (et bien sûr incapables de lutter sur le terrain de la protection des droits – tant sur leur territoire qu’à l’étranger).
Ainsi, pour « convaincre » les réfractaires au modèle de cette économie de l’immatériel, les pays dominants n’hésitent pas à leur imposer, au travers de traités bilatéraux souvent secrets et conditionnant les relations commerciales entre les pays, la mise en place de politiques de propriété intellectuelle tout à fait disproportionnées part rapport à leurs besoins. Les États-Unis figurent en tête de cette pratique, jusqu’à dernièrement avec le Guatemala ou l’Inde : l’U.S. Department of Commerce’s Special 301Watchlist évalue en effet les politiques mises en place de par le monde, de sorte à sanctionner les « mauvais élèves » qui ne protégeraient pas suffisamment les entreprises américaines16.
Une marchandisation de la propriété intellectuelle
D’une manière plus générale, la cause de bien des problèmes rencontrés par la propriété intellectuelle est sa « marchandisation » : les droits ont à l’origine introduit ces nouveaux biens dans le marché, mais c’est aujourd’hui le marché qui leur confère la valeur et qui dirige (en grande partie) leur évolution. Ainsi, elle engendre un glissement du couple auteur-public au couple producteur-consommateur tout à fait différent (ce qui explique notamment qu’un panier à salade puisse bénéficier de la même protection qu’un tableau de peintre).
Ainsi, si aujourd’hui, l’« économie du savoir » a pris une place dominante à l’échelle mondiale, cela s’est fait en conférant une place démesurée aux industries afférentes et en générant par ailleurs de multiples tensions vis-à-vis d’autres droits cruciaux et vitaux comme la santé, l’environnement, l’accès pour les handicapés et l’agriculture.
L’importance des enjeux est donc unanimement reconnue, sans qu’il y ait néanmoins d’intervention véritable de la part des États – échouant à contrôler les initiatives mises en place par le secteur privé, notamment des sociétés américaines telles Google ou Microsoft (avec notamment le projet Google Books et la Fondation Bill-et-Melinda-Gates)17.
La mise en concurrence des instances internationales
On observe aussi une crise de légitimité au sein des différentes instances internationales (notamment l’OMPI et l’OMC – voire l’ONU) qui, lorsqu’elles ne sont tout simplement pas contournées par le biais d’accords bilatéraux ou plurilatéraux (comme ACTA ou le G20), sont victimes d’un véritable forum shopping (un choix des instances en fonction des avantages qu’elles procurent) qui pervertit leurs finalités d’origine – à plus forte raison quand la quasi-intégralité de leurs revenus provient de services économiques dont elles ont la charge ou qu’elles ont créés.
Le système international de la propriété intellectuelle est sous pression, l’architecture politique est inadéquate et il convient de toute urgence d’y remédier au risque d’y trouver la cause d’une nouvelle crise. Exprimant régulièrement ses inquiétudes, le directeur général de l’OMPI, Francis Gurry, indique la nécessité de revoir nos normes, ainsi que les plates-formes et infrastructures techniques qui nous encadrent (tels les Twitter-like et Facebook-like).
Une contestation des postulats fondateurs de la propriété intellectuelle
La propriété intellectuelle est enfin contestée jusque dans ses principes fondateurs eux-mêmes : quant à la notion de propriété qui lui est attachée et quant au caractère incitatif qui la justifie.
Une contestation des effets attendus de la « propriété »
Inspiré par la propriété consacrée par le Code civil18, le Code de la propriété intellectuelle transforme certaines idées – rien ne se propage plus vite et n’est plus fuyant qu’une idée – en des biens auxquels est attachée une valeur économique (par ailleurs distincte de sa valeur artistique ou intellectuelle) grâce au contrôle que l’on détient sur leur exploitation.
Les titulaires de droits peuvent ensuite en jouir selon leur bon vouloir, généralement de sorte à en tirer une rente (la plus forte et la plus longue possible). L’aspect utilitaire du logiciel incite néanmoins à reconsidérer le préjudice que portent les droits (droits d’auteur, éventuellement brevets) à l’acquéreur légitime de celui-ci : il se retrouve en effet pieds et points liés face à un éditeur qui peut lui interdire toute modification pourtant nécessaire à ses besoins, tout accès non initialement prévu (mais éventuellement prévisible), toute assistance non autorisée, toute mesure conservatoire qui pourrait être liée au métier de l’acquéreur, etc. Envisagé à l’extrême (mais sans sortir des pratiques existantes), il y a là un véritable assujettissement de millions de personnes au profit d’acteurs privés gouvernés par la recherche du seul profit sur le fondement de leur propriété sacrée et inviolable.
Certains auteurs éclairés suggèrent de prendre pleinement en compte la nature différente de la propriété intellectuelle. Philippe Gaudrat écrit par exemple :
[u]n curieux défaut d’imagination semble conduire la plupart des juristes à ne pouvoir imaginer d’autre propriété que celle de l’article 544 du Code civil : ou la propriété doit avoir les caractères du droit que décrit cet article, ou ce n’est pas une propriété. Mais le droit défini par cet article n’est pas l’archétype propriétaire en soi ; il est l’application de cet archétype aux choses matérielles. L’essence de la propriété ne gît que dans le pouvoir de retenir ou distribuer la jouissance de la valeur de la chose grevée ; le modèle qui en résulte, quand on l’applique aux choses matérielles, n’est déjà qu’un dérivé, même si cette propriété est, par la force des choses, la plus ancienne et la plus répandue. Si l’archétype propriétaire est un, la propriété de droit positif est multiple, car elle est façonnée par les caractères de l’objet réservé19
Ainsi, alors que la propriété du Code civil servait initialement de modèle à la construction d’une propriété intellectuelle, on en a aujourd’hui oublié qu’elle ne pouvait néanmoins qu’être différente – quelles que soient les crispations qu’une telle évidence peut engendrer.
La contestation du caractère incitatif
Le caractère incitatif de la propriété intellectuelle a toujours été présenté comme un postulat, sans qu’il soit possible de prouver si la création et l’innovation sont réellement mieux portantes depuis la création d’une propriété intellectuelle. Symptomatique de la société actuelle, le Conseil de l’Union européenne a ainsi déclaré :
[l]es droits de propriété intellectuelle sont un élément fondamental pour la promotion de la culture et sa diversité, ainsi que pour la valorisation de la recherche, de l’innovation et de la création des entreprises européennes, notamment des petites et moyennes entreprises, afin de soutenir la croissance et l’emploi au sein de l’Union européenne et de développer la dimension externe de la compétitivité européenne.20
Néanmoins, de plus en plus d’auteurs estiment que le système de la propriété intellectuelle, obsolète, devrait être abandonné au motif que le caractère incitatif des droits de propriété intellectuelle (et notamment du droit d’auteur) se voit mis à mal dans la société contemporaine : les créateurs ne peuvent vivre de leur art, alors que de grandes sociétés exploitent les droits des premiers pour dominer des marchés. La doctrine juridique elle-même est réservée quant à l’évolution actuelle des différents droits de propriété intellectuelle et reste très critique à l’encontre des exploitants, de leurs monopoles et lobbyings.
Le rapport File-Sharing and Copyright réalisé par l’Harvard Business School appuie cette thèse :
Alors que les échanges de fichiers ont perturbé certains modèles commerciaux traditionnels de l’industrie culturelle, principalement en matière de musique, notre lecture tend à considérer qu’il y a peu de choses qui montreraient que les nouvelles technologies ont découragé la production artistique. Une protection des droits d’auteur faible, semble-t-il, a bénéficié à la société.21
Le rapport canadien publié par McGill dénonce aussi une utilisation pervertie de la propriété intellectuelle et promeut une nouvelle propriété intellectuelle tournée vers l’échange et le partage22.
Ainsi, Joost Smiers et Marieke van Schijndel, dans leur ouvrage Un monde sans copyright… et sans monopole23, imaginent et construisent un monde sans droit d’auteur, sans monopole sur les créations de l’esprit et sans « conglomérats culturels » aux intérêts nécessairement contraires à ceux de la société.
Par ailleurs, d’autres thèses sont venues imaginer de nouveaux systèmes, considérés comme plus adaptés au monde d’aujourd’hui, se basant ou non sur la propriété intellectuelle existante. Ainsi, pour ne parler que d’initiatives françaises, il est possible de citer les travaux d’Olivier Auber sur le revenu de vie (basé sur le revenu minimum d’existence) ou encore la contribution créative théorisée par Philippe Aigrain.
La SARD et le financement par le don
Autre initiative, l’idée d’un nouveau système de financement des auteurs, fondé sur le don, a donné le jour à une expérimentation concrétisée par la constitution de la SARD (Société d’Acceptation et de Répartition des Dons). Fonctionnant sur un plan parallèle au système traditionnel, elle incite à penser différemment le rapport entre auteur et public.
D’autres projets similaires peuvent être cités : Flattr, Yooook, MooZar, Ulule, SHAGAÏ, MCN, et Kachingle ou, plus récemment, Make It Open (plate-forme brésilienne) et la plate-forme CreationMix lancée sous le patronage des pères de Creative Commons. Ces initiatives montrent une profession (des auteurs) qui se cherche. Elles sont par ailleurs non exclusives, accessibles à tous (membres de sociétés de gestion collective ou non) et ne nécessitent aucune réforme législative. Enfin, en mettant l’accent sur le rôle des auteurs et le caractère incitatif des propositions (pour la création et l’innovation), ces initiatives replacent l’artiste au sein du système et il est fort probable que l’un de leurs effets de bord soit de redonner au système de propriété intellectuelle l’équilibre nécessaire à sa légitimité.

1.1.1.2 Une réaction aux abus

Ce n’est pas une surprise, les intérêts financiers drainés par la propriété intellectuelle sont tels que l’équilibre initial s’en trouve transformé, voire déformé, au profit de certains des acteurs du système seulement. La perte de l’équilibre, au bénéfice des intérêts de certains, remet en question le système global de la propriété intellectuelle – que l’on pense aux entreprises qui n’ont cessé d’acquérir de nouveaux droits (sur des créations préexistantes ou fictives) pour maximiser leur profit –, ou des États eux-mêmes repliés sur l’intérêt de leurs industriels, oubliant de s’intéresser à l’innovation et à la création qui constituent pourtant la seule justification à ces droits.
Peut-être faut-il le rappeler : « à tout vouloir protéger, on passe d’une logique de l’innovation à une logique de la rente24 ». Or, nul doute qu’une telle logique ne tienne qu’un temps…
Ainsi, l’édiction continue de nouveaux droits exclusifs (1.1.1.2.a) affaiblit le système, de même l’utilisation qui en est faite (1.1.1.2.b), notamment les abus (1.1.1.2.c) et l’accaparement par l’industrie (1.1.1.2.d). Enfin il faut ajouter les différents freins systémiques comme le dogme de la gestion collective (1.1.1.2.e).
L’édiction incessante de nouveaux droits
Devenu trop sensible aux pressions du marché, le législateur ne cesse de créer de nouveaux droits pour répondre aux industries qui le sollicitent. Ainsi, il y a eu plus de droits créés cesvingt dernières années que durant les deux siècles précédents ; et plus de droits créés ces cinq dernières années que dans les vingt années qui précèdent…
On pourrait y voir la « réactivité » louable d’une société en phase avec son époque, mais ce serait ignorer le déséquilibre croissant entre la prise en compte des intérêts du public (désorganisé et sans moyens propres) et les industries (organisées et disposant de moyens conséquents) par les instances gouvernementales ou communautaires, brisant ainsi les équilibres légitimant originairement les différents droits. Cette déviance est par ailleurs très clairement exprimée par le rapport de conflit entretenu aujourd’hui entre le public (potentiel pirate) et les différents titulaires de droits, déviance qui s’est traduite par l’édiction des lois les plus récentes : offrant de nouveaux outils aux titulaires, contre un public qui était jusqu’alors étranger à ces enjeux tant qu’il restait dans sa sphère privée.
L’extension des droits
De l’utilisation qui est faite de ces droits, trois problèmes peuvent être identifiés. Le premier est celui de la qualité des titres qui sont délivrés : trop de titres sont accordés alors qu’ils ne respectent manifestement pas les conditions posées par la loi (objet exclu de la brevetabilité, absence de nouveauté, d’inventivité, d’application industrielle, description trop faible, etc.). Ainsi, les offices reportent sciemment25 le coût de ces examens, long et coûteux, sur la société.
Le second problème concerne l’inadaptation des droits actuels aux créations complexes : conçue dans un monde où les produits ou services étaient relativement simples et ne reposaient que sur un nombre limité d’inventions, l’exclusivité conférée au titulaire de brevets n’avait pas l’effet bloquant qu’elle a en présence de centaines (voire de milliers) d’inventions utilisées dans certains produits. Ainsi, des inventions fictives ou mineures peuvent aujourd’hui bloquer une invention plus importante et un produit de grande valeur sociale. En 1917 le gouvernement américain avait imposé la création d’un groupement de brevets dans le domaine de l’aéronautique, ce qui donna la MAA (Manufacturer’s Aircraft Asssociation). Celle-ci permit la création d’avions sans crainte de procès, ce qui mit fin aux querelles de brevets et favorisa l’essor de l’industrie aéronautique. On retrouve des régulations similaires dans le domaine des télécommunications, de la radio, du nucléaire, de la qualité de l’air (Clean Air Act), etc. Néanmoins, on constate une explosion du nombre de ces situations, rendant impossible la généralisation d’une telle régulation sans dénaturer le système.
Enfin, on peut se demander si le rôle de diffusion des connaissances des offices nationaux de propriété intellectuelle est suffisant. En effet, si les brevets étaient moins nombreux et mieux connus, nous ne connaîtrions pas les procès actuels où les brevets ne sont révélés et opposés aux industriels qu’au moment où ceux-ci commercialisent leurs produits… En effet, lorsqu’on se trouve en présence d’objets complexes (satellites, téléphones, logiciels, etc.), il est fort probable que soient impliquées de multiples technologies soumises à un ou plusieurs droits exclusifs. Il est possible de se prémunir en matière de droit d’auteur (par exemple par une politique claire de gestion des contributions externes), mais lorsqu’un produit comporte des centaines (voire des milliers) de brevets, il a de grandes chances d’en violer un grand nombre.
Chris Sacca, capital-risqueur américain, s’alarmait à ce sujet :
Nous sommes à un point de l’ère de la propriété intellectuelle où les brevets existants couvrent probablement tous les comportements qui surviennent sur Internet ou sur nos téléphones mobiles d’aujourd’hui. […] En moyenne, les start-ups de la Silicon Valley ou même les sociétés de taille moyenne, indifféremment du fait qu’elles soient réellement novatrices, […] violent des brevets en ce moment même. Et c’est ce qui est fondamentalement cassé dans le système actuel26
L’abus dans l’usage des droits
Seconde déviance préjudiciable, de nombreux titulaires de droits essaient d’étendre le monopole conféré par la loi afin de maximiser les profits : artificiellement par contrat, en multipliant les procédures abusives, les pactes de non-agression, etc. Théoriquement, de tels comportements, dès lors qu’ils outrepassent délibérément leur monopole, devraient être sanctionnés sur le fondement d’abus de droit27 – par le simple dépôt abusif (avec intention de nuire), par l’usage qui est fait du droit exclusif (les juges considérant que « l’exercice d’un droit exclusif par son titulaire peut donner lieu à un comportement abusif28 ») ou pour une action en justice abusive29 (telle une action contre un concurrent se fondant sur des « leurres de revendication » de brevets30). La longueur et le coût de telles procédures les rendent néanmoins inadaptées au regard du préjudice instantané que peut causer une interdiction de commercialisation ou les frais de défense liés à une action en contrefaçon (d’où par ailleurs un recours de plus en plus fréquent à des procédures extra-judiciaires telle l’Untited States International Trade Commission (USITC)).
Parmi les usages les plus caricaturaux figurent en tête les Patent trolls, ces sociétés sans R&D qui achètent des brevets tiers afin de négocier des licences ou agir en justice (on observe le même type de sociétés en matière de droits d’auteur). Sous couvert de favoriser la diffusion de l’innovation et de favoriser la rémunération des auteurs, elles cherchent uniquement à maximiser le gain relatif à leurs actifs, quitte à se spécialiser en procédures et multiplier les assignations. Leur comportement induit un raisonnement qui ne se pose plus en termes d’inventions, mais de brevets, ce qui creuse davantage encore la différence entre les deux termes, de sorte que la plupart des brevets que ces sociétés exploitent ne sont pas considérés par les pairs comme des inventions (puisque les Patent trolls favorisent des brevets larges et relativement simples, susceptibles d’être opposés à un maximum de sociétés). Elles sont souvent désignées sous l’acronyme de NPE pour Non-Practicing Entity.
Plus pernicieuses, certaines sociétés constituent des portefeuilles de brevets dits « défensifs » qu’elles entendent partager aux bénéfices des entreprises qui souscriraient, leur permettant, telle une assurance, de se défendre sur la base de ces brevets en cas de procès. Mais les entreprises approchées se retrouvent finalement dans la position délicate de dépenser des millions de souscriptions auprès de ces entreprises, ou de refuser et accepter que ces mêmes brevets puissent être utilisés par leurs concurrents contre eux… Des « assurances » qui ne sont ni plus ni moins que des promesses de non-agression et de protection (qui rappellent étrangement les notion de racket et de mafia). On retrouve ainsi tous les mécanismes de la Guerre Froide, les puissances dominantes n’osant pas nécessairement s’affronter directement, mais étant sans scrupules à l’encontre de partenaires et clients du camp adverse.
Ces comportements induisent aussi un autre effet, économique, de surenchère qui crée une « bulle de l’immatériel » en matière de brevets. Par crainte de se voir opposer des brevets non détectés, les entreprises investissent des sommes colossales dans l’acquisition de brevets ou portefeuilles de brevets (nécessairement au détriment de la R&D interne) afin de se défendre en cas d’assignation. Cette confrontation a pour seul effet d’augmenter les coûts des brevets, telle une bulle qui éclatera lorsque le marché ne reconnaîtra plus aucune valeur à ces biens immatériels détournés de leur fonction initiale. On assiste ainsi à une course à l’achat – à l’armement d’après certains (Google étant généralement en lice, tenue à l’écart par les acteurs traditionnels qui se liguent contre elle31) – en même temps qu’une course à la vente32 de la part de sociétés qui y voient une valorisation et une source de revenus importante (tel Kodak qui annonce en août 2011 vouloir se séparer de plus de 1 000 brevets, ces derniers étant évalués à 3 milliards alors que la société était estimée à 1,3 milliards de dollars).
Plus grave : les sociétés traditionnelles s’allient, par une concentration de leurs droits, pour contrer l’innovation. Ce fut notamment le cas de l’achat, en 2010, de 882 brevets à Novell par un consortium constitué par Microsoft, Oracle, Apple et EMC. Plus récemment encore, l’achat en 2011 de 6 000 brevets à Nortel (pour un coût total de 4,5 milliards) par un autre consortium constitué cette fois par Microsoft, Apple, Rim, Ericsson et EMC. Dans ces exemples les titres sont utilisés contre l’innovation, contre le marché, et pour bloquer l’expansion économique d’un concurrent. Contrairement aux brevets tels qu’ils ont été initialement conçus, c’est-à-dire très descriptifs afin d’inciter les inventeurs à trouver une autre solution au même problème technique, les brevets d’aujourd’hui sont volontairement très larges. Ils empêchent l’innovation alors qu’ils la favorisaient, et servent à renforcer un pouvoir existant (c’est d’ailleurs la raison pour laquelle il est si difficile de changer le système).
Les Patent trolls eux-mêmes participent à cette course (telles les deux sociétés Wi-LAN et Mosaid qui cherchent à se rapprocher pour cumuler leur portefeuille de brevets)33. La création en France et en Europe des sociétés publiques France Brevets et European patent fund témoigne de notre volonté de se doter des mêmes armes sans mesurer la déviance inhérente à toute politique en matière de propriété intellectuelle déconnectée de l’inovation.
Pour aller plus loin...
Par « brevet vert » on désigne les inventions autour desquelles leurs titulaires déposent régulièrement de nouveaux brevets « accessoires ».
C’est cette politique de l’extrême qui a donné l’expression de « brevets toujours verts » (qui couvrent des inventions restreintes, de faibles valeurs et souvent révoqués devant les tribunaux). Voir sur ce point : Autorité de la concurrence, Rapport annuel 2008, La Documentation française, Paris, 2008.
On se reportera aussi à Lallement (Rémi), « Politique des brevets : l’enjeu central de la qualité, face à l’évolution des pratiques », in Revue trimestrielle du Centre d’Analyse Stratégique, numéro 7, Janvier-Mars 2008.
Résumé :
Les entreprises sont de plus en plus incitées à se doter de brevets, pour mieux positionner leurs activités d’innovation face à celles de leurs concurrentes et parfois même pour des considérations d’ordre purement stratégique. Pour le système des brevets, ce succès grandissant risque de se retourner contre lui. Face au flot croissant des demandes de brevets, en effet, les offices de brevets sont de plus en plus engorgés. Par contrecoup, un faisceau d’indices convergents atteste d’une tendance à la prolifération, au détriment de la qualité d’ensemble des brevets, dans la plupart des pays industriels. Une telle dégradation de la qualité des brevets correspond à une situation dans laquelle sont délivrés des brevets qui n’auraient pas dû l’être. Elle menace globalement tant la concurrence que l’innovation. Pour contrer ces périls, diverses réformes ont récemment été envisagées ou engagées – en particulier aux États-Unis et en Europe – mais leur issue n’est pas encore acquise.
Google : brevet et innovation
La société34 subit aujourd’hui un assaut conjoint mené par ses principaux concurrents (Apple, Microsoft et Oracle en tête) qui l’assignent, elle et ses clients, en contrefaçon (droits d’auteur, brevets, etc.).
Ayant pendant très longtemps argumenté en faveur d’une reforme du système américain des brevets35, Google a néanmoins été contraint de suivre le comportement de ses concurrents afin de se défendre et donc de s’armer en brevets (sorte d’armes légales dont elle était peu dotée). C’est ainsi qu’elle a racheté des brevets à IBM et qu’elle a même acheté la société Motorola intégralement (cette dernière disposant d’excellents brevets relatifs au mobile et au réseau de télécommunication). Afin de la faire plier, ses concurrents (pourtant eux-mêmes concurrents), se sont regroupés pour surenchérir et acquérir le portefeuille de brevets de Nortel.
Ainsi, les portefeuilles de brevets ne sont pas vendus pour leur valeur marchande, mais pour leur valeur stratégique (pour éjecter du marché un nouvel entrant). En effet, puisque Google base son modèle sur un produit gratuit, ses concurrents utilisent les brevets pour en faire un produit payant non disruptif (suite à une série de procès, Samsung et HTC versent aujourd’hui plus d’argent à Microsoft pour la vente de téléphones sous Android que de téléphones sous Windows mobile…). Dans ces usages, la société attaquée perd dans tous les scénarios :
dans l’hypothèse d’une transaction : soit Google paie une licence arbitrairement fixée très haut (ce qui ne l’empêchera pas d’être menacée par d’autres brevets) soit ses clients (constructeurs et opérateurs) se voient obligés de payer une licence (ce qui annule l’intérêt du produit) ;
en l’absence d’une telle transaction : soit Google perd le procès et est éjecté du marché soit Google gagne le procès (ce qui ne l’empêchera pas d’être menacée par d’autres brevets), mais ses produits seront alors moins attractifs (surtout si elle a ainsi perdu la place du premier entrant).
Dans tous les cas, il n’y a pas de rapport entre le coût du brevet et son mérite (sa qualité).
L’industrialisation de la propriété littéraire et artistique
Il a longtemps été considéré que les intérêts de l’industrie étaient les mêmes que ceux des artistes qu’elle défendait et représentait. Or, il s’avère que ce postulat est entièrement faux : l’artiste crée pour transcender son art comme le scientifique pour accroître la connaissance, alors que les industries créent uniquement pour l’argent qu’elles ont à y gagner36 ! Dès lors, qui dit finalités différentes, dit encadrements différents : mettre en doute la pertinence du rôle de ces nouveaux intermédiaires aurait permis, selon nous, d’éviter les dérives actuelles du droit d’auteur. En effet, probablement par leur force économique et leur lobbying constant37, on assiste à une transformation du droit d’auteur en un droit pour l’industrie culturelle tout à fait détaché des enjeux du public et des auteurs. Or, si ces industries devaient figurer dans les dispositions relatives au droit d’auteur, ce serait uniquement pour en protéger les auteurs. Ainsi, dès lors qu’une norme est perçue comme inadéquate38 et illégitime, il est normal d’observer un désintérêt et un désengagement croissants qui se traduisent par une immobilisation de tout son pouvoir coercitif39. Ainsi, il ne s’agit pas d’étendre les sanctions, mais au contraire de rendre au droit sa légitimité.
Sur un plan plus théorique, il semble bon de rappeler qu’avant de songer à appliquer les droits d’auteur à ces nouvelles situations, peut-être faudrait-il se demander s’il s’agit du bon outil, de la façon de penser adéquate, et s’il y a des raisons sociales, juridiques, scientifiques et économiques qui justifient cette application. Partant de ce constat, il est regrettable de constater l’inconsistance des enquêtes ayant accompagné ces projets de loi40. Peut-être aurait-on ainsi permis que le couple intermédiaires économiques / consommateurs, artificiellement présenté comme le modèle unique par l’industrie, fasse place à une prise en compte des usagers du droit d’auteur dans toute leur diversité.
Enfin, toutes ces questions n’ont d’intérêt que si l’accompagnement de ces nouvelles pratiques est pensé comme la première des priorités. Les droits exclusifs n’ayant d’utilité que dans l’autonomie qu’ils offrent aux auteurs et à leur public, il convient, lorsque ces derniers veulent le partage et la diffusion, de construire un cadre qui, s’il ne favorise pas cet usage, ne lui soit pas contraire. C’est là le futur et nous avons tous intérêt à y songer dès maintenant.
Les freins systémiques : l’exemple de la gestion collective présentée comme un dogme absolu
Le code de la propriété intellectuelle regroupe une série d’outils qui permet de prendre en main (de manipuler, échanger, vendre, créer, etc.) les objets juridiques qu’il introduit sur le marché. En dehors de cette tâche, le CPI est « neutre » et permet tout type d’usage et, théoriquement, toute évolution ou transformation du système.
Néanmoins, l’évolution des usages butte sur certains freins systémiques, qu’ils soient présents dès l’origine ou, plus généralement, liés au développement que connut la propriété intellectuelle. Il en existe plusieurs, mais celui auquel on pense en premier lieu se rattache à la culture française de la gestion collective41.
Ancien et éprouvé, le système actuel français est l’une des fiertés nationales au regard tant de la complexité de son organisation que du nombre d’autres pays qui s’en sont inspirés. Il est néanmoins aussi très contesté en raison de la place proéminente de la SACEM, considérée comme responsable de lourdeurs administratives, d’une gestion des politiques culturelles inadaptée et autarcique. Cette omniprésence de la société de gestion collective est souvent pointée du doigt, notamment lors des contrôles annuels de la commission permanente de contrôle des SPRD (qui publie annuellement un rapport). Il est en effet relativement courant de mettre en place de nouvelles SPRD pour collecter de nouveaux droits ou nouvelles licences obligatoires (SPRE, SDRM, SESAM, etc.), sans que la question essentielle de l’organisation de cette SPRD ne soit prévue en amont. Ainsi, les salariés, les répertoires, les barèmes, voire les locaux, les enquêtes sont « mis à disposition » (de manière onéreuse) par les organismes préexistants – en l’occurrence, il s’agit systématiquement de la SACEM. On multiplie ainsi les flux financiers en augmentant le nombre de structures, ce qui réduit d’autant la somme répartie entre les auteurs et ayants droit (au bénéfice du fonctionnement de la SACEM seulement ?).
Par ailleurs, le monde de la musique est aujourd’hui pensé en termes de gestion collective uniquement, au point où nombreux sont ceux qui pensent que celle-ci est obligatoire pour toucher leurs droits. Cela induit la validation de certains mécanismes susceptibles d’être contraires aux intérêts des auteurs. Par exemple, l’adhésion à la SACEM est exclusive de toute autre exploitation des œuvres puisqu’elle emporte une cession exclusive de toutes les œuvres (même celles à venir) de l’auteur (d’autres SPRD ne demandent qu’une cession non exclusive, voire un simple mandat). Ainsi, tout auteur adhérent à la SACEM ne peut décider seul de gérer individuellement quelques-unes de ses œuvres, par exemple en les diffusant gratuitement sur Internet (sous licence libre ou non). Les lignes bougent néanmoins et, depuis quelques années, la SACEM allège ce principe en permettant à ses sociétaires de diffuser eux-mêmes certaines de leurs œuvres, dans certaines conditions seulement (sur leur propre site web, gratuitement, uniquement en streaming).
Ainsi, il est aussi nécessaire de revoir l’infrastructure du droit d’auteur qui s’est modelé depuis le XVIIIe siècle autour des sociétés de gestion collective, notamment en faveur de la mise en place d’un registre ouvert et commun des œuvres qui permettrait (aux artistes comme aux plates-formes de diffusion) de partager les informations relatives à la gestion des droits sur les différentes œuvres (des réflexions complémentaires au travail du Global Repertoire Database Working Group).
Ouvrir le répertoire de la SACEM à la gestion individuelle
Courant 2009, la SACEM avait néanmoins été approchée par des acteurs de la culture libre (à l’initiative du collectif Libre Accès42) avec deux requêtes : autoriser les auteurs qui le souhaitent à diffuser certaines œuvres sous licences libres43 et ouvrir son annuaire, contenant auteurs et œuvres, afin que des sites diffusant de la musique libre puissent vérifier que l’artiste est bien libre de diffuser ainsi ses œuvres (il était aussi envisagé de labelliser lesdits sites).
Les deux chantiers ont néanmoins fait long feu. Concernant le premier, après plus d’une année de discussions et quelques itérations sur le cadre du projet, les échanges ont été rompus (notamment à cause de la difficulté à s’entendre sur les usages qui devaient être considérés comme commerciaux – après avoir admis que le projet pouvait, dans un premier temps, être limité aux seuls usages non commerciaux). Quant au second, les échanges n’ont jamais réellement pris forme.

1.1.1.3 La construction d’alternatives privées

À la fois en raison de l’inertie liée aux procédures législatives44 et en raison des intérêts politiques et économiques attachés au maintien d’une industrie culturelle forte, les États sont aujourd’hui incapables de remettre en cause le système qu’ils ont créé. Certains essaient cependant de réformer tout en ménageant les multiples intérêts. Par exemple, le Royaume-Uni a publié un plan pour moderniser la propriété intellectuelle en mettant en œuvre certaines recommandations du rapport Hargreaves de mai 2010 (dont l’ajout d’exceptions aux droits, d’un processus de licences croisées et d’une gestion des œuvres orphelines)45.
Cependant, les vraies réformes ne proviennent pas des législateurs, mais des acteurs : utilisateurs des droits (titulaire) et utilisateurs des créations (le public). L’initiative Public Knowledge, groupe d’intérêt public46 qui œuvre à la défense des droits des citoyens à l’ère de la culture numérique émergente (information, propriété intellectuelle et protocoles internet), lutte notamment contre l’extension constante des droits et en défendant le bénéfice d’exception comme le fair use47.
Pourtant, face aux problèmes d’une « capitalisation de la propriété intellectuelle », la volonté de collaborer des différents acteurs (sociétés privées comprises) ne cesse d’augmenter. Ainsi, nombre d’entre eux ont pris à contre-pied le système de la propriété intellectuelle et se sont mobilisés afin de renverser sa logique au profit du partage, consacrant ainsi la théorie selon laquelle les libertés/exceptions reconnues au profit de l’utilisateur/du public ne seraient pas des exceptions, mais bien des droits. Pleinement pertinentes, ces initiatives posent la question du rôle de l’État : est-il normal que des industries ou des communautés se substituent à ce dernier ?
Enfin, la construction de ce système s’appuie sur des droits harmonisés à l’échelle mondiale. Les pays en voie de développement y trouvent ainsi un vecteur de collaboration et de sécurité juridique optimum, favorisant les relations pérennes Nord-Sud et une réduction de la fracture numérique48. Plus encore, ce mouvement se révèle être un facteur important dans la diffusion des connaissances médicales (voir notamment le projet communautaire Openhealthtools ou encore l’action de la fondation IntraHealth International au travers du projet eHealth qui donne une place importance à l’open source).

1.1.2 La structuration d’un équilibre différent sur la base du système existant

Il est intéressant de constater que les outils juridiques existants, s’ils ne peuvent généralement être repris en l’état, permettent de construire d’autres équilibres sur le fondement de logiques nouvelles, ce qui leur permet d’être à la base d’un système qui leur soit adapté. Par ailleurs, l’essence contractuelle de ce courant lui confère une réactivité très forte face aux développements d’usages et, à fortiori, face aux évolutions législatives qu’il prend en compte au fur et à mesure de leur apparition (marques, brevets, mesures techniques de protection, tivoïzation, promesse de non-agression, etc.). Tirant profit des expériences passées, le mouvement s’étend progressivement aux autres branches de la création (bases de données, manuels, documentation, inventions, microprocesseurs49, etc.) – à la condition qu’il y ait bien usage d’un droit exclusif (droit d’auteur, brevet, etc.), même si le dépôt et le coût lié à l’acquisition des titres de propriété industrielle commandent une réflexion plus pointue.
Ainsi, un nouveau système se dessine progressivement, laissant entrevoir de nouveaux usages et une nouvelle appréhension des différents droits : qu’il s’agisse des droits de propriété littéraire et artistique qui voient leur équilibre entièrement modifié (1.1.2.1) ou des droits de propriété industrielle qui se recentrent sur leurs fonctions initiales (1.1.2.2).

1.1.2.1 L’usage des droits de propriété littéraire et artistique

L’usage des droits de propriété littéraire et artistique est différent selon qu’on observe le droit d’auteur et les droits voisins (1.1.2.1.a), les mesures techniques (1.1.2.1.b) ou le droit sui generis des bases de données (1.1.2.1.c).
Droit d’auteur et droits voisins
Certains droits sont de plus en plus partagés (les droits patrimoniaux, liés à l’exploitation de l’œuvre) alors que d’autres (les droits moraux, liés à la paternité des contributions de chacun) sont au contraire très fortement affirmés (conséquence logique de la place importante faite à l’individu au sein des communautés du Libre). Quant au domaine public, il répond à une volonté conjointe (auteur, public et fournisseurs de services) et prend une place centrale, tant pour déterminer les œuvres qui en font partie que pour en verser de nouvelles.
L’usage des droits patrimoniaux
Seuls les auteurs sont acteurs dans cette recherche d’un nouveau système dans lequel l’objectif consiste à « vivre de » et « faire vivre » leurs créations. Le numérique, Internet et les sociétés qui en font leur métier, leur offrent une capacité nouvelle à se produire et se distribuer eux-mêmes. En parallèle, mais dans un autre domaine, la gestion individuelle des droits se développe et se perfectionne de plus en plus. Par exemple, l’initiative SOLO (Syndicat pour les œuvres sous licences ouvertes) avait été lancée afin de défendre les intérêts des auteurs préférant la gestion individuelle à la gestion collective.
Probablement en raison du fort nombre de licences légales grevant leurs droits, les titulaires de droits voisins restent pour leur part très passifs : qu’ils se satisfassent du système actuel (ce qui n’est pas vrai pour les artistes qui connaissent des difficultés croissantes à vivre de leur art50) ou qu’ils soient concernés à d’autres titres – notamment lorsqu’il s’agit de la diffusion d’œuvres représentées et fixées par les auteurs eux-mêmes.
Le rôle des éditeurs et des producteurs, c’est-à-dire l’industrie de la création, n’est néanmoins pas exclu de ces nouveaux modes d’exploitation, pour peu qu’ils sachent répondre aux besoins sans chercher à reproduire des méthodes qui ne sont plus adaptées à cette nouvelle ère.
Pour aller plus loin...
On peut citer des encyclopédies comme Wikipedia, des initiatives comme Tela Botanica (base de données botaniques sous licence CC-By-SA), Territoires sonores (document/témoignages sonores, site sous GNU FDL 1.2, ballades sous CC-By-NC-ND), Sesamath (manuels et logiciels mathématiques, sous double licence GNU-FDL et CC-By-SA), Public Library of Science (PLOS, en CC-By), ou encore Open Economics.
L’usage des droits extrapatrimoniaux
Contrairement aux prérogatives patrimoniales qui sont très largement partagées, les droits extrapatrimoniaux font l’objet de politiques très strictes :
ainsi la mention de la paternité de l’auteur est la condition inhérente à toutes les licences libres (les CC-0 et la PDDL exclues) et un formalisme particulier vient très souvent renforcer l’obligation. La réduction des contraintes liées au partage des droits patrimoniaux va aussi, par effet de bord, emporter une généralisation de la reconnaissance de la qualité d’auteur (cette dernière bénéficiant plus largement à tous ceux, auteurs et contributeurs divers, qui auront participé à la vie de l’œuvre) ;
les autres prérogatives protectrices sont elles aussi très fortement défendues : qu’il s’agisse de l’absence de confusion avec l’œuvre originaire (en obligeant à mentionner très clairement les modifications apportées à la création) ou de toute atteinte à l’image ou à la qualité de l’auteur (que ces éléments soient prévus au sein de la licence ou qu’il faille se tourner vers les dispositifs généraux).
Précisons enfin que ces prérogatives morales subissent un sort particulier au regard de la conception que l’auteur adopte de l’œuvre, ce qui nécessite de repenser de nombreuses solutions qui avaient été résolues par la jurisprudence ou la doctrine (ainsi, la modification par un contributeur ultérieur respecte entièrement l’intégrité de l’œuvre dès lors que celle-ci est pensée comme ouverte et collaborative).
L’extension du domaine public
De plus en plus fourni et, surtout, de plus en plus accessible et disponible grâce au numérique et Internet, le domaine public connaît un regain d’intérêt notable. De nombreuses initiatives viennent ainsi favoriser l’accès à celui-ci, tel le « calculateur du domaine public » réalisé dans le cadre du projet europeanaConnect.
Parmi les projets qu’elle porte, Creative Commons œuvre en faveur du domaine public. Ainsi, à côté de ses licences, Creative Commons offre aussi un outil qui permet de dédier ses œuvres au domaine public (via un processus intitulé Public Domain Dedication) instantanément ou après un délai de 14 ou 28 ans (comme aux origines du copyright). Un second outil permet d’identifier les œuvres du domaine public par un processus déclaratif.
Parallèlement, en 2007 a été lancé le projet CC-0, un outil juridique permettant de céder le plus largement possible ses droits. La licence CC-Zero qui en résulta est la licence conseillée par le projet Sciences Commons pour l’application aux bases de données (similaire à la Public Domain Dedication & Licence (PDDL) rédigée par l’OKFN)51.
Les mesures techniques
Apparus sous la pression des seuls industriels (et abandonnés par eux peu de temps après), les droits sur les mesures techniques de protection (MTP) sont, d’une manière générale, contestés et écartés dans le cadre des collaborations qui peuvent être à l’origine d’une œuvre.
Ils font figure d’archétypes de ces largesses offertes à une industrie défaillante, obsolètes avant que les premiers décrets d’application ne viennent en préciser la portée. L’autorité qui avait été créée pour ses derniers (l’ARMT) n’a ainsi jamais été saisie.
Contractualisant ce rejet, les principales licences libres dédiées au contenu susceptible d’être couvert par une telle MTP écartent expressément le bénéfice de celle-ci ou, à défaut, imposent une cession de l’intégralité des droits afférents52.
Le droit sui generis des bases de données
Le droit sui generis des bases de données a durant longtemps été réservé à la seule sphère industrielle. Le bénéfice de ce droit étant automatique dès lors que les conditions étaient réunies, certaines licences ont néanmoins expressément écarté tout usage sur le fondement de ce droit qui serait contraire à l’esprit de la licence (notamment la Licence Art Libre 1.3).
Le courant de l’open data est venu changer la donne puisque le droit sui generis devint très souvent le meilleur levier susceptible d’encadrer la diffusion des bases de données. C’est ce qui motiva la rédaction des licences de l’OKFN et la mise à jour d’autres licences (notamment les Creative Commons 3.0). De telles bases de données collaboratives posent néanmoins plusieurs nouvelles questions relatives à l’acquisition du droit (notamment pour déterminer le « producteur » et pour quantifier son investissement).

1.1.2.2 L’usage des droits de propriété industrielle

Sans surprise – même parfois à contre-gré –, tous les acteurs industriels ont dû s’armer par l’acquisition de droits de propriété industrielle. Loin de leur finalité initiale, ceux-ci servent aujourd’hui à deux usages principaux : un usage offensif (pour repousser un nouvel entrant, à fortiori en cas de modèle disruptif) et un usage défensif.
Il convient néanmoins de distinguer selon qu’il s’agit des brevets (1.1.2.2.a), du droit des dessins et modèles (1.1.2.2.b), du droit des marques (1.1.2.2.c), du droit des topographies de semi-conducteurs ou des obtentions végétales (1.1.2.2.d).
Brevets
Les brevets sont certainement les droits qui ont été les plus détournés de leurs objectifs initiaux. Il s’agit aujourd’hui d’idées triviales, en grande majorité rédigées par et pour les seuls conseils en propriété industrielle, sans profiter de l’état de l’art en la matière – les ingénieurs et développeurs ayant comme réflexes logiques d’ignorer ces derniers afin de se concentrer sur leur mission de génération de valeur.
Il pourrait être conseillé de revoir intégralement le système actuel, notamment afin de créer plusieurs régimes (durée, prérogatives, exceptions, procédure, etc.) en fonction des domaines d’application (les besoins de l’industrie pharmaceutique ne sont pas du tout similaires à ceux de l’informatique). En premier lieu, il conviendrait de se poser la question de la pertinence du brevet logiciel (et si oui, les conditions et le régime de celui-ci), actuellement utilisé comme une permission légale de stopper l’innovation et le commerce. Néanmoins, le plus urgent est de stopper l’hémorragie, ce à quoi s’emploient des associations comme la FFII (voir notamment l’ initiative contre le brevet unitaire portée par Gérald Sédrati-Dinet) et l’April.
En réaction au système des patent trolls, on observe des actions de regroupements de brevets à titre défensif – initiatives individuelles53 ou collectives54 – avec pour objectif d’immobiliser toute action tierce en contrefaçon de brevets logiciels. Allant généralement encore plus loin, les initiatives peuvent associer une promesse de ne pas opposer leurs brevets aux communautés open source et l’engagement d’une protection des communautés grâce à ces portefeuilles de brevets – avec pour objectif de résoudre l’insécurité juridique qui découle des brevets logiciels. L’Open Invention Network a conduit une nouvelle initiative intitulée Linux Defenders : consortium composé d’industries de haute technologie (notamment IBM), le projet a pour vocation d’aider à protéger les communautés de logiciels open source contre les dangers et attaques récurrentes en matière de brevets. Cette action est destinée à réduire la crainte des actions injustifiées (sur le fondement de titres très faibles susceptibles d’être annulés par un juge), mais excessivement coûteuses pour les individus, les communautés et les petites ou moyennes entreprises (au point de les faire plier sous le seul prix du procès). Il consiste en la réalisation d’une publication défensive (avec des appels à la communauté), la transmission de ces données aux organismes nationaux de propriété intellectuelle afin qu’ils puissent avoir connaissance d’une antériorité susceptible d’invalider un brevet. Dans le même esprit, le projet Peer-to-Patent, initiative de Crowdsourcing menée par la New York Law School’s Center for Patent Innovations et l’office américain des brevets (USPTO), organise la publication de demandes de brevets afin d’obtenir un maximum de commentaires sur un nombre croissant de technologies55. Le nouveau projet pilote,reconduit annuellement depuis 2007, s’étend jusqu’au 30 septembre 2011. L’initiative est néanmoins contestée en ce qu’elle fait réparer les déficiences d’un système par ceux-là mêmes qui souffrent de la perte d’équilibre engendrée par les dérives de ce système.
Cette même idée de « pot commun de brevets » se retrouve dans d’autres sphères. Par exemple, l’initiative Eco-Patent Commons, lancée en partenariat entre de grands groupes (IBM, Nokia, Pitney Bowes, Sony, etc.) et le Conseil mondial des affaires pour le développement durable (WBCSD) regroupe et partage plus d’une centaine de brevets relatifs à l’environnement et au développement durable. Enfin, en matière de spécifications et de standards, on retrouve ce mécanisme de promesse de non-agression56 – qui précède parfois l’établissement même des normes57 ou qui accompagne la proposition de standard58.
Pour aller plus loin...
voir la FAQ sur les brevets à l’intention des distributions communautaires (préparée par la SFLC pour le projet Debian), 8 juillet 2011 ;
voir la page dédiée sur XML coverpages : http://xml.coverpages.org/ni2005-08-10-a.htm ;
The Economist, « Patents against prosperity », 01/08/2011 ;
Les dessins et modèles
Protégeant le caractère propre, l’impression d’ensemble (impression générale) d’une création, le droit des dessins et modèles est susceptible de s’ajouter à de nombreuses autres créations par ailleurs sujettes à d’autres droits exclusifs (œuvres, microprocesseurs, etc.).
Il y a peu de choses à dire sur son usage, si ce n’est qu’il fait partie des armes classiquement utilisées au sein des querelles qui opposent les géants de l’industrie59.
Marques/Signes distinctifs, etc.
Le droit des marques est peut être le moins remis en cause, conservant ses fonctions tant dans le cadre de projets communautaires (tels Debian60, LibreOffice, etc.) que commerciaux. Tout au plus peut-on dire que les marques gagnent généralement des initiatives communautaires ou de crowdsourcing (ces dernières faisant leur promotion à moindre coût). Enfin, il semble que la marque collective soit injustement boudée, car son utilisation est marginale alors qu’elle pourrait répondre efficacement aux préoccupations de nombreux projets libres – même si la lourdeur du mécanisme est probablement trop contraignante en l’état.
Bien entendu, les batailles titanesques qui se déroulent dans d’autres champs de la propriété industrielle touchent en périphérie le droit des marques : telle Microsoft qui conteste la validité de la marque App Store (et Apple qui répond en pointant le fait que la marque Windows ne serait pas plus distinctive…)61. Mais ce ne sont là que des contentieux classiques qui animent la sphère des nouvelles technologies comme ils le faisaient avec l’industrie traditionnelle. De nombreuses marques connues ne furent ainsi pas exploitées sans douleur : Iphone (qui appartenait à Cisco), Android (qui appartenait à Android Data), Nexus One ou encore l’iPAD (Fujitsu).
Pour aller plus loin...
Walker Morgan (D. J.), « The FOSS fakery problems » (http://h-online.com/-1287613), un article qui illustre les déviances potentielles ou réelles en l’absence de contrôle des marques par les projets communautaires ;
la liste des actions entamées par Mozilla en matière de marque : https://wiki.mozilla.org/User:Chefhja ;
« Open For Business: The importance of trademarks, even for an open source business » (sur http://opensource.com/) , une analyse fine de l’intérêt du droit des marques pour les projets open source communautaires ou commerciaux.
Les topographies de produits semi-conducteurs et les obtentions végétales
Les droits des topographies de semi-conducteur et des obtentions végétales demeurent intouchés : globalement peu utilisés et reposant eux-mêmes sur un équilibre complexe qui favorise la création de nouveaux microprocesseurs et de nouvelles obtentions végétales, ces droits ne méritèrent pas l’effort d’une licence dédiée. Tout au plus sont-ils évoqués comme susceptibles d’être cédés par le biais de licences classiques (telle la GNU GPLv3 qui mentionne expressément le droit sur les topographies de semi-conducteurs).
Ainsi, les brevets sont généralement la plus grande source d’inquiétude et les licences portant sur de tels produits semi-conducteurs s’attachent surtout à céder les autres droits de propriété intellectuelle. Ce comportement n’est néanmoins pas satisfaisant puisque le titulaire du droit exclusif resterait tout à fait autorisé à revendiquer ce droit (s’il n’y a pas de modification de la création initiale ou que celle-ci n’est pas suivie d’un nouveau dépôt). Enfin, l’évolution du droit – généralement favorable à l’extension des brevets – modifie cet équilibre, et il est possible que nous voyions apparaître à l’avenir de nouvelles licences dédiées à ces créations.

1.2 Les différentes écoles de pensée

Il est important de préciser qu’il n’y a pas réellement de chronologie : de fait, certaines structures ont précédé d’autres, mais elles répondent généralement à l’air du temps et sont donc bien souvent imaginées, réfléchies et bâties en parallèle. Par ailleurs, les rapports entre ces courants de pensée sont bien souvent complémentaires, ou partagent au moins quelques affinités, et il n’est pas rare de retrouver des acteurs transverses aux multiples courants.
Malgré leur grande similarité et leur complémentarité, il est peu fréquent d’assister à une harmonisation entre ces mouvements, qui sont généralement justifiés par des intérêts bien précis. Néanmoins, il semble possible d’augurer le maintien voire l’accroissement d’efforts terminologiques (FLOSS pour Free Libre Open Source Software est par exemple le terme officiel adopté par la Commission Européenne) et peut-être faut-il s’attendre à de futurs efforts de normalisation (que ce soit par des entités officielles de normalisation ou par d’autres entités extranationales comme l’OSI, qui a déjà posé la question d’une définition de l’open data)62.
Parmi les écoles de pensées, il est nécessaire d’examiner la Free Software Foundation et l’école du Logiciel Libre (1.2.1), l’Open Source Initiative et l’école de l’open source (1.2.2), l’art Libre ou le Libre sur les œuvres non logicielles (1.2.3), le mouvement Creative Commons (1.2.4) et l’extension du Libre au-delà de la création (1.2.5).

1.2.1 La Free Software Foundation et l’école du logiciel libre

Précurseur en la matière (et gourou potache à ses heures perdues – Saint IGNUcius, de l’Église d’Emacs), Richard Matthew Stallman est le fondateur du mouvement pour le logiciel libre. Il a fondé en 1985 la Free Software Foundation (FSF), organisation américaine à but non lucratif, pour aider au financement du projet GNU et de la communauté du logiciel libre.

1.2.1.1 Le projet GNU

À son origine, le projet GNU devait aboutir au développement d’un système d’exploitation de type Unix complètement libre. Alors que de nombreuses briques étaient déjà prêtes dès 1990, le développement du noyau de système d’exploitation libre Hurd, prit du retard et ne devint utilisable (au moins théoriquement) qu’en 1996.
Parallèlement, un étudiant de l’université d’Helsinki nommé Linus Torvalds a proposé en 1991 un noyau de type Unix en se basant sur la boîte à outils fournie par le projet GNU. En plus d’avoir choisi d’ouvrir son code grâce à la licence GNU GPL, Linus Torvald opta pour un développement original coordonné sur le réseau et ouvert à tout contributeur. Ce développement, sur le mode plus tard appelé « du bazar » (en référence au célèbre essai The Cathedral and the Bazaar d’Eric Steven Raymond63), assurant un succès croissant à son système d’exploitation, le propulsa sur le devant de la scène (notamment du projet GNU) au détriment d’autres noyaux. C’est le début du projet GNU/Linux.

1.2.1.2 Les libertés du logiciel libre

La FSF liste les quatre libertés fondamentales qui doivent être assurées à l’utilisateur final (généralement le détenteur d’une copie légitime du logiciel) afin que le logiciel soit qualifié de libre :
liberté 0 : la liberté d’exécuter le programme, pour tous les usages ;
liberté 1 : la liberté d’étudier le fonctionnement du programme, et de l’adapter à ses besoins (l’accès au code source est donc nécessaire) ;
liberté 2 : la liberté de redistribuer des copies du logiciel ;
liberté 3 : la liberté d’améliorer le programme et de publier vos améliorations, pour en faire profiter toute la communauté. Pour ceci, l’accès au code source est une condition requise.
Le logiciel est donc libre par opposition à un logiciel qui serait la propriété d’un seul, ce dernier pouvant alors discrétionnairement décider d’autoriser ou d’interdire certains usages. La force de cette définition résulte notamment du fait qu’elle est rédigée pour un type d’œuvre en particulier qu’est le logiciel (et donc avec une grande connaissance des libertés nécessaires sur ce dernier) et qu’elle fonctionne par finalités (sans préciser le moyen d’y arriver – exception faite de l’obligation de livrer le code source). Ainsi, en définissant ces libertés, on s’assure que tout le monde peut en disposer et améliorer le logiciel, et surtout que cela puisse continuer en l’absence de ses propriétaires.
On oppose ainsi logiciels libres à logiciels propriétaires de la même façon que l’on oppose logiciel open source aux logiciels closed source. Néanmoins, tous les logiciels propriétaires ne sont pas closed source (il arrive même que les contributions soient encouragées, dans un modèle très propriétaire) et tous les logiciels open source ne sont pas forcément libres (dès lors que les utilisateurs ne sont pas, in fine, libres : soit pour des raisons juridiques, par exemple en raison de brevets qui limiteraient la jouissance des droits, soit pour des raisons pratiques, devant l’impossibilité de modifier, d’étudier ou de redistribuer la création).
Le domaine public n’est pas open source, mais il peut être libre !
Dans la situation de logiciels (ou d’œuvres) tombés dans le domaine public, on ne peut valablement parler de licence puisque, par définition, l’auteur ne dispose plus de droits exclusifs sur son œuvre.
La suite du raisonnement est simple : les critères de l’OSD qui permettent de certifier une licence open source ne peuvent jouer (le logiciel n’est donc pas soumis à une licence open source, il n’est donc pas open source) ; à l’inverse, les libertés telles que définies par la FSF peuvent être réunies au profit du détenteur d’une copie du logiciel – et le logiciel pourra ainsi être dit libre – dès lors que l’utilisateur dispose aussi matériellement de ces libertés (notamment des sources lui permettant de modifier, adapter, etc. le logiciel).

1.2.1.3 Les licences GNU

La licence n’apparaît alors que comme une conséquence, une traduction juridique de ces libertés (via une cession de droits). Néanmoins, d’autres obligations plus pratiques (accès au code source dans sa forme préférentielle, sa documentation ou, dans une certaine mesure, la qualité du code) viennent la compléter afin que l’utilisateur soit réellement libre. Ainsi, par extension, une licence libre est une licence qui traduit dans le champ juridique les libertés offertes par un logiciel libre.
Les licences GNU ne sont devenues les licences génériques qu’aux alentours des années 1990 : Richard Stallman utilisa pour son logiciel Emacs la GNU Emacs General Public License (première licence copyleft), avant de reproduire le même type de licence pour le GNU Debugger (GDB) et la GNU Compiler Collection (GCC), puis de rédiger une première mouture générique sous le nom de GNU General Public License (GNU GPL) en 1989. Très vite, une licence plus permissive devint nécessaire pour faciliter l’usage de certains programmes : la GNU Library General Public License (GNU LGPL)64 vit le jour en 1991. Une troisième licence, la GNU Free Documentation License (GNU FDL ou GFDL), rejoignit finalement la famille afin de proposer une licence pour les documentations de programmes, plus adaptée que les licences GNU GPL ou LGPL. Le juriste Eben Moglen a assisté Richard Stallman dans la rédaction des licences qui suivirent : personnellement pour la seconde version de la GNU GPL en 1991 et ensuite (notamment la GNU GPL v. 3 et la GNU Affero GPL v. 3) par l’intermédiaire du Software Freedom Law Center (SFLC) qu’il dirige.

1.2.1.4 La mise en place de structures complémentaires

De nouvelles structures complémentaires furent créées lors de la professionnalisation, dans le cadre d’une structuration des missions de la FSF, avec notamment la séparation des différentes ambitions de la fondation : le Software Freedom Law Center (1.2.1.4.a) et le Software Freedom Conservancy (1.2.1.4.b).
Le Software Freedom Law Center
Créé en 2005, le Software Freedom Law Center (SFLC) n’est vraiment opérationnel qu’à partir de 2007, date où les actions commencèrent à être effectives. Son périmètre d’action s’étend de l’information au public (par la publication d’études diverses et variées), à toute assistance juridique auprès d’organisations à but non lucratif.
Centre juridique entourant l’usage des licences de la Free Software Fondation, le SFLC travaille gracieusement pour un certain nombre de projets communautaires et conseille aussi quelques sociétés privées au travers Moglen Ravicher LLC (cabinet d’avocats affilié au SFLC, partageant la même équipe et redistribuant aux actions de la SFLC tous les profits tirés de leur clientèle privée). Il a enfin assuré une activité contentieuse foisonnante, mais cette mission est aujourd’hui prise en charge par la SFC.
La Software Freedom Conservancy (SFC)
Créée en 2006, la Software Freedom Conservancy est une association à but non lucratif qui aide à promouvoir, améliorer, développer et défendre des projets de logiciels libres et open source (tels des projets réputés comme Amarok, BusyBox, Git, Inkscape, Jquery, Samba ou Wine). Pour ce faire, la SFC leur offre l’hébergement et la structure nécessaire. Ainsi, les développeurs peuvent se concentrer sur ce qu’ils font le mieux : l’écriture de logiciels libres.
La Software Freedom Conservancy assure ainsi tout une série de services au profit de ses membres : aspects administratifs, fiscaux, comptables, contentieux, responsabilité personnelle, conseils sur la gestion de communautés, etc.
Ancien salarié du SFLC en charge du projet de la SFC, Bradley Kuhn est devenu fin 2010 le directeur exécutif de la SFC lorsque celle-ci évolua en une structure autonome.

1.2.2 L’Open Source Initiative et l’école de l’open source

Fondée en 1998 par Eric Steven Raymond et Bruce Perens, l’Open Source Initiative (OSI) compta dès ses origines Todd Anderson, Chris Peterson, John Maddog Hall, Larry Augustin, Sam Ockman. Elle est née d’une divergence de point de vue avec la FSF, afin de labelliser les licences réunissant les critères pragmatiques de la définition open source (Open Source Definition). Structurellement, l’OSI65 est une non profit public benefit corporation (sorte d’association à but non lucratif) californienne. Depuis 2011, l’OSI étend son action et s’ouvre notamment à l’adhésion de partenaires commerciaux.
Depuis sa création, elle a mis en place une Open Source Definition (1.2.2.1) qu’elle utilise pour valider les licences qui lui sont soumises selon une procédure de labellisation particulière (1.2.2.2). Elle contribue aussi depuis 2006 à la lutte contre la prolifération des licences (1.2.2.3).

1.2.2.1 Les critères formulés par l’OSD

Les termes libre et open source sont utilisés indifféremment dans le langage courant, mais ils correspondent néanmoins à deux définitions complémentaires : le premier se fonde sur quatre critères (ou « libertés fondamentales » du logiciel), le second sur dix (conditions que doivent respecter les licences). Ainsi, l’Open Source Definition est fortement inspirée par le Contrat Social Debian66 qui, lui-même, était inspiré de la définition de la FSF et, dans les faits, les deux notions se rejoignent le plus souvent, même si les conceptions sont in fine différentes : là où le choix d’un logiciel propriétaire est une solution sous-optimale pour l’OSI, la FSF y voit une atteinte aux libertés des utilisateurs devant être combattue.
L’OSD est centrée sur les méthodes de développement de logiciels à code ouvert où le service reprend le pas sur le produit lui-même. Elle requiert :
1.
la libre redistribution du logiciel – la licence ne peut, par exemple, exiger le paiement d’une redevance supplémentaire ;
2.
le code source doit être fourni ou être accessible ;
3.
les dérivés des œuvres doivent être permis ;
4.
l’intégrité du code doit être préservée – un tiers ne peut pas s’approprier le travail d’un autre et les contributions de chacun sont clairement attribuées (les modifications peuvent n’être éventuellement distribuées que sous forme de patch, séparément : distinguo que ne tolère pas la FSF) ;
5.
pas de discrimination entre les personnes ou les groupes – toute personne détentrice d’une copie du logiciel bénéficie des termes de la licence tant qu’il s’y conforme lui-même ;
6.
pas de discrimination entre les domaines d’application – la licence se limite à la propriété intellectuelle : elle ne peut en aucun cas réguler d’autre domaine « politique » ;
7.
la licence s’applique sans dépendre d’autres contrats – on ne peut par exemple pas ajouter un NDA (Non-Disclosure Agreement ou accord de confidentialité) lors de la cession du logiciel ;
8.
la licence ne doit pas être propre à un produit – elle est attachée au code et non à un logiciel particulier : une brique peut resservir dans un logiciel différent, voire concurrent ;
9.
la licence d’un logiciel ne doit pas s’étendre à un autre – ce qui ne s’oppose pas aux licences copyleft ayant un large copyleft, telle la GNU GPL qui ne s’étend qu’au programme envisagé comme un tout ;
10.
la licence doit être neutre technologiquement – c’est-à-dire ne pas dépendre d’une technologie.
Très pragmatique, claire, et centrée sur la non-discrimination, l’Open Source Definition détaille par cette définition les critères qu’une licence doit remplir pour être considérée comme open source. Une illustration très claire de cet objectivisme fut donnée lors de la certification par l’OSI de deux des licences shared source de la firme de Redmond : seules les licences furent évaluées au regard de l’OSD et non l’entreprise ou la politique qui l’anime67.
Les licences open source ne sont pas une, mais plusieurs : 70 sont certifiées par l’OSI – mais bien d’autres, souvent similaires et incompatibles, existent. Ainsi, au final, les licences conformes à l’une des définitions le sont quasi systématiquement à l’autre, mais on peut trouver deux exemples contraires, labellisées open source, mais non considérées comme libres :
la Reciprocal Public License (label open source ; licence non libre) ;
la licence Artistic 1.0 (idem).
D’autres sont probablement dans la même situation, mais il faut admettre que l’absence de consensus est plutôt rare. Aucune terminologie ne convient parfaitement, mais seront qualifiées (par souci de simplicité) de « commerciales » toutes les licences qui ne seront ni libres ni open source et qui revêtent ainsi une dimension commerciale étrangère à ces licences a-commerciales (cet adjectif ne préjugeant nullement de l’activité commerciale qui peut accompagner l’usage de ces licences).

1.2.2.2 Le processus de labellisation

Quelques principes fondamentaux gouvernent le processus de labellisation celui-ci doit permettre de :
1.
vérifier l’adéquation avec l’Open Source Definition ;
2.
identifier la catégorie parmi celles identifiées par le projet de « License Proliferation » et essayer de limiter la duplication de licences (Cf. infra) ;
3.
assurer une procédure transparente et pérenne d’examen des licences (dans les 60 jours en moyenne) et fournir une traçabilité du processus d’examen.
La requête – en principe faite par le rédacteur de la licence, mais le respect de cette règle est relatif – doit identifier le type de soumission, vérifier que tous les critères sont réunis pour cette requête et être complète (sujet clair, texte de la licence, demande d’inscription au système de suivi et toute autre information utile). Le demandeur doit lui-même s’inscrire à la liste de diffusion correspondante (license-review).
Il existe plusieurs types de soumission d’une licence : lors de la mise à jour d’une licence (il faut alors inclure un lien vers l’ancienne, la nouvelle, et les modifications apportées à la licence), pour l’ajout dans une nouvelle catégorie, pour retirer une version, pour l’approbation d’une version déjà existante (il faut indiquer la catégorie et les justificatifs) ou pour l’approbation d’une nouvelle licence – ou licence utilisée par une seule entité (il faut soumettre la pré-version, justifier, comparer vis-à-vis des licences existantes, recommander une catégorie).
Par la suite, la certification de la licence sera discutée sur la liste dédiée au moins une trentaine de jours (l’outil de suivi de l’OSI fournira le statut approprié de chaque tâche) et une synthèse des recommandations sera présentée au bureau de l’OSI (avec copie à la liste) par la personne en charge de la labellisation des licences. Le bureau de l’OSI aura alors le pouvoir de prendre une décision finale ou de demander des informations complémentaires. Pour finir, la personne en charge des licences informera la liste et, si approuvée, la licence sera ajoutée au site de l’OSI.

1.2.2.3 La lutte contre la prolifération

De 2004 à 2006 un groupe de travail a été mis en place au sein de l’OSI pour réfléchir aux problèmes générés par l’explosion du nombre de licences. Une nouvelle organisation de labellisation68 a été mise en place fin 2007 et un nouveau projet est venu lutter contre la prolifération des licences69, dorénavant classées en plusieurs catégories :
les licences qui sont populaires et largement utilisées ou avec une large communauté ;
les licences répondant à des besoins spécifiques/particuliers ;
les licences qui sont redondantes avec les licences les plus populaires ;
les licences qui ne sont pas réutilisables ;
les licences autres/diverses.
Tout à fait utile, cette nouvelle mission que s’est attribuée l’OSI, repose sur des considérations subjectives qu’il convient de distinguer très clairement du rôle plus objectif d’ « autorité de certification »70.

1.2.3 L’art libre ou le Libre sur les œuvres non logicielles

Ce n’est pas un hasard si le documentaire Nom de code : Linux, se termine par l’affirmation : « Ce serait peut-être l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code »71.
Il faut ici dissocier deux mouvements qui n’ont pas la même valeur artistique : l’extension du Libre à la documentation du logiciel et aux autres créations « utilitaires » (1.2.3.1) et l’extension à l’art (1.2.3.2).

1.2.3.1 Le prolongement du Libre vers les œuvres utilitaires

La nature même de ce type d’œuvres (1.2.3.1.a) simplifia grandement le traitement des problématiques juridiques afférentes (1.2.3.1.b).
Les fondements de cette extension
Précurseur, la documentation des logiciels fut le premier type d’œuvres non logicielles pour lesquelles les développeurs de logiciels libres ressentirent le besoin d’utiliser aussi une licence libre – son champ d’utilisation était restreint à la documentation, Richard Stallman estimant que seules les libertés de copier et de distribuer étaient véritablement importantes pour les œuvres artistiques72. Les motifs, simples, étaient que la documentation est l’un des facteurs clés de la collaboration et qu’il est donc nécessaire qu’elle soit aussi libre que le logiciel sur lequel elle porte, faisant de la documentation une partie intégrante du logiciel (même si une distinction fut ensuite faite entre la documentation utilisateur, développeur, les supports de formation, etc.).
La documentation s’envisageant comme un tout, à l’instar du logiciel soumis à la GNU GPL, la licence devait étendre le copyleft initial à tout ajout ou modification réalisés sur la documentation initiale.
Enfin, l’un des autres intérêts était le vecteur de communication que représentait la documentation : il était en effet possible d’expliquer, voire d’approfondir, au sein de cette documentation la démarche liée à l’utilisation d’une licence libre.
La dimension juridique
À l’origine, les acteurs du Libre estimaient que les licences existantes, et notamment la GNU GPL et les licences MIT ou BSD, permettaient parfaitement de couvrir des œuvres non logicielles73 – cela d’autant plus qu’ils doutaient de l’utilité de nouvelles licences dédiées à ce type de création.
Néanmoins, plusieurs licences apparurent en 2000 pour libérer les contenus, accompagnant ainsi l’évolution des usages que le numérique et Internet offraient. Ce fut notamment le cas de l’Open Content License (OCL) publiée le 14 juillet 1998 – considérée comme non libre du fait qu’elle interdisait de faire payer la mise à disposition du contenu soumis à cette licence74 – ou son successeur, l’Open Publication License (OPL) publiée le 9 juin 1999 – elle-même déconseillée en raison de la possibilité qu’elle offrît d’interdire la modification ou l’usage commercial75. Parallèlement, et conscient que la GNU GPL ne répondait pas parfaitement aux besoins, la FSF lança en 1999 un appel à contribution et publia en mars 2000 la nouvelle GNU Free Documentation License (en version 1.1)76. Non satisfait de cette licence qu’elle trouvait trop complexe, Apple publia sa propre licence un an plus tard : la Common Documentation License – elle aussi copyleft (c’est à dire imposant la diffusion sous ses propres termes) et donc incompatible avec la GNU FDL.
La même année, Michael Stutz publia une nouvelle licence, la Design Science License, qui se positionnait discrètement comme une licence copyleft générale adaptée à tout type d’œuvres. Elle préfigurait ce que seraient ensuite les licences libres non logicielles.
L’unité de l’art et le Libre
En droit, le principe de l’unité de l’art traduit l’interdiction faite au juge de se fonder sur la destination d’une œuvre pour décider du principe et de l’étendue de sa protection par le droit d’auteur (lui retirant tout rôle de critique ou censeur).
La question est ici de savoir s’il faut différencier les œuvres en fonction de leur nature et, par là, préférer une distribution sous licence libre pour certaines seulement : certaines œuvres (philosophiques, politiques, littéraires, etc.) n’auraient pas vocation à être mises sous licence libre, alors que d’autres, plus utilitaires, y gagneraient (on pense à Wikipedia, les Framabooks, etc.).
Ce raisonnement conduit à une différenciation entre les œuvres au sein desquelles la personnalité de l’auteur (ses idées, convictions, son style, etc.) apparaîtrait, et celles où cette personnalité ne serait pas perceptible. Elle semble difficile à défendre puisqu’elle reviendrait à admettre que ce qui est qualifié d’œuvre par la Loi (car empreint de la personnalité de son auteur) ne serait pas sous licence libre, alors que seul ce qui n’y est pas soumis le serait – en l’absence d’originalité, il n’y aurait pas de droit et « pas de droits, pas de licence… ».
Ainsi, il semble être plus pertinent d’appréhender l’œuvre comme un tout, véhiculant pêle-mêle idées, informations, connaissances, style de l’auteur, etc. Par la suite, toute œuvre aurait un versant utilitaire et un versant propre à son auteur, et l’équilibre entre ceux-ci présagerait d’une utilisation différente si elle venait à être mise sous licence libre : les œuvres principalement utilitaires seront très fréquemment réutilisées après avoir été amendées, modifiées, complétées, ajoutées dans un tout plus large ; à l’inverse, les œuvres très empreintes de leur auteur bénéficieront surtout d’une diffusion plus large, notamment par des citations sans limites, etc.
Dans les deux situations, le contrôle de l’exploitation de l’œuvre n’est plus réservé à l’auteur initial, mais celle-ci continuera tout de même à être diffusée ou élaborée en référence au premier auteur. De plus, à l’instar des logiciels libres, une évolution de l’œuvre par des tiers ne se ferait que si l’œuvre est laissée en désuétude par l’auteur initial.

1.2.3.2 L’extension du Libre à la musique et à l’art en général

Les artistes se sont très rapidement approprié l’usage d’Internet pour diffuser leurs œuvres, les faire connaître et en créer de nouvelles grâce aux contributions venant de toute part. Aux origines, les deux principaux penseurs de ce mouvement sont sans conteste Ram Samudrala – notamment connu pour ses écrits sur la Free Music Philosophy77 – et Antoine Moreau, initiateur du collectif Copyleft Attitude.
Le second citant ici le premier :
Comme le dit Ram Samudrala, musicien et chercheur en biotechnologies : "La musique est libre parce qu’on peut laisser ses amis l’écouter, la copier, la faire entendre à leurs amis, et ainsi de suite. Dans une acception plus radicale, la musique est totalement libre lorsqu’un autre musicien peut utiliser une création préexistante comme point de départ pour sa propre création. C’est alors que la musique libre devient très intéressante. Et sans cette liberté, la créativité humaine ne peut vraisemblablement pas développer toutes ses capacités".78
Ainsi, pour le mouvement Copyleft Attitude, le rapprochement avec les licences libres ne s’est pas réalisé pour imiter un mouvement, mais parce que l’utilisation de ces licences répondait à la conception et aux pratiques artistiques du moment : « [l]e copyleft n’est pas une alternative, ce n’est pas "un autre monde est possible", c’est véritablement le monde tel qu’il est depuis l’invention des grands récits de l’humanité, des mythes fondateurs et notamment des images qui instituent le rapport entre soi et ses semblables. Le monde tel que nous l’inventons aujourd’hui quand nous savons le voir et le découvrir en forme. »79
C’est ce qui explique l’adoption d’un « libre sans concession » au sein de la Licence Art Libre alors que d’autres licences cherchaient à offrir à l’auteur différents outils de contrôle sur son œuvre. Ainsi naissait la distinction entre le mouvement qui avait fait le choix du Libre et celui qui préférait celui du Libre choix : « [l]’approche de Copyleft Attitude avec la Licence Art Libre est de ne pas donner le choix entre plusieurs licences. Nous avons décidé, dès le départ, de faire le choix du Libre, plutôt que d’avoir le libre choix. »80
Musique Libre ! En France depuis les années 2000
Enfin, parce qu’on a la chance en France d’avoir des partisans indéfectibles de la musique libre, notamment au travers le travail de l’association Musique Libre !81, il semble bon de rappeler ce texte en date de février 2001 et signé de la main de l’inépuisable Éric Aouanès :
Musicien depuis un certain temps, je me suis toujours demandé quel était le meilleur moyen pour diffuser la musique que je compose. Cela m’embêtait fort d’être obligé de passer par une liste toujours plus longue d’intermédiaires vampiriques, ou muets, et lorsque je me suis par hasard intéressé au projet GNU, ça a tout de suite fait tilt : pourquoi pas une licence du même type pour la musique ? J’eus la chance d’échanger quelques mots avec R. Stallman sur ce sujet lors de sa venue à Bordeaux l’été dernier, pour les rencontres mondiales du logiciel libre. Il m’indiqua l’e-mail d’un étudiant de l’Université de Berkeley, Ensor, avec lequel je me mis tout de suite en contact. Ensor travaille actuellement avec l’aide d’un avocat, Me Lawrence Lessig, à l’élaboration du texte de la Free Music Public Licence (FMPL), le texte est aussi en germination avancée chez Ram Samudrala, auteur de nombreux – et fort instructifs – articles sur la philosophie de la musique libre. Il existe déjà quelques sites web qui diffusent de la musique libre, de nombreux musiciens y proposent déjà leur musique (on trouvera en fin d’article les adresses de ces sites).
Finalement, si la licence prévue n’a jamais vu le jour, une nouvelle plate-forme dédiée à la musique libre a vu le jour (actuellement Dogmazic, après s’être écrit musique-libre.org.
À propos de Shagaï
SHAGAÏ (http://shagai.org/) est une hypothèse : celle de jouer autrement le devenir marchandise des œuvres. Elle induit d’autres comportements qui favorisent l’élargissement des contextes d’émergence, d’inscription et de circulation de l’art. À la logique d’acquisition de l’œuvre, elle suggère d’autres attitudes plus amènes à l’esprit de nombreux travaux contemporains, celle de l’échange et de la participation.
Parallèlement à leur travail structurant le mouvement, Ram Samudrala et Antoine Moreau rédigèrent leur licence (respectivement la Free Music Public License – FMPL et la Licence Art Libre – LAL). La plupart des autres licences écrites pour la musique s’inspirèrent de la GNU GPL, avec ou sans l’aide de la FSF82 : l’Open Source Music License (OSML), la Choral Public Domain Library License (CPDLL), les Open Music Licenses (OML) (Green, Yellow, Red et Rainbow License)83, Ethymonics Free Music License (EFML), la Loca Public License, l’EFF Open Audio License publiée par l’Electronic Frontier Foundation (EFF), ou encore la licence Ain’t No GNU! (IANG).
Premier avant-goût de la culture Libre, la Free Music Public License interdisait les reprises commerciales et la licence Open Music Rainbow était une licence modulaire qui offrait la possibilité à l’auteur de choisir les options qu’il souhaitait interdire sans son autorisation expresse : (A) la distribution d’une version modifiée, (B) la publication ou la création d’œuvre dérivée pour un usage commercial, (C) la publication sur certains types de supports ou via certains modes de diffusion (comme Internet), (D) une distribution de copies supérieure au seuil fixé par l’auteur. Quant aux autres licences Open Music, seule la Green était libre, les deux autres (Yellow et Red) interdisaient l’usage commercial et une seule (Red) interdisait les modifications.
La Licence Art Libre (Free Art License, en anglais) est la première licence consacrée à l’« Art », qui désigne tout type de création « sans que même les qualités qui sont reconnues propres à l’art soient exigées »84. Recommandée par la FSF pour les œuvres artistiques85, la Licence Art Libre s’inspira, elle aussi, de la GNU GPL tout en conservant une grande part d’originalité. En s’apercevant de la similitude de visée qui existait entre la liberté prônée en informatique et celle recherchée par les artistes, ces derniers s’intéressèrent à la transposition du mécanisme des licences. Née sous l’impulsion du mouvement Copyleft Attitude (et de la liste de diffusion correspondante : copyleft_attitude@april.org), cette licence a vu le jour en juillet 2000 suite aux rencontres Copyleft Attitude qui se sont déroulées à Accès Local et Public, deux lieux d’art contemporain à Paris. C’est à cette occasion que se sont réunis juristes (Mélanie Clément-Fontaine et David Geraud) et artistes (Isabelle Vodjdani et Antoine Moreau), et que l’écriture d’une licence spécifique – pendant de la liberté des logiciels appliqués à l’Art – s’est avérée nécessaire.
À l’exception de la Licence Art Libre (en version 1.3), ces licences sont aujourd’hui presque toutes abandonnées, voire retirées au profit des licences Creative Commons (généralement CC By-SA, voir notamment le cas de l’EFF OAL), ce qui est d’autant plus dommage que ces initiatives contenaient généralement plus que leur seule licence (telle la licence IANG et son manifesto éponyme).
Abandonnant sa participation à la rédaction de la FMPL, Lawrence Lessig lança ensuite les licences Creative Commons qui se substituèrent à toutes les autres tentatives de ce mouvement du « libre choix ».


1. Au profit d’une propriété intellectuelle dite « repensée » ? Voir à cet égard l’article de Jean (Benjamin) et Canevet (Sébastien), « L’évolution du droit d’auteur à l’ère du numérique », dans La Bataille Hadopi, Paris, ILV, 2009, p. 319-333.
2. Ou encore d’une « politique de l’autonomie numérique » selon l’économiste E. Duflo.
3. Élie (François), L’économie du logiciel libre, Paris, Eyrolles, coll. Accès Libre, 2009.
4. La pérennité de l’œuvre elle-même est sujette à bien d’autres facteurs, par exemple la gouvernance de l’équipe qui le fait évoluer.
5. Pour une étude plus poussée, voir Benjamin (Jean), « Propriété intellectuelle et Open Innovation : les frères ennemis », Revue Lamy Droit de l’immatériel, décembre 2011, n°78.
6. Voir notamment l’étude du CSPLA sur « les œuvres multimédias ».
7. Ainsi, les jeux vidéo sont souvent scindés en deux types d’œuvres : une œuvre logicielle et des œuvres graphiques (parfois sous des licences interdisant l’usage commercial).
8. Voir, plus largement : Lemley (Mark A.), « The Myth of the Sole Inventor », Working Paper No. 1856610, Stanford Law School, 2011.
9. Voir néanmoins Framablog, « L’impression 3D, ce sera formidable… s’ils ne foutent pas tout en l’air ! » http://www.framablog.org/index.php/post/2011/05/25/impression-3D-attention-danger.
10. Voir : Conseil d’État, « Convergence numérique, convergence juridique », 2007. Ou encore : Hocepied (Christian), « La politique européenne de la concurrence face à la convergence », dans Concurrence et consommation, 117, 2000, p. 28 -30.
11. L’impact du numérique étant d’ailleurs bien mieux perçu par d’autres sciences proches comme l’économie, la sociologie ou les sciences politiques.
12. Sur ce sujet, voir Sibaud (Benoît), « Industries contre utilisateurs — la genèse de la guerre », dans La Bataille Hadopi, Paris, ILV, p. 31-36.
13. Il semblerait en effet que les personnes qui téléchargent le plus sont aussi celles qui consomment le plus de biens culturels. Voir notamment l’étude livrée par l’HADOPI en janvier 2011 (disponible sur le site Hadopi.fr) : « 75% des internautes dépensent en moyenne 36 euros par mois en biens culturels (achats par correspondance inclus). Les internautes déclarant un usage illicite ont une dépense moyenne supérieure. Les principaux freins à la consommation légale qu’ils évoquent sont le prix et le choix. »
14. Telle la convention de Berne en matière de droit d’auteur.
15. Première forme connue de propriété intellectuelle, la ville grecque Sybaris reconnaissait au VIe siècle avant J.-C. un monopole temporaire à tout inventeur d’une nouvelle recette de cuisine – leurs priorités n’étaient pas les nôtres…
16. Voir le 2010 Special 301 Report : « This Report reflects the Administration’s resolve to encourage and maintain effective IPR protection and enforcement worldwide. It identifies a wide range of serious concerns, ranging from troubling “indigenous innovation” policies that may unfairly disadvantage U.S. rightsholders in China, to the continuing challenges of Internet piracy in countries such as Canada and Spain, to the ongoing systemic IPR enforcement challenges in many countries around the world. »
17. Pour aller plus loin, on peut se reporter à l’article de New (William), « WIPO’S Gurry Says ’Crisis In Multilateralism’ Bringing Changes to IP », sur Intellectual Property Watch (ip-watch.org), le 17 décembre 2010. Voir de même le rapport WIPO, World Intellectual Property Indicator 2010, téléchargeable depuis www.wipo.int/freepublications/.
18. L’article 544 du Code civil traduit l’étendue des droits dont dispose un propriétaire sur sa chose :« La propriété est le droit de jouir et disposer des choses de la manière la plus absolue, pourvu qu’on n’en fasse pas un usage prohibé par les lois ou par les règlements. »
19. Voir Gaudrat (Philippe), « Les modèles d’exploitation du droit d’auteur », RTD Com., 2009 p. 323.
20. Voir le considérant 16 de la résolution du Conseil du 1er mars 2010 relative au respect des droits de propriété intellectuelle sur le marché intérieur.
21. Oberholzer-Gee (Felix) et Strumpf (Koleman), « File-Sharing and Copyright », dans Lerner (Josh) and Stern (Scott), éds, Innovation Policy and the Economy, n°10, 2010, p. 20 : « … While file sharing disrupted some traditional business models in the creative industries, foremost in music, in our reading of the evidence there is little to suggest that the new technology has discouraged artistic production. Weaker copyright protection, it seems, has benefited society.
22. Gold (R.) et al., Vers une nouvelle ère de propriété intellectuelle : de la confrontation à la négociation, Rapport du Groupe international d’experts en biotechnologie, innovation et propriété intellectuelle, Montréal, The Innovation Partnership, Septembre 2008.
23. Smiers (Joost) et van Schijndel (Marieke), Un monde sans copyright… et sans monopole, Framasoft, coll. Framabook, 2011.
24. Vivant (Michel), « L’irrésistible ascension des propriétés intellectuelles ? », dans Mélanges Mouly, Litec, 1998, p. 441.
25. Voir par exemple la Décision de la Grande chambre de recours de l’OEB sur les brevets logiciel, dans sa décision T 258/03, Hitachi : « La Chambre n’ignore pas que son interprétation – relativement large – du terme « invention » figurant à l’article 52(1) CBE inclut des activités qui sont si courantes que leur caractère technique tend à être négligé, par exemple l’acte consistant à écrire en utilisant un stylo et du papier » (http://www.april.org/decision-de-la-grande-chambre-de-recours-de-loeb-sur-les-brevets-logiciels).
26. Voir l’article « When Patents Attack » du site NPR.org : « We’re at a point in the state of intellectual property where existing patents probably cover every behavior that’s happening on the Internet or our mobile phones today," says Chris Sacca, the venture capitalist. « [T]he average Silicon Valley start-up or even medium sized company, no matter how truly innovative they are, I have no doubt that aspects of what they’re doing violate patents right now. And that’s what’s fundamentally broken about this system right now ». Voir aussi la Knowledge Ecology International (http://www.keionline.org), une ONG spécialisée dans les effets de la propriété intellectuelle sur les politiques de santé, d’environnement ou d’innovation.
27. La CJUE (auparavant la Cour de Justice des Communautés Européennes) sanctionne ainsi tous les usages qui ne répondraient pas à la finalité des droits.
28. Com. 26 nov. 2003, TF1. Par ailleurs, l’arrêt précise que : « [l]a pratique contractuelle en cause ne constitue pas l’exercice normal des droits exclusifs de reproduction du coproducteur, mais un abus de ce droit en vue de fausser la concurrence. »
29. C. civ. 2E, 31 mai 1967, Bull. civ. II, no 199.
30. TGI Paris, 26 janv. 2005, PIBD 2005, III, 299.
31. Dernièrement, Google a racheté Motorola Mobility et ses 25 000 brevets pour 12,5 milliards de dollars.
32. L’exemple le plus caricatural est certainement la vente aux enchères de deux « engagements à ne pas poursuivre » par la société ICAP Patent Brokerage. Ce « produit dérivé » a été vendu 35 millions en 2011
33. Pour une représentation graphique du coût des procès actuels : The Patent Lawsuit Economy (http://www.focus.com/fyi/patent-lawsuit-economy).
36. Bien entendu, chacun – artiste ou industrie – veut pouvoir vivre de son métier, mais c’est ici une problématique différente qui sera développée ensuite.
37. Voir « Ces élus qui ont dit non aux lobbies » (Chap VI), La bataille Hadopi, Paris, ILV, 2009.
38. Voir « Inadéquation aux attentes du monde artistique » (Chap V), La bataille Hadopi, Paris, ILV, 2009.
39. Ce qui, sans justifier les pratiques de téléchargement illégal, en explique les fondements.
40. Même si un tel processus semble naturel et indispensable, l’étude d’impact des projets de loi n’est obligatoire qu’à l’encontre des projets déposés à partir du 1er septembre 2009 (article 39 de la Constitution issu de la loi constitutionnelle du 23 juillet 2008). Concernant la nouvelle HADOPI 3, le processus s’avère particulièrement opaque (tant concernant le questionnaire que la sélection des projets que des auditions) et pressé – les demandes de contributions, arrivées au courrier le 16 septembre 2009, étaient à rendre le 28 septembre 2009.
41. Certaines créations pouvant aussi être soumises au régime très strict des biens et technologies à double usage (c’est-à-dire aussi militaire). Dans les années 1990, Philip Zimmermann, auteur de Pretty Good Privacy (PGP) avait ainsi été poursuivi par le département de la défense américaine. Il avait notamment continué à publier le code source sous de multiples formes : livre (voir Zimmermann (Philip), PGP Source Code and Internals, Boston, MIT Press, 1995) mais aussi T-Shirt, etc. On peut se reporter sur ce point à l’histoire du Zimmermann Legal Defense Fund (ZLDF) : http://sattlers.org/mickey/tech/privacy/groups/zldf/index.html  ; Sibaud (Benoît), « De l’interdiction de publier certains logiciels (2) », LinuxFr (https://linuxfr.org/news/de-l%E2%80%99interdiction-de-publier-certains-logiciels-2) ; Direction générale des douanes et droits indirects, Guide sur les exportations de biens et technologies à double usage, 2010.
43. Dans une démarche assez similaire au projet pilote néerlandais.
44. Mais l’argument est d’autant moins pertinent que la procédure d’urgence a été déclenchée par le gouvernement lors du vote des principales lois de ces dernières années.
45. Vince Cable déclarant « The Government is focused on boosting growth and the Hargreaves review highlighted the potential to grow the UK economy. By creating a more open intellectual property system it will allow innovative businesses to develop new products and services which will be able to compete fairly in the UK’s thriving markets for consumer equipment ».
46. Cette forme, qui est aussi celle du célèbre American Civil Liberties Union (ACLU), désigne des regroupements de juristes et de spécialistes des multiples domaines concernés (ponctuellement rejoints par d’autres spécialistes sur certains dossiers) qui cherchent à prévenir les déviances du système et à accompagner les parties lésées.
47. Le GIP a récemment publié un livre blanc : Weinberg (Michael), It Will Be Awesome If They Don’t Screw It Up : 3D Printing, Intellectual Property, and The Fight Over The Next Great Disruptive Technology, PublicKnowledge.org, 2010. Ce livre invite le public à devancer les lobbyistes qui chercheraient à tuer dans l’œuf les nouveaux usages qui pourraient naître de l’émergence de l’impression 3D.
48. Ainsi, le Libre – logiciel libre et ses dérivés – peut être un outil de prédilection pour optimiser le transfert de connaissance. Voir sur ce sujet l’Atelier « Économie de la connaissance et valorisation par le Libre, Comment optimiser le transfert de connaissance par une pratique coopérative et ouverte ? », EFRARD 2010 à Dakar, animé par Nathalie Foutel, Sophie Gautier, Benjamin Jean, Yves Miezan Ezo et Morgan Richomme. Élément évoqué dès 2003 lors de la Conférence des Nations Unies sur le commerce et le développement (CNUCED), voir le Rapport sur le commerce électronique et le développement, CNUCED, 2003.
49. Voir à cet égard l’action menée par l’association April dans le domaine du matériel libre (voir la page dédiée sur http://wiki.april.org).
50. Notons néanmoins l’existence d’initiatives sectorielles tel les États généraux du Jazz, organisés par le Ministre de la culture fin 2011 afin d’entendre les difficultés économiques des professionnels de ce courant
51. Dans le même registre, l’initiative Public Domain Review (http://publicdomainreview.org).
52. Sur ce point Richard M. Stallman a publié « The Danger of E-Books » (http://stallman.org/articles/ebooks.pdf).
53. Plusieurs milliers de brevets sont ainsi regroupés en garantie par des sociétés comme IBM, Nokia, Sun, etc. – notamment l’IBM Statement of Non-Assertion of Named Patents Against OSS, le Sun patent program ou encore le Novell Statement on Patents and open source Software.
54. Notamment l’Open Source Development Laboratory (OSDL), l’Electronic Frontier Foundation (EFF — avec notamment l’initiative Patent busting project) ou l’Open Invention Network (OIN) auquel ont souscrit des sociétés comme Sony, IBM, NEC, Red Hat, Philips et Novell. La Foundation for a Free Information Infrastructure (FFII) et l’initiative « no software patents » affirmant que la constitution de regroupements de brevets à titre défensif est une mauvaise solution par rapport à la lutte pour imposer la non-brevetabilité des logiciels. Voir notamment la position d’Hartmut Pilch, « Collective Shields against Software Patents? » (http://www.ffii.fr/Boucliers-communs-contre-les-brevets-logiciels.html?lang=fr).
55. Concernant le projet de 2010-2011 : « This pilot will test the scalability of the peer review concept by expanding the candidate pool of applications to technology areas such as Life Sciences, Telecommunications, Business Methods and Computer Hardware and Software and by significantly increasing the total number of applications that may be accepted into the pilot. »
56. Microsoft a par exemple publié une « Open Specification Promise » portant sur 35 Web Services.
57. Voir à ce sujet The OASIS Intellectual Property Rights (IPR) Policy (sur www.oasis-open.org) : « Each Obligated Party in a Non-Assertion Mode TC irrevocably covenants that, subject to Section 10.3.2 and Section 11 of the OASIS IPR Policy, it will not assert any of its Essential Claims covered by its Contribution Obligations or Participation Obligations against any OASIS Party or third party for making, having made, using, marketing, importing, offering to sell, selling, and otherwise distributing Covered Products that implement an OASIS Final Deliverable developed by that TC. »
58. Tel Cisco à IETF: « If this standard is adopted, Cisco will not assert any patents owned or controlled by Cisco against any party for making, using, selling, importing or offering for sale a product that implements the standard […] » (https://datatracker.ietf.org/ipr/1439/).
59. Ainsi, Apple avait notamment fait interdire en été 2011 la commercialisation en Europe du Galaxy Tab de Samsung au regard de sa ressemblance avec l’Ipad (interdiction levée quelques jours après).
60. La politique de la distribution Debian est néanmoins très permissive : « [n]ous permettons à toute entreprise de faire un usage raisonnable de la marque commerciale Debian. Par exemple, si vous distribuez des CD de notre distribution Debian GNU/Linux, vous pouvez appeler ce produit Debian ». Toute autre utilisation doit être autorisée. Voir http://www.debian.org/trademark.fr.html.
61. Voir Apple, « Opposition/Response to Motion », 28/02/2011 (sur http://www.techflashpodcast.com/).
62. À ce sujet, voir Jean (Benjamin) « Compatibility – Incompatibility », EOLE 2009, au Parlement européen (http://www.eolevent.eu/en/node/160).
63. Raymond (Eric S.), The Cathedral and the Bazaar, Thyrsus Enterprises, 2000. Voir la traduction française : http://www.linux-france.org/article/these/cathedrale-bazar/cathedrale-bazar.html.
64. Aujourd’hui dénommée GNU Lesser General Public License depuis sa version 2.1 ; depuis sa troisième version, elle n’est plus qu’une simple exception à la GNU GPL.
65. Voir les statuts de l’OSI sur www.opensource.org/bylaws. Voir de même Clarke (Gavin), « OSI set to expand open source mission – Defender of the faith on new crusade », sur Theregister.co.uk.
66. Rédigé par Bruce Perens, à l’époque où il pilotait le projet Debian, afin de n’inclure dans le système d’exploitation que des outils conformes à la philosophie GNU. Voir http://www.debian.org/social_contract.fr.html.
67. Voir à ce sujet l’article qu’avait publié son président, Tieman (Michael), « Who Is Behind ’Shared Source’ Misinformation Campaign? », 2007 (http://www.opensource.org/node/225). Voir également le discours de Michael Tiemann lors de l’O’Reilly Open Source Convention : « On ’Shared-Source’ », Juillet 2001.
68. « Announcement: Major Restructuring of OSI MailingLists » : http://opensource.org/reorg-2007-12.
69. Et d’autres modifications mineures comme celles relatives aux listes de diffusions. Voir : http://opensource.org/proliferation.
70. Lawrence Rosen, qui avait vu ses deux licences classées comme « redondantes », s’était ainsi clairement opposé à ce choix : http://osdir.com/ml/licenses.open-source.general/2007-04/msg00001.html.
71. Puttonen (Hannu), Nom de code : Linux, 2002. Phrase aujourd’hui célèbre et notamment réutilisée sur le Framablog.
72. Voir « Licences pour les œuvres d’opinion et de jugement » (http://www.gnu.org/licenses/license-list.fr.html) (OpinionLicenses).
73. « The GNU GPL can be used for general data which is not software, as long as one can determine what the definition of “source code” refers to in the particular case. As it turns out, the DSL (see below) also requires that you determine what the “source code” is, using approximately the same definition that the GPL uses » (http://www.gnu.org/licenses/license-list.html -- OtherLicenses.)
74. La licence indique : « You may not charge a fee for the sole service of providing access to and/or use of the OC via a network (e.g. the Internet), whether it be via the world wide web, FTP, or any other method. »
75. La licence indique : « A. To prohibit distribution of substantively modified versions without the explicit permission of the author(s). ’Substantive modification’ is defined as a change to the semantic content of the document, and excludes mere changes in format or typographical corrections. B. To prohibit any publication of this work or derivative works in whole or in part in standard (paper) book form for commercial purposes unless prior permission is obtained from the copyright holder. »
76. Notamment, la licence autorisait des « sections invariantes », qui permettait la FSF de contraindre des personnes qui ne partageaient pas ses idées à diffuser le « manifeste GNU » avec ses documents.
77. « Nous verrons peut-être surgir une musique individuelle au lieu d’une musique pour les masses. Étant donné le mode de diffusion de votre musique sur Internet, vous enrichirez la quantité d’informations disponibles sur le réseau tout en atteignant des publics dont vous n’aviez jamais rêvé ! À plus long terme, la mainmise des grandes firmes sur la musique que les gens écoutent sera brisée. La musique est devenue une industrie institutionnalisée qui débite des produits musicaux. L’industrie musicale restreint le droit de reproduction et les autres usages de la musique de façon à augmenter le profit, mais le prix à payer est la limitation de la créativité. Cette situation va changer. Il est désormais possible pour les musiciens de diffuser leur message musical directement auprès de leur public grâce à la technologie de pointe, enrichissant à la fois l’artiste et le monde de la musique de toutes les façons possibles. La musique est un processus créatif et un monde d’idées et de passions ; ce n’est pas un produit. » Voir la traduction sur le site de Dogmazic : http://blog.dogmazic.net/categorie/lindustrie-du-disque.
78. Voir Moreau (Antoine), « Musique et Copyleft, ça coule de source », in Synesthésie, 11, 2002.
79. Voir Moreau (Antoine), « Le copyleft, la toupie tournante de l’auteur », texte de la conférence donnée par Antoine Moreau lors du colloque sur l’utopie à l’École des Beaux-Arts de Besançon, le 24 février 2005. Publié dans la revue de l’école, D’ailleurs n°2, printemps 2010.
80. Citation d’Antoine Moreau extraite d’une intervention le 28 juillet 2005 sur la liste de diffusion Creative Commons France. Voir aussi le rapport du CSPLA sur La mise à disposition ouverte des œuvres de l’esprit, p. 35, note 67 : « Pour reprendre l’expression d’un membre de la commission : Art libre a fait le choix du libre ; Creative Commons a fait celui du libre choix. »
81. Dans le même esprit, il faudrait mentionner la fédération Boxson, née en 2005, avec un rôle local important et très présent dans la région grenobloise : http://www.boxson.net/team_federation.php.
82. La FSF autorisant la rédaction de toutes nouvelles licences sur la base des licences GNU pour autant que le nom soit changé et que le préambule ne soit pas conservé.
83. Basées sur l’Open Publication Licence, qu’elles scindent en quatre variantes (trois fixes et une modulaire, voir ci-après).
84. Voir Moreau (Antoine), « Musique et copyleft, ça coule de source », ibid.
85. « We don’t take the position that artistic or entertainment works must be free, but if you want to make one free, we recommend the Free Art License » (http://www.gnu.org/licenses).

1.2.4 Le mouvement Creative Commons

Creative Commons, c’est d’une part une famille de licences construite sous l’égide du juriste américain Lawrence Lessig86 autorisant a minima la distribution gratuite non commerciale des œuvres87 – très simples à utiliser et portées dans de nombreux pays grâce au projet iCommons88 –, et d’autre part une communauté de personnes ayant en commun de favoriser le partage et la diffusion, et se retrouvant dans différents groupes de travail.
On peut décrire l’évolution de Creative Commons en plusieurs phases : une première phase d’initialisation et de communication dans laquelle de lourds efforts furent réalisés pour favoriser l’adoption des licences (chacune des licences étant portée par des chapitres locaux dans leur juridiction respective et de nouvelles licences furent créées pour répondre aux besoins rencontrés), une seconde phase de rationalisation et de consolidation (passant notamment par la suppression de quelques licences, la définition d’une meilleure gouvernance, de premiers accords avec les SPRD et un travail sur les outils pour assurer le suivi des licences, notamment via le watermarking, Mesures Techniques d’Information (MTI), et les accords avec les moteurs de recherche) et, enfin, une dernière phase d’extension dans laquelle la structure actuelle sert d’incubateur pour des projets concernant des domaines connexes (Sciences Commons, Open Data, Open Educational Ressources89, etc.).
Présentées comme une alternative à l’utilisation traditionnelle du droit d’auteur sur le numérique, les licences Creative Commons permettent de mettre rapidement et très simplement ses œuvres sous licence de libre diffusion. De nombreux sites se sont basés et se basent encore sur ces licences pour sécuriser des usages nouveaux (telles l’encyclopédie Wikipedia, la forge musicale CC mixter ou, plus traditionnelle – et sous CC-By-NC-SA –, ArteRadio).

1.2.4.1 L’association Creative Commons

Historiquement, Lawrence Lessig, Hal Abelson et Eric Eldred fondèrent Creative Commons en 2001, sous la forme d’une association à but non lucratif américaine. En 2008, l’association s’émancipa de son mentor, Lawrence Lessig (personnage de renom, aussi impliqué dans le logiciel libre90), et accueilli de nouveaux entrants, comme Joi Ito en qualité de directeur et James Boyle91 comme président (voir l’organigramme sur le site de Creative Commons) – faisant entrer l’initiative du monde académique dans le monde industriel92
Depuis, l’organisation de l’association s’est davantage complexifiée et elle entretient des liens plus ou moins étroits avec de nombreuses autres initiatives aux valeurs proches (la FSF notamment). Elle héberge dorénavant quatre projets principaux :
Creative Commons qui a pour objectif d’étendre le nombre d’œuvres disponibles sous licence Creative Commons (Mike Linksvayer est le Vice-President) ;
Creative Commons International qui s’occupe de porter les licences Creative Commons dans d’autres juridictions du monde entier (actuellement 45) ;
Sciences Commons qui a pour objectif de transposer dans le domaine des sciences le travail que réalise Creative Commons dans la culture (John Wilbanks est le Vice-President et la représentation française est assurée par l’Institut Pasteur). Cela passe par trois missions : rendre la recherche réutilisable (plus facilement et plus rapidement), permettre un accès facilité et accéléré aux données scientifiques (notamment en supprimant les freins), permettre l’intégration de sources d’information fragmentées93 ;
ccLearn qui a pour mission de baisser les barrières au partage et à la réutilisation du matériel éducatif.
Le projet iCommons
Projet indépendant incubé par Creative Commons, iCommons est une organisation caritative enregistrée au Royaume-Uni qui favorise la collaboration entre les promoteurs des mouvements de l’éducation ouverte, l’accès aux connaissances, du logiciel libre, de la publication ouverte et des communautés de la culture libre dans le monde entier. Son objectif est de réduire les coûts d’accès au savoir et à la culture et d’accroître la capacité de l’utilisateur à bénéficier de ces outils. Il organise les iCommons Summit et a récupéré le nom du projet d’internationalisation de Creative Commons qui est devenu Creative Commons International.

1.2.4.2 Les licences Creative Commons

Surfant sur la vague naissante du web collaboratif, la première version des licences proposées en 2002 connut un énorme succès. Pour favoriser leur utilisation et leur promotion, des chapitres nationaux (structures nationales homologuées – généralement des centres de recherche) eurent la mission de transposer et de diffuser des versions nationales des licences (jusqu’alors inspirées du droit américain). C’est le CERSA (Centre d’Études et de Recherches de Sciences Administratives) qui prit cette initiative en main en France et publia les licences françaises fin 2004 (alors dans leur seconde version) – le nombre de licences françaises était dès le début réduit à 6 licences en raison de l’impossibilité de retirer la clause By qui assurait la paternité à l’auteur de l’œuvre94.
Une attention toute particulière est portée sur l’effort de simplification réalisé pour permettre une utilisation toujours plus simple des contrats CC : un utilitaire pour les auteurs, un jeu d’icônes et symboles indiquant les différentes contraintes pour les utilisateurs95, et un méta moteur de recherche dédié aux contenus sous licence CC.
Ensuite, il suffit de joindre la licence, de pointer vers cette dernière (ou son résumé, le commons deeds) pour respecter la licence. Pour simplifier encore cette procédure, un outil dédié permet de fournir à l’internaute le code HTML à coller sur sa page web, en fonction de ses attentes (une image, un texte, et un lien sont inclus dans ce code afin de permettre aux utilisateurs de trouver la licence). Dans la même veine, un autre outil élaboré dans ce même souci de simplification, mais aussi de protection des auteurs, permet de « tatouer » l’œuvre de la licence qui lui est appliquée afin de suivre plus facilement l’œuvre lors de sa circulation.
Enfin, différentes interactions furent mises en place pour que ces licences s’intègrent à l’infrastructure d’Internet et soient reconnues et utilisées par les différentes plates-formes : que ce soit au sein de moteurs de recherches (tels Google CC ou Yahoo CC) qui proposent de filtrer en fonction des licences ou des sites hébergeant du contenu (tels Picasa, Flickr, Blip.tv, etc.) qui, à leur tour, proposent d’associer une licence au contenu téléchargé. Pour finir, des partenariats avec Microsoft et Creative Commons ont donné naissance à des greffons permettant à l’utilisateur de choisir une licence CC ad hoc lors de l’enregistrement de ses fichiers96 et un greffon Firefox a été spécifiquement développé pour détecter les licences des contenus embarqués : MozCC.
Les six licences Creative Commons (toutes identifiées par un contrat, une combinaison de logos, un résumé explicatif et des métas-données particulières) :
1.
CC By : paternité ;
2.
CC By-SA : paternité, partage des conditions initiales à l’identique ;
3.
CC By-ND : paternité, pas de modification ;
4.
CC By-NC-ND : paternité, pas d’utilisation commerciale, pas de modification ;
5.
CC By-NC : paternité, pas d’utilisation commerciale ;
6.
CC By-NC-SA : paternité, pas d’utilisation commerciale, partage des conditions initiales à l’identique.
Les licences Creative Commons se rapprochent juridiquement des licences libres classiques en ce qu’elles opèrent une cession non exclusive de droit d’auteur assez large au profit du licencié97. Néanmoins :
le socle minimal des droits cédés (diffusion et utilisation non commerciale des œuvres non modifiées) est inférieur à celui des licences libres –ainsi 2/3 des licences CC ne sont pas des licences libres ;
il est systématiquement rappelé la possibilité, pour l’auteur originaire, de lever les interdictions posées par la licence (alors que ce mécanisme est l’exception dans le domaine des logiciels libres, et est tout bonnement impossible dès lors que l’œuvre est dans une logique dynamique/contributive). Ainsi, le programme Creative Commons Plus (qui n’est pas une licence) permet d’associer une annexe à une licence (généralement choisie parmi les plus contraignantes) par laquelle le titulaire de droit autorise cumulativement, moyennant des conditions qu’il fixe, d’autres utilisations que la licence choisie n’autorise pas – sorte de mécanisme de double licence bénéficiant d’une communication harmonisée et d’une procédure simplifiée98, de nombreux sites commerciaux s’étant emparé de cet outil – tels Jamendo, Magnatune ou Beatpick.
C’est la raison pour laquelle on parle traditionnellement de licences ouvertes99 ou de libre diffusion – la libre diffusion étant le plus petit dénominateur commun aux six principales licences Creative Commons.
Enfin, pour être exhaustif, il faut mentionner les licences Sampling + (qui interdisent les usages commerciaux et permettent seulement les reproductions du type sampling ou mash-up – la diffusion se faisant ensuite avec ou sans clause NC), et la licence CC-0 lancée en 2007 par laquelle le titulaire de droits renonce à tous ses droits (ou, si ce n’est pas possible, les cède très largement)100.
Licences retirées
En 2004 furent retirées toutes les licences qui ne contenaient pas la clause By (voir : http://creativecommons.org/retiredlicenses). Peu de temps après les premières traductions des licences Creative Commons, de nombreuses variantes ont germé en fonction des domaines ou des territoires (dédiées aux pays en développement, au sampling, au domaine public, aux sciences, etc.).
Pas assez utilisées (moins de 0,01 %) et contraires à la liberté fondamentale des Creative Commons (la liberté de partager une œuvre non commercialement), deux autres licences furent retirées en 2007101.
D’autres licences semblent avoir été retirées (notamment la licence Creative Commons Music Sharing – sorte de CC-By-NC-ND v2).
Une licence dédiée aux wikis ?
De plus en plus souvent, l’apparition d’un nouveau phénomène, d’une nouvelle pratique, amène le législateur à légiférer à nouveau – sans prendre le recul nécessaire à l’édiction de lois pérennes. C’est la même erreur qui a été évitée lorsque des licences « spéciales wiki » étaient imaginées.
Côté Creative Commons, afin d’éviter la création de la licence CC-Wiki évoquée, une licence 2.5 générique avait été mise en place102 – précisant que la mention de la paternité devait être effectuée au profit du titulaire de droit ou d’une entité qu’il aurait désignée.
C’est le même raisonnement qui a inspiré les commentateurs de la GFDL, dont le draft actuel contient un article renvoyant à une licence GNU Wiki (8b. Wiki Relicencing).

1.2.5 L’extension du libre au-delà de la création

Au fur et à mesure que la philosophie du Libre se répand, d’autres secteurs s’orientent dans une direction similaire (influencés par l’exemple, ou tout simplement pour répondre aux impératifs du monde actuel).
Les aspects juridiques sont eux aussi des paramètres fondamentaux puisque chaque objet immatériel répond à un équilibre particulier avec lequel la licence doit composer : la transposition d’une licence sur un type de créations non prévu est généralement une mauvaise idée. En effet, le titulaire de droits sur un brevet ou une base de données n’aura pas les mêmes prérogatives que l’auteur d’un logiciel, de la même façon que l’auteur d’un logiciel aura des prérogatives différentes de celles de l’auteur d’un film : la licence choisie doit donc parfaitement appréhender les droits qui pèsent sur la création, au risque sinon que chaque auteur conserve un contrôle qui limiterait les libertés de l’œuvre.
Seront analysés ci-après quelques autres mouvements, encore en construction : l’open access (1.2.5.1), l’open data (1.2.5.2), les polices libres (1.2.5.3), les formats ouverts (1.2.5.4), l’open cloud (1.2.5.5), l’open hardware (1.2.5.6) et l’open web (1.2.5.7).

1.2.5.1 Open access ou archives ouvertes

Les bases du mouvement de l’open access103 dépassent la simple diffusion sous licences libres (1.2.5.1.a) et reposent notamment sur une gestion juridique des contributions menées dans ce cadre (1.2.5.1.b).
Les bases du mouvement de l’open access
Tirant profit des richesses du numérique et d’Internet, l’apparition du mouvement de l’open access est aujourd’hui perçu comme l’évolution logique des pratiques scientifiques104 à l’ère du numérique : favorisant les échanges, évitant de dupliquer des recherches et des erreurs, offrant une vision plus large de l’état de la science, etc. Une pratique d’autant plus appréciée en raison des abus du système de publication scientifique antérieur (avec des auteurs entièrement dépossédés de leurs droits et des prix d’abonnement prohibitifs au point de rendre ces revues inaccessibles à certaines bibliothèques).
L’Open Archive Initiative élabora en 1999 le Protocole OAI-PMH afin de favoriser l’interopérabilité entre les archives ouvertes. Mais l’open access fut réellement défini et perfectionné lors des déclarations de Budapest (Budapest Open Access Initiative en février 2002), Bethesda (Bethesda Statement on Open Access Publishing en juin 2003) et Berlin (Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities en octobre 2003). Ce concept englobe les publications électroniques en libre accès ou accès ouvert, c’est-à-dire qui offrent à tout utilisateur un droit d’accès immédiat, gratuit, irrévocable et universel des articles scientifiques entiers.
En pratique, les politiques d’open access, variées, proviennent des financeurs que sont les centres de recherches et les organismes de financement de la recherche, tous deux conscients de l’intérêt d’une bonne diffusion et réutilisation de la recherche105. Cette politique concerne les publications existantes et celles à venir – ce cadre de diffusion pouvant être obligatoire (ou fortement conseillé…) pour des chercheurs appartenant ou financés par ces organismes106 – et la publication est réalisée par l’intermédiaire d’archives institutionnelles107 ou de journaux ayant fait le choix de l’open access (par exemple PLOS et BioMed Central).
En France, peu d’organismes ont adopté une politique en faveur de l’open access (comparativement à nos voisins européens108) – principalement l’ANR, le CNRS, l’INRIA, l’INSERM et l’Université Lyon 2 (en plus de l’Institut Pasteur déjà cité) –, et plusieurs solutions coexistent109 même si une convergence110 s’observe actuellement autour du site archives-ouvertes.fr.
Dans ce nouveau paradigme – qui n’est pas un « modèle commercial111 » – où elles ne peuvent facturer l’abonnement ou l’accès, les revues alternatives se sont positionnées dans un modèle d’« auteur-payeur »112 : les frais de publication – nécessaires au travail éditorial de la revue – sont ainsi supportés par le chercheur (généralement son organisme de recherche et ses fonds de soutien) plutôt que d’être supportés par les lecteurs (les prix varient selon les éditeurs113). On parle de « modèle hybride » pour les revues qui cumulent les deux modèles114.
L’open access est tout à fait compatible avec un processus de relecture par les pairs – ceci d’autant plus que la revue elle-même est généralement bénévole, mais elle pourrait tout aussi bien être rémunérée dès lors que le coût serait pris en charge par les financeurs.
D’autres aspects doivent être pris en compte lors de la mise en œuvre de cet open access :
les établissements (écoles, centre de recherche, etc.) ne doivent pas limiter ou filtrer l’accès ;
la plupart des publications se font en anglais, il faut œuvrer pour réduire cette barrière ;
les solutions doivent permettre un accès aux utilisateurs handicapés ;
tous les pays n’ont pas le même accès au réseau, il faut œuvrer pour leur donner un tel accès.
La dimension juridique
Dans le mouvement d’open access, les auteurs autorisent un usage gratuit et sans restriction de leur production115 – cette absence de restriction induisant l’usage de licences libres116 ou proches (de type Creative Commons interdisant l’usage commercial).
Par ailleurs, le principe repose sur la conservation par les auteurs de leur titularité lors de la publication117, ce qui induit de changer les pratiques actuelles (le projet Sciences Commons recommande à cet effet l’ajout de certaines clauses afin d’atténuer les cessions de droits, au travers du Scholar’s Copyright Addendum Engine118).
Pour aller plus loin...
le site JULIET, qui centralise les différentes politiques d’open access (http://www.sherpa.ac.uk/juliet/) ;
le projet français PLUME : Promouvoir les Logiciels Utiles Maîtrisés et Économiques dans l’enseignement supérieur et la recherche (http://www.projet-plume.org/).
Une extension au-delà du monde scientifique ?
L’attrait de ce mouvement fut particulièrement fort auprès d’un public d’auteurs qui n’était, de toute façon, qu’exceptionnellement payé pour ses articles (les chercheurs, professeurs ou parfois les praticiens, comme les avocats, qui écrivent des articles ne sont généralement pas payés). La rédaction d’ouvrages, plus denses, leur assurant généralement quelque rémunération. Il n’est néanmoins pas inimaginable que ce mouvement s’étende à d’autres sphères de création (images, articles d’actualités, etc.), dès lors que les bénéfices tirés de a publication ouverte resteraient supérieurs à la valeur de la rémunération – la redevance – qu’ils auraient pu toucher dans un modèle traditionnel.
L’obstacle majeur pourrait concerner la prise en charge des coûts de publications, généralement publique pour la recherche, et privée pour les autres sphères de créations, mais la possibilité d’annuler ses coûts grâce au numérique et à Internet rend cette évolution beaucoup plus simple.

1.2.5.2 L’ouverture des données (open data) poussée par l’Open Knowledge Foundation et la Sunlight Foundation

Les bases du mouvement seront étudiées dans un premier temps (1.2.5.2.a), avant de détailler la dimension juridique (1.2.5.2.b).
Les bases du mouvement de l’ouverture des données
L’open data est l’application des concepts formalisés par l’Open Knowledge Foundation (OKF) au Royaume-Uni et la Sunlight Foundation aux États-Unis : un accès libre et gratuit aux données publiques, sous une licence gratuite qui permette la libre reproduction, redistribution, modification, et la libre ré-utilisation (y compris à des fins commerciales) des données119. Un nombre croissant d’auteurs privés s’intéresse à l’Open Data, mais restent encore principalement concernés les données publiques détenues par une administration, une collectivité ou une société dans l’exercice d’une mission de service public ou dans les projets communautaires.
Toutes deux organismes à but non lucratif, la Sunlight Foundation (qui a pour objet de rendre les gouvernements « transparents et responsables »120) et l’Open Knowledge Foundation (dédiée à la promotion de la connaissance ouverte dans toutes ses formes) sont les plus actives dans la promotion de l’ouverture des données, notamment par les acteurs du secteur public.
La politique d’« ouverture » des données ne repose que partiellement sur des enjeux juridiques et il est nécessaire de veiller (la liste n’est pas exhaustive) : à se donner les moyens de la mise à disposition (notamment par la mise en place d’interface de programmation – Application Programming Interface ou API) ; à l’utilisation de formats ouverts ; à l’animation de la communauté d’usagers des bases de données (utilisateurs lambda, utilisateurs contributeurs et éditeurs de services utilisant ces bases de données). En effet, des bases de données stockées en marge d’un site, difficilement accessibles, peu documentées ou enfermées dans des formats propriétaires seront trop difficiles à appréhender pour entraîner un mouvement vertueux (on court ainsi le risque de perdre de potentielles valorisations financières de ces bases sans pour autant en tirer de vrais profits).
En parallèle, cette ouverture des données est accélérée par la reconnaissance de certaines missions liées aux services publics :
l’exigence démocratique de transparence de l’État (le Conseil d’État ayant même fait de ce droit d’accès au document administratif une garantie fondamentale accordée au citoyen121) ;
la transformation de notre société en une société de la connaissance et de l’information – et l’incitation corollaire au développement d’activités commerciales fondées sur l’information (voir le Livre Vert sur le droit d’auteur dans l’économie de la connaissance122 et la directive européenne INSPIRE 2007/2/CE qui contraint les États membres à publier un certain nombre de données publiques géographiques ) ;
le succès généralisé de l’open innovation (la capacité à bénéficier de la créativité, de l’intelligence et des contributions externes – on parle aussi d’« open source au-delà du logiciel », voire de crowdsourcing (probablement la forme la plus ouverte de l’OI
Basé sur l’OSD, une définition intitulée l’Open Definition est venue précisée les éléments permettant de qualifier un contenu ouvert. Pour qu’une base de données puisse être dite ouverte, la définition requiert :
1.
le libre accès des bases de données : les bases de données doivent être disponibles entièrement, pour un coût raisonnable en cas de distribution matérielle (gratuitement lorsque le coût est négligeable, comme pour un transfert par Internet). Elles doivent être disponibles dans une forme adaptée et modifiable ;
2.
la libre redistribution des bases de données : la licence ne peut, par exemple, exiger le paiement d’une redevance supplémentaire au titre de la redistribution ;
3.
la libre réutilisation des bases de données : la licence doit permettre la création et la redistribution de bases de données dérivées (éventuellement sous la même licence lorsque celle-ci est de type copyleft) ;
4.
l’absence de restrictions techniques : il ne doit pas y avoir de restriction technique empêchant la jouissance des droits conférés par la licence ;
5.
l’attribution des auteurs et contributeurs : la licence peut soumettre au bénéfice de la licence l'attribution de la paternité des créateurs et contributeurs ;
6.
l’intégrité de la base doit être conservée : un tiers ne peut pas s’approprier le travail d’un autre et les contributions de chacun sont clairement attribuées ;
7.
l’absence de discrimination entre les personnes ou les groupes : toute personne détentrice d’une copie de la base de données bénéficie des termes de la licence tant qu’il s’y conforme lui-même ;
8.
l’absence de discrimination entre les domaines d’application : la licence se limite à la propriété intellectuelle et ne peut en aucun cas réguler d’autres domaines politiques ou commerciaux ;
9.
la licence s’applique sans dépendre d’autres contrats : par exemple on ne peut pas ajouter un NDA (Non-Disclosure Agreement ou accord de confidentialité) lors de l'accès à la base ;
10.
la licence ne doit pas être propre à la compilation de bases sur un même média : elle est attachée à la base de données et non à cet ensemble, le licencié étant libre de la sortir et d'en jouir conformément à la licence en dehors de cet ensemble ;
11.
la licence ne doit pas s’étendre automatiquement à d’autres bases compilées sur un même média : ce qui ne s'oppose toutefois pas aux licences de type share alike ayant une étendue large (à l'instar de la GNU GPL dans le domaine du logiciel qui ne s’étend qu’au programme envisagé comme un tout).
Les données publiques des systèmes d’information géographique (SIG) sont les premières concernées, mais elles ne sont pas les seules et des initiatives telles Data-Publica ou Regards Citoyens regroupent de nombreuses autres données publiques (souvent statistiques).
Enfin, ce mouvement, encore en pleine maturation, fait partie d’un mouvement plus large intitulé open government.
Open Street Map ou la cartographie libre
Initiative très représentative de l’intérêt de l’open data pour le privé comme le public, le projet Open Street Map est un projet de cartographie libre et mondiale, une sorte de « Google Maps-like » enrichi et ouvert qui permet à tout un chacun de partir réaliser ses propres relevés GPS, de les partager via les outils fournis et ensuite de les enrichir. Le projet connaît une croissance fulgurante et continue depuis son lancement (les principales villes étant toutes cartographiées et certaines données n’intéressant que quelques passionnés (comme les tracés des chemins de randonnée) sont d’une qualité qui dépasse les solutions officielles ou grand public.
Véritable « base de données géographiques », le projet OSM propose de nombreuses applications (la cartographie, très visible, n’étant qu’une partie de celles-ci).
L’OpenStreetmap Foundation est une association à but non lucratif de droit britannique créée par Steve Coast – également dirigeant de l’entreprise Cloudmade Ltd qui, de manière tout à fait transparente, propose des services autour d’Open Street Map.
La dimension juridique du mouvement
La notion de donnée n’est pas une qualification juridique, la donnée étant généralement plus associée à une information (soumise à aucun monopole) qu’à une œuvre ou une autre création soumise à un quelconque droit de propriété intellectuelle. Néanmoins, certaines sociétés n’hésitent pas à opérer un distinguo relatif à la protection des données qu’elles génèrent en fonction des efforts financiers qu’elles ont pu fournir123 : les données brutes (primaires : inexploitables directement par l’utilisateur) ; les données corrigées (ou traitées/ exploitables : elles seraient appropriables) ; et les données élaborées (ou analysées ou dérivées – des données extérieures sont ajoutées : elles sont appropriables). Sans préjuger de l’originalité de leur apport, notons que ce sera au juge qu’il reviendra, au cas par cas, de trancher la question au regard des critères du droit d’auteur.
Ce phénomène dépasse les seuls enjeux de propriété intellectuelle et cumule licence de droit d’auteur et autorisation donnée en vertu du droit sui generis des bases de données et contrat. De nouvelles licences124 sont venues apporter des réponses à l’ouverture des données125, en s’inspirant et se détachant des licences existantes de contenu et de logiciel.
En effet, contrairement aux créations classiques (logiciels, articles, etc.), les données ne génèrent pas, en tant que telles, un quelconque droit de propriété intellectuelle au profit de celui qui les crée, les détient ou les exploite – seule la structure de la base de données peut, pour peu qu’elle soit considérée comme originale, prétendre à une telle protection. Le droit sui generis des bases de données peut, pour sa part, limiter ou conditionner certaines extractions réalisées sur la base. Il y a deux conséquences majeures :
en l’absence de droit exclusif qui permettrait de conditionner chaque usage au respect du cadre contractuel défini, celui qui détient des données se trouve démuni face à toute personne qui aurait pris connaissance des données sans contracter (ce qui est d’autant plus préjudiciable lorsque la valeur des bases repose plus sur la qualité des données que sur leur quantité ou organisation)  ;
en l’absence de cession relative aux autres droits exclusifs (même potentiels), les utilisateurs subséquents encourent le risque que ces derniers leur soient opposés.
Deux courants de pensée ont alors animé ces nouveaux projets : le premier sous la direction du projet Science Commons de Creative Commons et la seconde sous celle de l'Open Knowledge Foundation.
En 2007, Science Commons lança le projet CC-0 visant à concéder le plus largement possible les droits sur les données. La licence Creative Common Zero (CC-0) qui en résulta est la licence conseillée par le projet Sciences Commons pour l'application aux bases de données. Le projet communautaire Personal Genome ainsi que la région italienne du Piémont utilisent cette licence.
En 2009, l'Open Knowledge Foundation a publié un panel de licences reposant sur une assiette plus large que le seul droit d'auteur (à l’inverse des licences classiques telles les Creative Commons126), en incluant également le droit des contrats et le droit sui generis des bases de données (article 2.0 « Champ d’application » de la Licence)127. Il existe actuellement trois licences rédigées sur ce principe :
Public Domain Dedication and License (PDDL) – « Public Domain for data/databases » ;
Attribution License (ODC-By) – « Attribution for data/databases » ;
Open Database License (ODC-ODbL) – « Attribution Share-Alike for data/databases ».
L’ordre dans lequel ces trois licences viennent d’être citées traduit le contrôle croissant qu'elles offrent aux titulaires de droits sur les bases de données : la PDDL opère une « renonciation » aux droits similaires à la licence CC-0 précitée, l'ODC-By impose seulement de mentionner la paternité et de différencier les contributions de chacun, tandis que l'ODbL (ODC-ODbL) est la seule licence adaptée aux données qui contienne une clause de type copyleft.

1.2.5.3 Les polices libres

Souvent méconnus, les enjeux relatifs à l’utilisation de polices libres (1.2.5.3.a) ont justifié la rédaction de licences spécifiques (1.2.5.3.b).
Les enjeux
Les polices de caractères désignent des ensembles complets de caractères typographiques de même famille (Times, Arial, Helvetica, etc.). Leur conception était auparavant dévolue à de grands groupes industriels, mais est aujourd’hui partagée avec de nombreuses petites sociétés ainsi qu’un nombre croissant de créateurs individuels.
Soucieux de ne pas utiliser ou distribuer des polices détenues par des entreprises concurrentes, les éditeurs de distributions GNU/Linux, les éditeurs de logiciels de bureautiques et les autres projets globaux ont publié et promu la publication de polices libres (l’utilisateur final reste néanmoins libre, pour certains usages seulement, d’utiliser avec ces logiciels des polices non libres pour lesquelles il détiendrait une licence).
Red Hat a ainsi publié les polices de caractères Liberation font (en version Sans, Serif et Mono) et le projet GNU publie les GNU FreeFont.
Pour des raisons différentes, mais convergentes, l’association SIL International est aussi à l’origine de nombreuses polices libres (publiées pour répondre à ses objectifs d’étude et de développements des langages).
La dimension juridique du mouvement
La protection des polices de caractères par le droit d’auteur n’est pas unanimement reconnue dans le monde :
en France (et, semblerait-il, en Europe), il convient de rechercher l’originalité nécessaire à l’acquisition du droit : une jurisprudence de 1993 est venue préciser que les polices de caractères pouvaient constituer des logiciels128 et que leur mise à disposition gratuite sur un CD-Rom largement diffusé était constitutive de contrefaçon129 ;
Aux États-Unis, la protection n’est pas garantie aux polices de caractères en tant que telles, mais la qualité de logiciel leur est souvent reconnue (à fortiori pour les polices vectorielles).
D’autres protections (notamment le brevet, le droit des dessins et modèles et le droit des marques) pourraient être utilisées pour limiter l’utilisation de la police de caractères, et il est en tout état de cause essentiel de vérifier que la licence d’utilisation les cède (ou les exclue) de façon cohérente avec les droits qu’elle confère aux utilisateurs de ces polices.
Pour majeure partie, les polices de caractères libres sont diffusées sous licences GNU GPL (version 2 ou 3), avec comme exception que tout document réalisé avec ces polices n’a aucune obligation à être lui aussi sous la même licence (copyleft)130.
Il existe néanmoins de nombreuses licences dédiées, plus adaptées à l’objet technique et juridique que sont les polices de caractères, et la SIL Open Font License (OFL) fait figure de chef de file.
Pour aller plus loin...
voir le site OpenFontLibrary (http://openfontlibrary.org/) ;
la League of Moveables Type, une collection de polices open source (http://www.theleagueofmoveabletype.com/) ;
la FSF tient à jour une liste de licences appliquées aux polices (http://www.gnu.org/licenses/license-list.html - fonts) ;
Fedora maintient une page wiki à jour contenant les réflexions relatives à la protection des polices de caractères ainsi qu’une liste relativement exhaustive des licences existantes (http://fedoraproject.org/wiki/Legal_considerations_for_fonts).

1.2.5.4 Les formats ouverts

On peut aussi parler de spécifications ouvertes au lieu de format ouvert. Les enjeux (1.2.5.4.a) sont d’autant plus importants à l’ère numérique, au sein d’une société basée sur les échanges et la diffusion de l’information, et donc intimement soumise à l’établissement de standards (ou spécifications) ouvert(e)s. Les solutions sont néanmoins peu juridiques (1.2.5.4.b).
Les enjeux
D’après la loi du 21 juin 2004 pour la confiance dans l’économie numérique « [o]n entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données interopérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en œuvre. »
Le programme IDABC (aujourd’hui ISA), en charge de cette question pour la Commission européenne, a établi une définition des standards ouverts :
1.
« le standard est adopté et sera maintenu par une organisation sans but lucratif et ses évolutions se font sur la base d’un processus de décision ouvert accessible à toutes les parties intéressées (consensus ou vote à la majorité, etc.) ;
2.
le standard a été publié et le document de spécification est disponible, soit gratuitement, soit au coût nominal. Chacun a le droit de le copier, de le distribuer et de l’utiliser, soit gratuitement, soit au coût nominal ;
3.
la propriété intellectuelle – c’est-à-dire les brevets éventuels – sur la totalité, ou une partie, du standard est irrévocablement et gratuitement mise à disposition ;
4.
il n’y a pas de restrictions à la réutilisation du standard. »
Ainsi, les enjeux sont de deux ordres : l’ouverture du format en lui-même (le fait que la spécification finale soit implémentable par tous sans restriction ou licence limitative) ; l’ouverture du processus d’élaboration du format (car s’il est conçu par un acteur unique, l’acteur en question a forcément un avantage par rapport aux autres – tel le format ouvert ISO 32000-1:2008, concernant le PDF, où Adobe est en position de seul rédacteur).
En terme de normalisation, l’ISO ne considère que des travaux qui sont portés par des organismes externes : l’ODF fut par exemple discuté au sein de l’OASIS131 (Organization for the Advancement of Structured Information Standards – consortium mondial créé en 1993 qui compte plus de 3 500 membres) et l’OOXML au sein de l’ECMA (organisme européen non officiel de normalisation, initié et dirigé par une quinzaine d’entreprises internationales américaines et japonaises).
Le W3C a récemment mis en place des procédures accélérées (Agile Track) visant à favoriser la mise en place de groupes de travail sur les réflexions relatives aux innovations du web.
Pour aller plus loin...
le blog de Thierry Stoehr dédié aux formats ouverts (http://formats-ouverts.org) ;
la page Wikipedia consacrée aux formats ouverts ;
Patrice Bertrand, « Documents ouverts : un pont entre bureautique et gestion de contenus » (sur http://tribunes-libres.smile.fr).
La dimension juridique du mouvement
En termes juridiques, les enjeux ne touchent pas vraiment la propriété intellectuelle : on parlera plus de normes, voire de référentiels nationaux, communautaires ou internationaux, relatifs à l’emploi de certains formats (généralement liés aux problématiques d’interopérabilité). Suite aux différends avec Microsoft, la Commission européenne avait exigé la mise en place de licences RAND (reasonable and non-discriminatory) – celles-ci restent néanmoins incompatibles avec les fondamentaux du logiciel libre, car elles mettent les standards à la discrétion des éditeurs propriétaires.
Ainsi, il est nécessaire qu’un format soit exempt de droits exclusifs (droit d’auteur ou brevets) pour être dit ouvert et, à terme, les problématiques récurrentes resurgissent : ainsi en est-il notamment avec le format vidéo WebM utilisé pour l’HTML 5 (utilisant notamment VP8 diffusé sous licence CC By avec une implémentation sous BSD132).
Pour aller plus loin...
Dodd (T. Colin), « ODF: The inevitable format », The RedHat Magazine, 2007 (sur http://magazine.redhat.com) ;
TREPPOZ (Édouard), « Aux confins du droit de la concurrence et du droit de la propriété intellectuelle : l’affaire Microsoft », Le Monde, 26 mars 2004 ;
voir l’article de Wikipedia consacré au litige opposant Microsoft à la Commission Européenne (« Microsoft v. Commission »).

1.2.5.5 Open cloud

Les enjeux du cloud (1.2.5.5.a), s’ils sont cruciaux au regard de l’évolution des services et des produits, ne sont que faiblement juridiques (1.2.5.5.b).
Les enjeux
Au regard des terminologies juridiques, le cloud n’est pas fongible (substituable) : il n’est pas possible, de changer du jour au lendemain de fournisseur tout en conservant les mêmes services et données (au mieux faut-il exporter ses données dans un format ouvert, afin de les importer ensuite auprès du nouveau fournisseur – l’idéal étant que les deux fournisseurs disposent d’interfaces standards qui puissent communiquer entre elles, ce qui permettrait aux utilisateurs de rester libres et aux fournisseurs de conserver leur business).
Les enjeux du cloud dépassent donc les simples droits de propriété intellectuelle133 et remettent en question les libertés assurées aux utilisateurs des services en cloud : la vie privée, les données (personnelles ou autres), l’interopérabilité134 et la standardisation sont ici des enjeux cruciaux. C’est ce constat qui a motivé la création de nombreuses initiatives logicielles135 et groupes de réflexion à l’instar de l’Open Cloud Consortium, l’Open Cloud Manifesto, FFII TIO, le Distributed Management Task Force (DMTF), l’initiative d’OW2 Open Source Cloudware Initiative ou encore l’alliance industrielle Free Cloud Alliance. Toutes ces stratégies démontrent la nécessité de retrouver dans le monde du cloud les mêmes qualités que celles que nous trouvons dans le monde du logiciel libre et de l’open source (l’absence de barrière d’entrée et de sortie, l’absence de discrimination, l’interopérabilité, la neutralité technologique et la transparence136).
L’Open Cloud Initiative (OCI), association à but non lucratif californienne initiée en 2009, fut officiellement créée en juillet 2011 lors de la conférence OSCON. Elle édicte les Open Cloud Principles (OCP) qui permettent de qualifier un produit ou service d’open cloud.
Les grandes sociétés d’Internet contribuent de plus en plus sous forme de logiciels libres afin de mutualiser leurs développements respectifs : Google et Yahoo poussant le projet Hadoop alors que Twitter parle de libérer son logiciel Storm, tandis que l’éditeur LexiNexis ouvre sous GNU Affero GPL v3 son propre logiciel de traitement de données HPCC137.
On peut enfin citer le travail réalisé par la fondation Mozilla autour des Open Web Applications qui sont des sites installables accompagnés de certaines fonctionnalités supplémentaires qui offriront aux utilisateurs la possibilité de récupérer tous les éléments nécessaires pour éventuellement migrer chez eux ou sur un autre service.
Exemples concrets
Le projet UNG, l’offre Drupal Garden et le projet Unhosted font figures de précurseurs :
lancé en 2010 par des étudiants brésiliens, le projet UNG (acronyme récursif de UNG is not Google) se présente comme alternative complète aux solutions de cloud computing propriétaires (logiciel métier, moteur de recherche, outil bureautique, etc.) ;
l’offre Drupal Garden de la société Acquia est très intéressante en ce qu’elle donne aux utilisateurs, une fois le service de la plate-forme utilisé, la possibilité d’exporter le code, le thème et les données sur une autre instanciation (mutualisée ou dédiée) de ce même logiciel libre : véritable extension du Libre au cloud ;
enfin, le projet Unhosted travaille sur un standard de web ouvert permettant de décentraliser les données des utilisateurs (et de concevoir des sites web implémentant cette technologie).
On se reportera aussi :
à l’interview de Michiel de Jong, leader du projet Unhosted, sur le Framablog (http://www.framablog.org) : « Unhosted : libre et salutaire tentative de séparer applications et données sur le web » ;
au rapport « 2011 Cloud Computing Outlook | SurveyResults », sur http://www.networkworld.com ;
à Raskin (Aza), « Privacy Icons : Alpha Release » (blog personnel http://www.azarask.in) ;
à Cope (Rod), « How Open is Open ? A PaaS Scorecard », OpenLogic, 2011.
La dimension juridique du mouvement
La dimension juridique du mouvement est en réalité essentiellement traitée par le biais des licences libres classiques : telle la GNU Affero GPL v. 3 qui impose que les modifications du logiciel utilisé dans un service en ligne soient disponibles aux utilisateurs. La généralisation de l’usage de certains logiciels libres facilitera le transfert des services grâce à un ensemble de paramètres et données qui pourront être repris chez un concurrent ou hébergé par l’utilisateur lui-même.
Toutes les autres facettes (respect de la confidentialité, de la vie privée, etc.) seront probablement plus liées à des enjeux de transparence, voire de communication et de business (les contrats généraux d’utilisation étant pour le moment peu génériques et très fluctuants). La multiplication de logiciels libres dans ce secteur facilitera néanmoins le coût d’entrée pour tout « cavalier blanc » qui entendrait proposer de réelles sécurités sur le sujet. On peut regretter que les instances nationales ne puissent être plus présentes sur le sujet (notamment la CNIL en France), mais le caractère international d’Internet est incompatible avec une telle gestion décentralisée (il serait certainement plus efficace de travailler sur des collaborations internationales, voire d’établir des normes et de mettre en place des structures aptes à les faire respecter)138.

1.2.5.6 L’embarqué et l’open hardware

Les enjeux de l’embarqué (1.2.5.6.a) sont très liés aux modèles des logiciels libres139 mais ils s’en distinguent notamment par les réponses juridiques apportées (1.2.5.6.b).
Les enjeux
Qu’elles soient communautaires (telle l’imprimante 3D RepRap) ou industrielles (comme Arduino), la multiplication d’initiatives en la matière démontre le fort intérêt que présente l’open source pour les constructeurs de matériels : tant pour ce qui concerne les logiciels embarqués dans leurs produits (leur valeur ajoutée est principalement matérielle) que dans le processus de création et d’exploitation du matériel sous licence libre. On annonçait ainsi en 2010 plus de 300 projets de matériel libre (avec un chiffre d’affaires de 1 à 10 millions de dollars140) partagés entre industriels et communautés141.
Ce phénomène (et la réflexion économique qui l’accompagne et le justifie) est d’autant plus intéressant que cette industrie ne peut créer sans investir préalablement : d’une part dans la matière première et dans les machines nécessaires à la réalisation des produits ; d’autre part dans la recherche, le dépôt ou l’acquisition de titres de propriété industrielle (brevets, droit des dessins et modèles ou droit des topographies de semi-conducteurs).
Cette nouvelle vague d’innovation devient donc possible grâce à plusieurs facteurs : une réduction de la matière première et du coût des outils nécessaires pour créer les produits142 ; une transformation des produits et des méthodes afin de faciliter la simulation, les optimisations et les itérations en amont de la réalisation du produit de sorte à diminuer le coût et le temps de création, et de favoriser la réutilisation, voire le portage, en aval du projet initial. La plus grande avancée en la matière est probablement l’arrivée dans les années 1990 des FPGA (Field Programmable Gate Array – composants numériques reprogrammables) : même si les performances ne sont pas égales aux composants classiques, un FPGA et une carte adaptée présentent une véritable alternative – très accessible – à la fonte de ces composants, ceci d’autant plus qu’ils font appel à un code source qui peut être partagé sous licence libre143.
En raison de la forte compétitivité de secteur, il faut aussi prendre en compte l’avantage attaché au premier entrant et les autres mécanismes différenciateurs (notamment les nécessaires procédures de certifications ou qualifications dans certains secteurs – l’aéronautique, le ferroviaire, l’aérospatiale et bientôt l’automobile).
Acteur très présent sur le sujet, le CERN144 a récemment lancé l’Open Hardware Initiative, qui s’appuie sur la plate-forme Open Hardware Repository créée quelques années plus tôt dans le but de permettre aux scientifiques d’échanger et de partager leurs travaux en matière de plans, documentations et schémas, afin de favoriser la réutilisation de contenus existants et d’éviter de dupliquer leurs efforts. La Cern Open Hardware Licence v 1.1 impose néanmoins des conditions qui empêchent d’y voir une licence libre : l’obligation d’avertir les contributeurs antérieurs quant aux modifications apportées et à la fabrication des matériels concernés.
La dimension juridique du mouvement
Les produits étant plus complexes, ils sont couverts par de multiples droits d’importance différente : les droits de propriété industrielle (brevets, dessins et modèles, topographies de produits semi-conducteurs) sont ici prédominants alors que le droit d’auteur est encore relativement peu utilisé (sauf pour ce qui concerne les logiciels embarqués, ainsi que la partie reprogrammable de certains composants).
Chaque projet a adopté une politique différente en matière de licences : GNU GPL pour FreeCores, GNU LGPL pour le projet Opencores, licences copyleft ou permissives pour le LinuxFund.org (anciennement Open Hardware Foundation) et l’Open Graphics Project (quelques licences propriétaires également pour ce dernier), ou encore la rédaction de licence spécifique comme pour le projet Ballon ou Tucson Amateur Packet Radio (TAPR). Le projet Qi hardware, qui a pour ambition de créer un pot commun de matériels libres, recommande aujourd’hui la GNU GPL v 3 (à la place de son ancienne politique par laquelle les plans étaient sous CC By-SA, le code sous GNU GPL v 2 et les brevets sous une licence particulière). Le CERN a publié la version 1.1 de sa licence OHL, qui encadre les plans et documentations d’équipements aux spécifications libres (open hardware) tout en imposant certaines obligations liées au partage des modifications des plans et à l’avertissement de toute mise en œuvre de ceux-ci.
Enfin, l’adoption de licences libres affecte directement les relations entre les différents acteurs, certains se réunissant en amont des projets afin de s’ouvrir ensemble à de nouveaux marchés (tel le projet français Babylone qui a pour vocation à créer et partager l’environnement nécessaire à un système GNU/Linux embarqué à destination de l’aéronautique) et d’autres rejoignant plus tard le projet (en tant qu’intégrateur ou client).

1.2.5.7 Open Web

Globaux, les enjeux de l’open web (1.2.5.7.a) reposent aussi sur une dimension juridique (1.2.5.7.b).
Les enjeux
Autre mouvement transverse, l’open web affirme fondamentalement que les pièces majeures du web devraient être ouvertes, libres, afin de pouvoir être implémentées par tous ceux qui composent le réseau.
La fondation Open Web a donc été créée en 2010 sur le modèle des fondations Apache et OpenId, pour gérer les spécifications du web.
Ses missions se répartissent entre :
un rôle d’incubateur, pour créer de nouvelles spécifications à destination du web ;
la gestion de licences sur les objets de droits exclusifs ;
la diffusion de spécification sous Creative Commons ;
la création et le support d’une communauté.
Elle comble de ce fait l’inaction des organisations de standards, promeut l’usage de licences claires ainsi que l’édiction de standards pour gérer la propriété intellectuelle. L’initiative n’englobe pas les autres courants dont elle reconnaît néanmoins la légitimité ( comme l’open data.) Enfin, elle est ici pour rédiger le contrat social qui réunira la communauté.
Projet complémentaire ayant récemment été annoncé, l’Open Networking Foundation vient d’être fondée par d’importantes sociétés de télécommunication et du web (notamment Deutsche Telekom, Facebook, Google, Microsoft, Verizon, and Yahoo) pour accélérer l’innovation relative au réseau (en se basant sur la technologie OpenFlow)145.
La dimension juridique du mouvement
La fondation OpenWeb a publié plusieurs licences qui s’étendent tant au droit des brevets qu’au droit d’auteur. L’Open Web Final Specification Agreement (OWFa 1.0) est ainsi utilisé par le projet Open Compute, projet lancé par Facebook afin de créer une communauté ouverte destinée à optimiser la création de serveurs et datacenters. Elle contient une licence en matière de droit d’auteur et une promesse de non-agression en matière de brevets.

1.2.5.8 etc.

La liste serait trop longue s’il fallait détailler toutes les autres extensions de ce phénomène, tout du moins peut-on en lister quelques-unes :
Personal Genome et PSI structural genomics. Projets qui œuvrent dans le secteur des génomes humains, de la biologie (Personal Genome partage ses informations sous licence CC-0) ;
Tela Botanica. Principal réseau de botanistes qui partagent leurs connaissances sous licence Creative Commons By-SA ;
Territoires sonores. Documents et témoignages sous forme de balades sonores (sous licence Creative Commons) ;
Sesamath. Manuels et logiciels mathématiques rédigés par une communauté de professeurs de mathématiques et diffusés sous licences libres (GNU FDL et GNU GPL) ;
l’initiative Open Prosthetics qui est une collaboration ouverte entre utilisateurs de prothèses, concepteurs et financeurs afin de créer des modèles de prothèses disponibles pour tous ;
le projet Open Money qui donne tous les outils pour la mise en place de monnaies alternatives ;
le projet Open Law, soutenu par Harvard, a pour ambition d’impliquer les communautés dans la réflexion relative à l’édiction des lois.

1.3 L’impulsion favorable des puissances politiques publiques

En tant qu’utilisatrices, les puissances publiques se sont très tôt intéressées au phénomène du Libre (pour différentes raisons dont le prix, l’adaptabilité, la sécurité, etc.), sans jamais franchir le pas du politique. Le préjudice est d’autant plus fort que le budget alloué au marketing des logiciels libres est généralement nul146, ce qui les rend bien moins visibles auprès de la sphère politique.
Néanmoins, le marché comme le politique ne peuvent que suivre le chemin tracé par les acteurs de la création et de l’innovation, et on observe ainsi des impulsions plus ou moins fortes des puissances publiques qui bénéficient au Libre : dans l’open source / logiciel libre (1.3.1), les standards ouverts (1.3.2), et l’open data (1.3.3).

1.3.1 L’impulsion des puissances publiques en faveur du logiciel libre

Différents types d’impulsions (1.3.1.1) caractérisent les actions publiques en faveur de l’open source dans le monde (1.3.1.2).

1.3.1.1 Les types d’impulsion

La dimension politique du logiciel libre n’a pas échappé aux administrations ou collectivités qui peuvent ainsi justifier auprès de leurs contribuables d’une action qui participe à la constitution d’un fonds commun et qui les rend « plus libres » à l’ère du numérique.
Même s’il leur est parfois possible d’édicter des lois en ce sens (1.3.1.1.a), l’action des administrations ou collectivités se fait surtout au travers des marchés publics (1.3.1.1.b), voire par la prise en charge de l’édition de logiciels libres (1.3.1.1.c) ou le soutien du mouvement par d’autres actions directes ou indirectes (1.3.1.1.d).
Les réformes législatives en faveur du Libre
En 2009, le Conseil régional italien du Piémont a adopté une loi disposant que : « la Région, dans le processus de sélection des programmes d’ordinateur qu’elle acquiert, préfère les Logiciels Libres et les programmes dont le code source peut être inspecté par les licenciés » . Alors que ce choix était accueilli avec enthousiasme par les partisans du logiciel libre et par la société civile, la Présidence du Conseil italien a contesté cette loi en saisissant la Cour constitutionnelle afin de déclarer ce texte illégal. Par une décision du 23 mars 2010, la Cour a jugé que la préférence envers le logiciel libre est légitime et conforme au principe de la liberté de la concurrence. La Cour précisant que
Le concept du logiciel libre et des logiciels dont le code source est ouvert ne se réfère pas à une technologie particulière, marque ou produit, mais exprime une caractéristique juridique.
Dans une autre perspective, le président de la Fédération de Russie, Dmitry Medvedev, a récemment proposé147 une réforme de la législation de son pays afin de faciliter la diffusion de contenu sous licence de type Creative Commons.
Certains estiment que les réformes devraient être plus profondes : ainsi Mélanie Clément Fontaine propose la création d’un domaine public réservé qui permettrait aux auteurs de renoncer légalement à leurs droits au profit d’un statut légal conçu sur le modèle du copyleft148.
Toutes ces réformes posent néanmoins un certain nombre de problématiques (notamment au regard des traités internationaux dont la France est signataire) et il est à craindre qu’il faille attendre encore quelques années avant que celles-ci puissent se généraliser149
Les marchés publics comme premier vecteur de commande de logiciels libres
La source de financement de l’écosystème du logiciel la plus simple est la commande de logiciels (en qualité de matériels et fournitures informatiques) ou de services autour de ceux-ci par le biais d’appels d’offres. Une telle technique permet par ailleurs de mutualiser les développements au bénéfice du secteur public, celui-ci ayant tout intérêt à pouvoir réutiliser massivement et sans limitation les logiciels payés une première fois – destructeur d’un nombre important de rentes qui s’était construites autour des besoins des acteurs publics.
Classiquement, cette politique peut être intégrée par des critères objectifs au sein de marchés publics qui restent conditionnés à un certain nombre de règles destinées à assurer un bon usage des deniers publics150 – qui ne leur permettent pas, par exemple, de désigner nommément le logiciel souhaité151. On vit néanmoins la situation analogue où des marchés publics de service indiquaient par leurs marques les logiciels libres sur lesquels étaient demandés l’installation ou le support : il ne semble pas y avoir à priori d’atteinte à la concurrence puisqu’aucune société n’est par ce fait exclue de l’appel (la situation pourrait néanmoins être différente si une des sociétés était l’éditrice unique du logiciel) ; mais il est en revanche plus critiquable (en termes de recherche d’une solution optimum) que de tels appels puissent se faire sans une étude des différentes solutions répondant au besoin (obligatoires dans le cadre d’un marché public de fournitures). C’est exactement cette hypothèse qui a récemment emporté la saisine du juge des référés puis du Conseil d’État : statuant sur une requête par laquelle les sociétés évincées de l’appel d’offres reprochaient à la région Picardie d’avoir nommément fait référence aux logiciel libre pour lequel elle demandait la mise en œuvre, l'exploitation, la maintenance et l’hébergement d'une plate-forme de services, le Conseil d’État a, par une décision (numéro 350431) du 30 septembre 2011, jugé qu’un tel marché public de service pouvait mentionner une marque car il n’était pas soumis au régime plus contraignant des marchés publics de fournitures (et que celle-ci n’entraînait aucun distorsion de la concurrence). Si cette décision semble heureuse en l'espèce152, il aurait été intéressant de pousser plus loin la réflexion relative à l'atteinte à la concurrence pour laquelle d'autres facteurs (procurant potentiellement un avantage à l'éditeur) que la licence devraient, nous semble-t-il, être considérés : la lisibilité et l'accès du code (peut-il être compris et manipuler par un tiers qui se penche sérieusement sur ce dernier), les modalités de diffusion (le code publié est-il le plus à jour), le business modèle (la société éditrice possède-t-elle une offre de modules propriétaires susceptibles de la favoriser ?), la gouvernance du projet (tout développeur peut-il en pratique contribuer ses modifications au sein du projet ? Ce dernier aspect pouvant être fondamental pour un client qui souhaite rendre pérenne toute modification déjà payée).
Finalement, de plus en plus de raisons pragmatiques entraînent l’adoption de logiciels libres (large choix de logiciels, interopérabilité, confiance et stabilité, sécurité, facilité de déploiement, facilité de localisation, etc.). On constate même que certains projets, auparavant trop importants pour les sociétés du secteur, leur sont aujourd’hui partiellement accessibles grâce au soutien de grandes SSII (Sociétés de Services en Ingénierie Informatique) – ceci même si la tendance à rédiger des appels d’offres globaux préjudicie à l’écosystème industriel du Libre qui n’est généralement pas en mesure de répondre par lui-même153.
Enfin, il est néanmoins heureux de constater que les acteurs publics se rendent compte de l’importance de garder de bonnes relations avec les communautés qui éditent leur logiciel ou qui les utilisent (les administrations ne doivent pas réaliser tout toutes seules : outre que ce n’est pas leur métier, elles passeraient certainement à côté d’innovations bienvenues en provenance desdites communautés). Ce rôle est généralement contractuellement confié à l’attributaire du marché qui contribue sur les logiciels ou propose une assistance sur ces derniers.
Pour aller plus loin...
L’édition de logiciels par le secteur public
Toujours par le biais de marché public, certaines collectivités et administrations décident de financer le développement de logiciels libres qu’elles maintiennent – quitte à ce qu’elles le partagent ensuite avec d’autres acteurs du secteur public.
Certains éditeurs propriétaires se sont soulevés contre ce nouveau courant d’autonomie des administrations et collectivités qui leur « porterait concurrence » par le développement de produits open source. Le centre espagnol de ressources sur l’open source, Cenatic, déclare au contraire que « les administrations publiques qui développent et partagent leur logiciel ne doivent pas être perçues comme des pratiques anticoncurrentielles, mais prises comme une opportunité pour les sociétés privées de construire et d’étendre leur offre de services ». Cela d’autant plus que de tels logiciels sont généralement développés dans un contexte où aucune offre existante ne convient aux besoins.
Il conviendrait par ailleurs de rappeler que l’édition de tels logiciels peut rentrer dans les missions de services publics : si les besoins en équipement informatique étaient considérés comme une nécessité, et que les logiciels propriétaires étaient proposés à des coûts prohibitifs.
Les autres impulsions publiques
Enfin, d’autres actions en faveur de l’écosystème des logiciels libres et open source existent, notamment sous la forme de « Centres de compétences open source », centres de recherche spécialisés (telle l’Initiative de Recherche et Innovation sur le Logiciel Libre en France) ou encore pôles de compétitivité dédiés (ces derniers facilitant l’accès aux subventions publiques grâce à une procédure de labellisation).
La sensibilisation et le financement d’événement en faveur du Libre ou du logiciel libre en particulier semblent aussi tout à fait nécessaires compte tenu de la difficulté pour les entreprises du secteur – et, à fortiori, les communautés – à investir dans la communication et le marketing.

1.3.1.2 Les différentes politiques favorables à l’open source dans le monde

Le mouvement que l’on observe en France (1.3.1.2.a) s’inscrit dans une perspective européenne (1.3.1.2.b), voire mondiale (1.3.1.2.c).
En France
Nous avons la chance, dans notre pays, d’avoir des administrations qui, très tôt, comprirent leurs intérêts dans l’open source et qui, par la multiplication de marchés publics favorables, permirent au tissu économique du Logiciel Libre de se former et de se structurer.
Par ailleurs, l’association de collectivités Adullact154 a, dès 2002, promu une politique publique de mutualisation qui donna rapidement la première forge publique adullact.org destinée à partager les logiciels payés sur fonds public (inspirant les travaux postérieurs autour de la forme européenne Osor.eu lancée par la Commission Européenne). Ainsi le logiciel de modélisation Code-Aster (notamment utilisé dans le nucléaire) a récemment fêté ses 20 ans.
Il n’y a en revanche aucune politique nationale du logiciel libre similaire au positionnement récent en faveur de l’open data. Ainsi, contrairement aux engagements qui purent être pris lors des présidentielles, aucun pôle de compétitivité dédié au logiciel libre n’a été mis en place, et c’est donc au travers des multiples pôles de compétitivité (à dimension nationale ou internationale) que s’est dispersée l’industrie du logiciel libre : au premier rang, le pôle System@tic au travers d’un groupe thématique dédié, mais aussi d’autres pôles comme Cap Digital (et notamment CoLLibri155) ou Aerospace Valley. Ce choix bénéficie peut-être partiellement au logiciel libre, dont la culture infuse ainsi dans l’ensemble des pôles, mais il le fait sans force (face à une industrie traditionnelle qui tient encore une place dominante) et sans remplacer l’opportunité préalable qui aurait pu être offerte au logiciel libre de se structurer et de se renforcer156.
En terme de promotion du Libre et de l’open source, on peut citer l’événement annuel Open World Forum (OWF), soutenu par de nombreux acteurs institutionnels. Histoire moins heureuse, le Centre européen de transfert et de recherche en informatique libre (CETRIL), organisateur des Trophées du Libre à Soissons, a aujourd’hui disparu. La Fédération Nationale du Logiciel Libre (FniLL), organisatrice de l’événement « Paris Capitale du Libre », n’a pas survécu à la perte des financements publics et ses adhérents s’en sont détournés.
Enfin, et même si la démarche semble aujourd’hui beaucoup moins active, il faut reconnaître le travail réalisé par la Direction générale de la modernisation de l’état DGME (qui avait notamment publié le « Guide pratique d’usage des logiciels libres dans les administrations » rédigé par Thierry Aimé, cité précédemment).
En Europe
Au-delà de la France, il est possible de trouver quelques initiatives européennes en faveur du logiciel libre, même si force est de constater que celles-ci n’ont jamais été menées jusqu’à leur terme (des pays tels que les Pays-Bas, l’Italie ou le Royaume-Uni ont communiqué à plusieurs reprises sur l’importance de l’open source). Il semblerait qu’il s’agisse néanmoins de démarches politiques difficiles à affirmer à l’échelle d’un pays – raison pour laquelle, dans les pays composés de régions fortes et relativement autonomes, l’édiction de loi et les prises de position franches en faveur du logiciel libre sont faites à l’échelle de ces dernières (telle la Région du Piémont en Italie ou l’état du Kerala en Inde)157. Le CSI Piémont, qui mutualise à grande échelle, explique d’ailleurs promouvoir (et accompagner) l’utilisation de logiciels libres par pragmatisme.
Au Royaume-Uni, après quelques années de communication sans réels effets, une politique plus concrète a pris forme courant 2011 par le biais d’une liste des logiciels open source pouvant être utilisés par les administrations (sous l’intitulé d’« Open Source Software Options for Government », aujourd’hui en version 0.3) ainsi que l’édiction des critères nécessaires à l’utilisation de tels logiciels (au travers l’« Assessment of Open Source Software for Government », lui aussi en version 0.3). De son côté, l’Allemagne a ainsi opté pour la création d’un Centre de compétences OSS (Open Source Software Competence Centre) qui permet de mutualiser les réflexions et expériences des administrations. Il est rattaché au Bundesstelle für Informationstechnik (BIT) et promeut l’utilisation de logiciels libres dans l’administration.
Par ailleurs, l’Europe – qui voit dans l’open source un développement potentiel pour son industrie face aux géants américains et asiatiques158 – a financé deux projets qui ont œuvré en faveur du logiciel libre : le projet Qualipso (Quality Platform for Open Source Software) d’une part et les initiatives Osor.eu, devenu Joinup.eu, et EUPL issues du département IDABC – aujourd’hui ISA – d’autre part. Cependant, la dimension de la structure, la lourdeur administrative et l’aspect politique de la Commission sont autant d’arguments qui expliquent qu’il est très difficile pour la Commission, en tant que structure politique, de faire le choix unique du logiciel libre. Ainsi, la Direction Générale de l’Informatique (DIGIT) de la Commission européenne, qui explique sur son site sa stratégie en faveur de l’utilisation interne d’open source, s’est aussi récemment distinguée par l’achat de plusieurs dizaines de milliers de licences Microsoft sans procéder à de quelconques appels d’offres159.
Dans le reste du monde
Dans le reste du monde, les politiques sont diverses et assez complexes. Le Pérou et l’Extremadure sont les précurseurs, et l’Australie avait publié dès 2005 un guide intitulé A guide to Open Source Software for Australian Government Agencie.
Aux États-Unis, l’open source est aujourd’hui perçu comme la meilleure méthode de développement de logiciels (moins chers, mieux testés et donc sécurisés, interopérables, etc.). On retrouve ce constat du côté du gouvernement, mais celui-ci est surtout très actif dans la mise en place d’une politique de « transparence » et d’ « ouverture » qui bénéficie, directement ou indirectement aux logiciels libres. Le ministère de la défense américaine (DoD) est lui aussi un fervent partisan du logiciel libre160 et possède sa propre forge publique (http://forge.mil).
Des pays comme l’Inde ou le Brésil se distinguent en la matière. Dans ces deux pays, les principaux acteurs de l’open source sont publics en raison d’une impulsion politique très forte qui entraîne l’édition sous licences open source des logiciels destinés aux propres besoins des administrations comme à ceux de ses citoyens, la formation des étudiants, la création de centres de compétences locaux, etc.
Nul doute que ces mouvements gagneront en importance au fur à mesure que ces pays progresseront. Courant 2011, le Brésil a annoncé qu’il allait, en sa qualité de très grand utilisateur de la suite OpenOffice.org, rendre les contributions nationales plus régulières et conséquentes.
Pour aller plus loin...
« Libérer les logiciels du secteur public », European Open Source & Free Software Law Event (EOLE), Turin, 2010, (http://eolevent.eu/fr/node/265) ;
voir l’initiative indienne CATFOOS (Centre for Advanced Training in Free and Open Source) Software ainsi que l’IC-FOSS (International Center for Free and Open Source Software), http://www.catfoss.kerala.gov.in ;
« Brazil and India : The Next Generation of Open Source », Open Source Initiative, 2010, (http://www.opensource.org/node/528) ;
voir la « Letter of Intent » publiée par le Brésil en faveur de l’ODF et de la suite OpenOffice.org/Libreoffice (http://www.softwarelivre.gov.br/objetivos-do-portal/protocolo-em-ingles) ;
gouvernement australien, A Guide to Open Source Software for Australian Government Agencies Second Edition (dernière mise à jour mars 2011).

1.3.2 Les standards ouverts

Pour rappel, l’article 4 de la Loi n° 2004-575 pour la confiance dans l’économie numérique (LCEN) définit les standards ouverts de la façon qui suit : « [o]n entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données interopérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en œuvre. » En l’absence d’un article supplémentaire contraignant à l’usage de tels standards, l’intérêt de cette définition était avant de tout de poser un premier cadre de réflexion.
Ce n’est ainsi que plus tard, le 11 novembre 2009, que fut publié le Référentiel Général d’Interopérabilité afin de « guider les autorités administratives dans l’adoption de normes, standards et bonnes pratiques, afin de favoriser l’interopérabilité de leurs systèmes d’information ». La version initiale prévoyait de préconiser le recours au format ODF (Open Document Format) normalisé par l’ISO (Norme ISO/IEC 26300:2006) en mai 2006, mais elle a ensuite été révisée pour intégrer le format OOXML (Office Open XML) normalisé en un temps record (6 000 pages en deux mois seulement !) sous la pression de Microsoft qui souhaitait assurer une rétrocompatibilité vis-à-vis des versions antérieures de son format (il devait être utilisé dès Office 2010, mais la version implémentée ne correspond pas au format normalisé).
En Italie, la région des Pouilles prépare une loi qui rendra obligatoire à ses administrations l’utilisation de formats ouverts et de logiciels libres : cela dans une politique de réduction des coûts et pour ouvrir le marché aux TPE. Enfin, une étude intitulée UK Government Open Standards Survey a été réalisée sur le sujet au Royaume-Uni en 2011 (non encore publiée).
Le gouvernement hongrois a exprimé le 1er juin 2011 sa volonté d’imposer l’utilisation du format ODF, vu comme un format indépendant de tout fournisseur161.
Pour aller plus loin...
le site de veille http://www.openformats.org ;
la « Charte sur la conservation du patrimoine numérique » adoptée par l’UNESCO le 15 octobre 2003 (voir http://portal.unesco.org) ;

1.3.3 L’impulsion publique en faveur de l’open data

Le mouvement de l’open data est arrivé tardivement sur le devant de la scène politique, mais son adoption fut alors fulgurante et vue comme l’achèvement d’une politique de transparence initiée dans les années 1980. Ainsi, la démarche étant encore jeune et en pleine adoption (1.3.3.1), il faut garder un regard critique et replacer la situation française (1.3.3.3) à l’échelle des pays (1.3.3.2) voire à l’échelle européenne (1.3.3.4). Enfin, les principes de l’open data s’étendent au-delà, notamment dans ce qu’il est d’usage d’appeler l’Open Government (1.3.3.5).

1.3.3.1 Les origines

En 1978, la France s’est dotée d’une loi « portant diverses mesures d’amélioration des relations entre l’administration et le public et diverses dispositions d’ordre administratif, social et fiscal ». Elle était destinée à assurer aux citoyens l’accès aux documents administratifs (en provenance d’établissements publics administratifs ou privés avec mission de service public) et entraînait d’une part des obligations de mise à disposition pour l’administration et d’autre part la constitution d’une commission, la Commission d’Accès aux Documents Administratifs (CADA), garante de leur respect (qui s’appuie aujourd’hui sur un réseau de correspondants internes aux collectivités). Il y eu ensuite peu d’usage de cette loi, même si, en phase avec son époque, le gouvernement français confirma en 1998 que les « données publiques essentielles » devaient être accessibles gratuitement sur Internet.
En 2005, une ordonnance « relative à la liberté d’accès aux documents administratifs et à la réutilisation des informations publiques » (transposant la directive européenne de 2003 « sur la réutilisation des données du secteur public ») est venue ajouter – et organiser – la possibilité de réutiliser les données publiques. Certains documents sont expressément exclus de cette réutilisation (lorsque protégés par un droit de propriété intellectuelle d’un tiers, relatifs à un service public industriel et commercial, ou provenant d’établissements et institutions d’enseignement et de recherche ou d’organismes ou services culturels). Une circulaire du Premier Ministre ajoute, courant mai 2006, un « objectif de développement économique par une meilleure valorisation des gisements de données dont disposent les administrations ».
Deux logiques coexistent donc : celle (passive) de la simple mise à disposition impliquant une démarche du demandeur et celle (active) de la diffusion reposant sur une démarche du producteur de la donnée. Constitutives d’une politique incitative, ces dispositions prennent la forme d’une série d’obligations à l’encontre de certaines personnes publiques (tous les établissements publics ne sont pas concernés), pour certains documents (tous les documents ne sont pas visés – sont notamment exclus tous ceux devant demeurer secret, touchant à la défense nationale, la sécurité publique, la protection d’espèces rares ou des données archéologiques) afin d’assurer certains droits aux citoyens. Au-delà de ce cadre minimum, il leur est évidemment tout à fait possible d’opter pour une diffusion plus large des données/informations publiques détenues : le mouvement de l’open data étant la politique la plus ouverte en la matière, et la meilleure en termes de marketing…
Enfin, parallèlement, et dans deux domaines précis, ont été organisés des régimes plus contraignants. Une Charte de l’environnement a été rédigée dans la continuité de la Convention d’Aarhus afin de préciser que « [t]oute personne a le droit, dans les conditions et les limites définies par la loi, d’accéder aux informations relatives à l’environnement détenues par les autorités publiques et de participer à l’élaboration des décisions publiques ayant une incidence sur l’environnement ». Peu de temps après la directive européenne INSPIRE a ajouté un cadre légal pour l’établissement et l’exploitation d’une infrastructure d’information spatiale commune en Europe.
Pour aller plus loin...
Rapport « Recommandation. Quelle politique de diffusion des données publiques ? », Forum des droits sur l’internet (http://www.foruminternet.org/) ;
« Les sources de la démocratie environnementale – le principe de participation du public : de la convention d’Aarhus à la charte de l’environnement », dossier du participant, Conférence du Conseil d’État – 22 décembre 2010 (voir: http://www.conseil-etat.fr).

1.3.3.2 Les démarches open data à l’échelle des pays

À l’échelle internationale, les États-Unis en 2009, puis le Royaume-Uni en 2010, ont été les deux premiers pays à communiquer sur l’adoption d’une politique d’open data avec la mise en place de leurs portails respectifs.
Devant le succès de ces initiatives, tant en termes de communication qu’au regard des usages qu’elles ont engendrés, les autres pays ont rapidement adopté des démarches similaires : Pays-Bas, Suède, Espagne, Bulgarie, Canada, Tunisie, Finlande, Australie, Nouvelle-Zélande, Irlande du Nord et Maroc. L’excellent site américain Open Data Site répertorie ainsi plus de 200 initiatives similaires à l’échelle des états, des collectivités ou des organisations internationales. Par ailleurs, un regroupement de collectivités et administrations autrichiennes a annoncé la mise en place d’une coopération « Cooperation OGD Austria » qui mutualisera les outils juridiques (les licences) et techniques (grâce au logiciel CKAN développé par l’OKF) pour la diffusion des informations publiques ; et le Royaume-Uni a récemment publié le rapport « Making Open Data Real: A Public Consultation » destiné à « établir une culture de la transparence et de l’ouverture des services publics ».
Plusieurs types de licences sont utilisées pour la diffusion de ces données :
les licences communautaires préexistantes (principalement les licences Creative Commons et ODbL) :
la coopération autrichienne Cooperation OGD Austria ainsi que la Nouvelle-Zélande ont opté pour la CC-By 3.0 ;
La région du Piemont italienne, déjà précurseur en matière de logiciels libres en Italie, a publié son portail open data sous CC-By et utilise la licence CC-0 sur les données ;
La suisse a opté pour une CC-By-SA 3.0 ;
l’ODbL a été choisie par de nombreuses collectivités françaises (notamment la Mairie de Paris, Nantes Metropole, Grand Toulouse, le Nord-Pas-De-Calais, etc.) et quelques pays (notamment le Maroc).
ou des licences spécifiques :
l’Open Government Licence (OGL) en Angleterre pour le site legislation.gov.uk : la licence est rédigée pour les besoins du gouvernement britannique et compatible avec la licence Creative Commons Attribution (pour le copyright) et la licence Open Data Commons Attribution (pour les bases de données) ;
la licence ColorIURIS (ColorIURIS) pour la ville espagnole de Saragosse ;
la récente Licence Ouverte (LO) qui sera utilisée en France par toute l'administration et les collectivités qui le décident. Elle est très ouverte et compatible avec les principales licences communautaires existantes, notamment avec l’OGL, la CC-By-SA 2.0 et l’ODbL.
Il n’existe à l’heure actuelle aucun consensus quant à l’usage de licences de type copyleft ou non : celles-ci offrant des pistes de valorisation rassurent de nombreuses collectivités, mais qui génèrent aussi un courant de mécontentement du côté des industriels qui souhaiteraient profiter de ces données sans contrepartie162.
Pour finir, outre ces initiatives directement menées par les États, ceux-ci incitent indirectement les sociétés privées à suivre ces recommandations (notamment celles qui travaillent directement avec elles) : ainsi la société simplegeo, qui développe des applications autour de la géolocalisation, a annoncé la publication de ses propres données sous licence CC-0 afin de se concentrer sur le service.

1.3.3.3 Les démarches open data à l’échelle française

Les villes de Brest, Rennes et Nantes (aux dernières nouvelles en 2011) ont chacune à leur tour arboré les couleurs de l’open data. La démarche parisienne se distingue aussi, mais par le fort investissement (et la réflexion relative aux licences) et par son aspect « pionnier » qui donnèrent confiance à d’autres collectivités (notamment : Marseille, Montpellier, Nantes, Bordeaux, Toulouse et le Nord-Pas-de-Calais).
On peut néanmoins regretter que les échanges aient été si faibles quant au choix des licences, des technologies, etc., chaque collectivité et administration fonctionnant de façon isolée en l’absence de cadre commun (ou de licence française), quitte à renouveler le travail réalisé par d’autres – même si l’investissement et l’implication de la ville de Paris permirent de dégager une certaine orientation au profit de la licence ODbL. C’est ainsi, grâce aux initiatives communes et au travail des communautés, que les expériences respectives sont partiellement mutualisées.
Parmi les autres initiatives isolées, on peut citer :
le Répertoire du registre français des émissions polluantes sur Internet (IREP), qui donne accès aux données concernant la pollution ;
le site du ministère de l’Écologie, du Développement durable, des Transports et du Logement qui permet une utilisation libre des données tant que celles-ci ne sont pas dénaturées et en précisant que « [l]es informations mises à disposition ne sont pas fournies en vue d’une utilisation particulière, et aucune garantie quant à leur aptitude à un usage particulier n’est apportée par le service fournisseur » (voir notamment les conditions générales d’utilisation des données disponibles en téléchargement sur le site) ;
plus récemment, et plus loin dans cette démarche d’ouverture, le Ministère de la justice a rédigé en 2010 une licence « Information Publiques librement réutilisable » qui s’appuie essentiellement sur la loi de 1978 relative aux données publiques (Licence IP ou LIP).
Enfin, une prise de conscience nationale du phénomène s’est traduite par la création de l’Agence du patrimoine immatériel de l’État (APIE163) et de la mission Etalab.
L’APIE est un service à compétence nationale qui a pour mission de sensibiliser les acteurs publics aux enjeux attachés aux actifs immatériels de l’État, et propose à cette fin plusieurs licences destinées à accompagner la diffusion des données publiques (dans une logique qui mélange diffusion gratuite et payante). Néanmoins ces documents ont été pensés dans une logique propre à l’administration (avec un socle de conditions générales de réutilisation des informations publiques sur lequel sont construites deux licences, chacune composée de conditions générales et potentiellement de conditions particulières), pas forcément adaptée à un mouvement global d’open data qui n’est pas centré sur les concédants, mais sur les bases de données licenciées. Actuellement les documents sont encore trop complexes pour répondre aux enjeux de large diffusion des bases de données. Par ailleurs, ils restent franco-français, négligent le formalisme lié aux cessions de droits de propriété intellectuelle et sont plus orientés vers la libre diffusion que la libre réutilisation. Une nouvelle licence intitulée Informations Publiques (du même nom que la licence rédigée par le Ministère de la Justice en 2010) a été publiée suite à la constitution de la mission Etalab.
Créée début 2011 dans le cadre du plan « France numérique 2012 », la mission Etalab anime un groupe de réflexion sur le sujet avec pour objectif la mise au point d’un portail unique, alimenté par les ministères et les collectivités territoriales, donnant accès à toutes les données publiques de l’État. La mission a aussi la lourde tâche de rédiger (ou préconiser) la licence qui sera utilisée sur la plate-forme : c’est-à-dire de dégager une stratégie globale et de se prononcer sur le contenu nécessaire. Actuellement, il semblerait que les différentes collectivités ayant fait le pas de l’open data privilégient une licence de type copyleft assimilable aux fréquents accords de coopération (une partie profite gratuitement d’une base de données et l’enrichit en échange) tout en se tournant résolument vers l’open data.
La mission Etalab a récemment publié sa licence libre permissive intitulée « Licence Ouverte » dédiée aux données du secteur public français et assurant une compatibilité avec les projets existants. Il est très probable que cette dernière licence rende obsolète les licences rédigées précédemment par l’APIE et avant elle par le Ministère de la justice. Le portail national est quant à lui prévu pour la fin de l’année 2011. Même si ces travaux ne contraignent que l’État et ses administrations, les autres collectivités territoriales sont invitées à mutualiser les ressources (juridiques ou techniques) liées à l’ouverture de leurs données.
Pour aller plus loin...
Plusieurs associations assurent un travail de veille et d’accompagnement : LiberTIC (http://libertic.wordpress.com/), Regards Citoyens (http://www.regardscitoyens.org) et Veni, Vidi, Libri (http://vvlibri.org) ;
la Fing a aussi publié en janvier 2011 la version de travail d’un « Guide pratique de l’ouverture des données publiques territoriales – Guide à l’usage des territoires et de leurs partenaires » (sur http://fing.org) ;
Voir l’article « Ouverture des données publiques : les enjeux relatifs au choix de la licence » sur http://blog.vvlibri.org ;
Voir le rapport « La valorisation des informations du secteur public (ISP) :un modèle économique de tarification optimale » rédigé en 2010 par le Bureau d’économie théorique et appliquée (BETA) à la demande de l’APIE (sur http://www.apiefrance.fr).

1.3.3.4 Réflexion sur une démarche open data européenne

On remarque en Europe une évolution des tendances : après un premier courant législatif (les directives citées supra) qui impulsa le mouvement d’ouverture, c’est maintenant conjointement que l’Union européenne et les différents acteurs publics se réunissent pour confronter et échanger sur leurs pratiques respectives. Le projet Open Cities, issu de cette collaboration, ainsi que l’appel d’offres pour la mise en place d’un portail européen des données publiques sont de bons exemples.
Concernant les licences, l’une des questions très actuelles est de savoir s’il est pertinent de mettre en place une initiative européenne – les logiciels libres / open source s’étant en effet diffusés en l’absence d’une telle harmonisation. En plus d’assurer une certaine cohérence avec les différentes directives européennes, plusieurs arguments semblent pouvoir le justifier :
l’évidence des enjeux politiques faciliterait la consécration d’un tel cadre ;
les moyens à disposition de l’Europe pour mettre en place un cadre juridique adapté aux contraintes spécifiques des personnes publiques : le document pourrait ainsi être conforme aux directives européennes, prendre en compte les impératifs des personnes publiques, et être traduit dans toutes les langues de l’Union européenne. Les gouvernements et collectivités seraient d’autant plus rassurés qu’ils sont plus habitués à utiliser les documents en provenance de l’Europe que des contrats privés du type des licences libres ;
la fenêtre de tir actuelle : étant encore à ses balbutiements, le cadre juridique va évoluer très rapidement – avec ou sans l’Europe.
Pour ce faire, l’Europe doit rapidement profiter de l’ouverture qui se présente à elle, conjonction de besoins forts des administrations (en terme d’outils) face à des réponses (les licences) encore peu nombreuses. Il faudrait par exemple que l’un des projets européens actuels, à déterminer, s’estime compétent pour travailler sur une telle licence (telle l’EUPL rédigée par l’ancien IDABC)164.

1.3.3.5 Gouvernement ouvert– open government

Dès la première journée de son mandat, le président américain Barack Obama mit en place l’Open Government Initiative : elle promeut l’ouverture et la transparence politique, engageant le gouvernement américain et ses agences à travailler avec les citoyens et de manière transparente, participative et collaborative – cela d’autant plus que les créations réalisées par le gouvernement, ou financées par celui-ci, ne bénéficient pas d’une protection par le copyright (Copyright status of work by the U.S. government).
Cette tendance est à la fois la conséquence d’une ouverture progressive et la prise de conscience de l’impact de l’informatique et de son utilisation sur le politique dans son acception large, c’est-à-dire les entreprises comme les administrations, avec une nécessité de rendre compte et de responsabiliser leurs actions.
Au regard du caractère immatériel du numérique, il n’est guère étonnant que des collaborations transfrontalières se développent, tel l’Opengovwest entre les États-Unis et le Canada.
Enfin, concernant les actions des citoyens en faveur d’une ouverture et d’une transparence de leur gouvernement, il est possible de citer la plate-forme Openspending – initié par l’OKF – qui trace le budget italien, l’équivalent public américain USAspending ou encore les initiatives Farmsubsidy.org (qui suit le budget lié à la politique agricole européenne) ou « Publish What You Fund » (qui promeut une transparence relative aux diverses aides, dans l’esprit de l’International Aid Transparency Initiative (IATI)). D’autres initiatives étendent cette ouverture : datalibre.ca qui « exhorte les gouvernements à rendre les données sur les citoyens du Canada et les Canadiens gratuites et accessibles aux citoyens », OpenCorporates (pour comprendre la place des sociétés dans nos vies) ou encore le site suédois OpenAid.se qui vise à « promouvoir la ’transparence’ et les ’idées nouvelles’ dans les programmes d’aide au développement ». Les initiatives nosdeputes.fr et nossenateurs.fr mises en place par Regards Citoyens en France participent à ce mouvement (en affichant notamment l’assiduité de ces derniers lors des débats législatifs…).
Enfin, l’Open Government Partnership est une initiative multilatérale qui a pour objet d’assurer des actions concrètes des gouvernements en faveur de la transparence, de l’action citoyenne, et de toutes les autres valeurs de l’open data. Elle compte actuellement de nombreux pays tels que le Brésil, l’Indonésie, le Mexique, la Norvège, les Philippines, l’Afrique du Sud, le Royaume-Uni et les États-Unis.
L’Open Government et la NASA
Aux États-Unis, la NASA et l’agence de protection de l’environnement sont les meilleures élèves. Ainsi, le plan Open Government de la NASA s’est aussi démarqué par ses ambitions, les moyens qui lui ont été accordés et les mécanismes de transparence mis en place.
L’initiative se base à la fois sur l’affirmation de certains principes et sur l’énumération de 25 projets (qui font l’objet d’un rapport régulier).
Les principes de la Nasa Open Government Plan sont :
1.
accroître la transparence et la responsabilisation de l’Agence à des parties prenantes externes ;
2.
permettre la participation des citoyens dans la mission de la NASA ;
3.
améliorer la collaboration et l’innovation interne de la NASA ;
4.
encourager les partenariats susceptibles de créer des opportunités économiques ;
5.
institutionnaliser les principes et pratiques du Gouvernement Ouvert à la NASA.
La NASA a organisé l’Open Source Summit 2011.
Voir aussi :
Danish Board of Technology, « Open-source software in e-government », Octobre 2002 (sur http://www.tekno.dk) ;
voir l’article de Red Hat sur l’Open-Source Government : http://openadvantage.redhat.com ;
la plate-forme Open.Nasa (http://open.nasa.gov) ;
« Publish what you fund », Aid Transparency Assessment 2010, 2011 (http://www.publishwhatyoufund.org) ;
« NZ State Services Commission », New Zealand Government Open Access and Licensing framework (NZGOAL), 2010 (sur http://www.ict.govt.nz) ;
Gray (Jonathan), « We need international open government data principles », OKF, 2011 (sur http://blog.okfn.org/).
voir la page du Wiki Creative Commons intitulée « Government use of Creative Commons » ;
Commission européenne, Stratégie numérique : la Commission lance une consultation sur un accès plus ouvert aux informations scientifiques, Communiqué de presse, 15 juillet 2011 (sur http://europa.eu).
Après cette présentation historique et systémique du libre, nécessaire pour comprendre et appréhender une telle connaissance, nous sommes désormais capables de nous orienter parmi les licences libres (chapitre suivant).


86. D’après les idées de Hal Abelson et Eric Eldred, voir http://lessig.org/blog/2002/12/cc_launch.html.
87. Consacrant l’expression « some rights reserved » (quelques droits réservés).
88. Lui-même lancé en 2004, avec la traduction japonaise. Voir sur ce sujet Bourcier (Danièle), Dulong de Rosnay (Mélanie), International Commons at the Digital Age – La création en partage, Paris, Romillat, 2004. Le projet iCommons est aujourd’hui devenu le projet Creative Commons International, iCommons étant devenu une association anglaise à part entière et au domaine d’action plus large que les seules licences Creative Commons. Voir http://lessig.org/blog/2006/04/icommons_and_the_isummit.html.
89. Avec des expériences comme Mit Open Courseware (http://ocw.mit.edu/) en CC BY-NC-SA ; CK-12 Foundation CC BY-SA ; Khan Academy (http://www.khanacademy.org/) en CC BY-SA ; Peer 2 Peer University (P2PU) (http://p2pu.org/) en CC BY-SA.
90. Il est notamment membre du comité des directeurs de la FSF.
91. Professeur de droit britannique, fondateur du Center for the Study of the Public Domain.
92. Voir http://lessig.org/blog/2006/12/help_ccs_new_chairman_meet_our.html : Joi Ito, « a venture capitalist from Japan and a key driver in the ’sharing economy’, would be replacing me as Chairman of Creative Commons ».
93. On retrouve aussi dans le secteur un groupe de travail de l’OKF intitulé Open Data in Science Working Group (http://science.okfn.org/about/), qui promeut l’ouverture des données scientifiques – en lien avec les autres actions menées en faveur de l’open access.
94. Conformément aux droits moraux reconnus en France à l’auteur ainsi qu’au « minimum de protection » assuré par la convention de Berne.
95. Renvoyant à un Commons Deed qui résume en quelques lignes les droits et obligations de la licence et renvoyant lui-même au texte complet de la licence (legal code). Le tout étant complété par un Digital Code compréhensible par les moteurs de recherches et logiciels.
96. Voir « Office Add-in : Creative Commons Add-in for Microsoft Office 2003 & Office XP v1.2 » sur http://www.microsoft.com, et « OpenOfficeOrg Addin » sur http://wiki.creativecommons.org.
97. Elles imposent aussi une information à l’égard du public et interdisent des MTP qui limiteraient les droits cédés.
98. Voir la méthode et les outils offerts par Creative Commons sur http://wiki.creativecommons.org/CCPlus (Easy_CC.2B_Markups).
99. Voir le rapport du CSPLA sur La mise à disposition ouverte des œuvres de l’esprit, ibid..
100. Issue du projet Open Science de Creative Commons, cette dernière licence est l’instrument juridique utilisé pour s’assurer que les bases de données scientifiques puissent s’intégrer les unes aux autres (cette faculté d’intégration étant l’une des libertés fondamentales pour les données sur le web).
101. Voir le billet de blog : « Retiring standalone DevNations and one Sampling licence », http://creativecommons.org/weblog/entry/7520.
102. Voir le blog de L. Lessig « Code v2.0 and the CC-Wiki license » (http://www.lessig.org/blog/), 17 mars 2005.
103. Voir http://openaccess.inist.fr et Peter Suber, « Open Access Overview » (http://www.earlham.edu).
104. Il est né dans les années 1990 au travers les premières archives comme arXiv.org pour la physique et Cogprints pour la psychologie, les neurosciences et la linguistique.
105. Par exemple, aux États-Unis, le Wellcome Trust et les National Institutes of Health (NIH) se sont tous deux positionné en faveur du libre accès et tout travail financé par l’une de ces institutions doit être déposé en accès ouverts dans le PubMed Central (PMC) (dans les six mois pour le Wellcome Trust et douze mois pour le NIH).
106. L’accès libre se faisant généralement dans un délai allant de 0 à X mois après publication par l’éditeur.
107. Qui acceptent généralement les preprint et postprint (lorsque l’éditeur l’accepte), sans qu’il y ait de revue par les pairs.
108. Voir l’annuaire mondial des politiques des établissements.
109. Différents logiciels existent pour la création d’archives : DSpace, EPrints, CDSWare et HAL – les logiciels open source venant ici aussi simplifier les processus d’archives et de révision.
110. Deux répertoires principaux listent les différentes archives : le Registry of Open Access Repositories (ROAR) et le Directory of Open Access Repositories (Open DOAR).
111. Tout comme l’open source n’est pas un modèle commercial.
112. Springer proposa en 2003 le premier son modèle Open Choice qui offrait à l’auteur la possibilité de rendre librement accessible son article pour 3 000 dollars.
113. Le Wellcome Trust remboursait par exemple jusqu’à 3 000 dollars les auteurs qui publiaient chez Elsevier – le NIH avait conclu à un reversement automatique et gratuit au bout d’un an (http://publicaccess.nih.gov/). Pour voir différents coûts et des organismes de financement : http://www.biomedcentral.com/info/authors/apcfaq_fr.
114. Voir l’étude « The Facts About Open Access », par Kaufman-Wills Group, LLC, 2005 (sur http://www.alpsp.org).
115. Le titulaire de droit doit en effet permettre aux utilisateurs de « copy, use, distribute, transmit and display the work publicly and to make and distribute derivative works, in any digital medium for any responsible purpose, subject to proper attribution of authorship… »
116. Voir notamment l’initiative PLOSS qui a adopté la CC-By.
117. On parle d’author addenda (ou d’avenants), qui sont proposés par différents organismes et associations comme SPARC (Scholarly Publishing and Academic Resources Coalition), Sciences Commons et le MIT (Massachusetts Institute of Technology). L’initiative Sciences Commons propose ainsi un avenant permettant de diffuser parallèlement sous CC-By-NC (Accès – Réutilisation), un autre permettant une publication en Accès Ouvert immédiate (Accès – Immédiat), et un dernier permettant un accès retardé de six mois (Accès – Retardé).
118. « The Scholar’s Copyright Addendum Engine will help you generate a PDF form that you can attach to a journal publisher’s copyright agreement to ensure that you retain certain rights » (http://scholars.sciencecommons.org/).
119. Voir aussi la Déclaration commune sur l’open data en France rédigée par les associations Regards Citoyens, OKF, Creative Commons France et Veni Vidi Libri (http://www.donneeslibres.info/).
120. Elle a publié fin 2010 un document intitulé « Ten principles for opening up government information » (http://sunlightfoundation.com/policy/documents/ten-open-data-principles/).
121. Le Conseil d’État parle de garanties fondamentales accordées aux citoyens pour l'exercice des libertés publiques au vu de l'article 34 de la Constitution de 1958 - CE, 29 avril 2002, Ullmann (http://www.juricaf.org/arret/FRANCE-CONSEILDETAT-20020429-228830).
122. Commission européenne, Livre Vert sur le droit d’auteur dans l’économie de la connaissance, 2008.
123. Voir à ce sujet les excellents travaux de thèse de Moreno (Annie), La commercialisation des images spatiales. Approche juridique, Litec, 1999.
124. L’importance de l’ouverture et de l’utilisation des données, alors que nous sommes à l’ère de l’information, ne fait aujourd’hui plus de doutes – et en découlent déjà quelques guerres de chapelles – qu’il s’agisse de prôner l’ODbL, l’Open Knowledge Foundation ou la CC-0 de Sciences Commons (initiative dérivée de Creative Commons), ou de réfléchir comme l’OSI à une définition des données ouvertes…
125. Les licences actuellement les plus adaptées sont certainement les licences ODbL et PPDL. Voir la récente Creative Commons- zéro spécialement rédigée à cette fin.
126. C’est cette prise de conscience qui a conduit le projet OpenStreetMap à mettre en place un processus de changement de licence au profit de l’ODbL.
127. Voir la FAQ publiée sur le site de OKF : http://www.opendatacommons.org/faq/.
128. TGI Paris, 8 oct. 1993, Fréderique B, Makar c/ Nicole B et l’APP : « les polices de caractères peuvent constituer des logiciels et sont donc protégeables au titre de l’article L112-1 ».
129. La cour d’appel de Paris a, dans un arrêt en date du 11 octobre 2000, retenu à l’encontre d’une société des actes de contrefaçon et publication sur un CD-Rom offert gratuitement aux lecteurs, accompagnant une revue, des polices de caractères dénommées : « actes ayant entraîné un préjudice patrimonial et moral pour la société qui les a crées, éditées pour l’impression et la publication informatisée ; préjudice d’autant plus important que la mise à disposition gratuite au profit des lecteurs en question dudit CD-Rom contenant ces polices a eu pour effet de les rendre accessibles à de nombreux internautes qui s’en sont emparés comme le démontrent les copies d’écrans de sites internet produits ; préjudice qui mérite par conséquent réparation. »
130. Voir par exemple l’exception de Gnu Freefont : « As a special exception, if you create a document which uses this font, and embed this font or unaltered portions of this font into the document, this font does not by itself cause the resulting document to be covered by the GNU General Public License. This exception does not however invalidate any other reasons why the document might be covered by the GNU General Public License. If you modify this font, you may extend this exception to your version of the font, but you are not obligated to do so. If you do not wish to do so, delete this exception statement from your version. »
131. Précisons enfin que l’Open Document Format, en sa version 1.2, a récemment été approuvé par le Committee Specification de l’OASIS ODF TC et voté au sein de l’OASIS (sous le parrainage de sociétés comme IBM, Oracle, KDE et Novell) le 30 septembre 2011.
132. Peu de temps après que Google ait diffusé VP8, composant essentiel des formats WebM (vidéo) et WebP (image) intégrés dans le HTML 5, l’organisation MPEG LA a lancé un « appel à brevets » qui lui a permis de réunir 12 industriels prêts à assigner Google.
133. Même s’il a fallu adapter les licences libres à ces usages, comme le firent notamment les GNU Affero GPL v3, OSL v3.0, EUPL v1.1, etc.
134. Nommons ici le projet Deltacloud qui cherche à assurer l’interopérabilité entre les nuages via son API.
135. Telles Eucalyptus (GNU GPL), OpenStack (Apache v2.0), OpenNebula (Apache v2.0).
136. Voir notamment la « Réponse de l’April à la consultation européenne sur le cloud computing » sur http://april.org.
137. Avec, du côté de Facebook : Cassandra, Tornado et Hadoop : http://developers.facebook.com/opensource/.
138. On pourra se reporter aussi à l’interview par Moody (Glyn) : « Eben Moglen - Freedom vs. The Cloud Log », h-online.com, 2010.
139. Voir notamment Blanc (Gilles), Linux embarqué ; comprendre, développer, réussir, Pearson, 2011
140. Voir notamment la vidéo « Open source hardware $1m and beyond ‐ foo camp east 2010 » (http://vimeo.com/11407341).
141. Voir par exemple le projet The Enough Already construit sur la base d’Arduino afin de couper le son d’un téléviseur en fonction des intervenants et de leur discours.
142. L’OCDE estime que de 1974 à 1994 le prix des semi-conducteurs (microprocesseurs et mémoires) a été divisé par plus de 1000 et celui des ordinateurs par 10. Voir Perspectives des technologies de l’information, OCDE, 1997.
143. Des projets comme Armadeus permettent ainsi d’embarquer un Linux sur une seule carte.
144. L’Organisation Européenne pour la Recherche Nucléaire (http://public.web.cern.ch/).
145. Voir le Manifeste des Open Web Applications qui décrit les informations nécessaires au navigateur web pour interagir avec une application (https://developer.mozilla.org/en/OpenWebApps/The_Manifest).
146. À relativiser néanmoins depuis que d’importants acteurs (notamment Google) assurent une promotion équivalente au profit de leur logiciel sous licence libre.
148. Clément-Fontaine (Mélanie), Les Œuvres Libres, thèse sous la direction du Professeur Michel Vivant, Univ. Montpellier 1, 2006.
149. Voir Jean (Benjamin), Propriété intellectuelles et Open Inovation, op. cit..
150. Citons néanmoins le décret 1111-2011 du Gouvernement du Québec (rendu public par le site Québec Leaks) qui autorise le Centre des services partagés du Québec à conclure des contrats selon des conditions différentes de celles qui lui sont applicables en vertu de la Loi sur les contrats des organismes publics (au profit d’un nombre limité de fournisseurs dont : Microsoft, Oracle Canada, IBM Canada, Adobe et Symantec).
151. Un tel critère étant interdit, en l’absence de la mention « ou équivalent » (sauf à justifier techniquement un tel choix) – même si certaines personnes publiques continuent à exclure expressément la procédure d’ouverture des marchés publics en citant les marques des produits désirés (plus de 400 références à des marques commerciales avaient été dénombrées au sein du seul journal officiel de l’UE entre février et mars 2010 par le groupe OpenForum).
152. L'ENT Lilie est un bel exemple de mutualisation : initialement financé par la Région Île-de-France, un effort particulier ait été réalisé pour rendre ce logiciel libre (notamment par l’organisation d’une copropriété autour du code permettant d'empêcher toute privatisation) et il est aujourd'hui massivement réutilisé par d'autres collectivités.
153. Voir notamment la table ronde présidée par Benjamin Jean et Frédéric Couchet lors de Solutions Linux 2011 : « Quelle politique publique en matière de logiciel libre ? ».
154. L’Adullact est une association de collectivités territoriales, d’administrations publiques et centres hospitaliers qui a pour objectif de promouvoir, développer, mutualiser et maintenir un patrimoine commun de logiciels libres utiles aux missions de service public.
155. « La communauté Collibri (http://www.collibri.org/) est née d’un désir des acteurs du logiciel libre et du web 2.0 de se rassembler et de s’organiser de façon à faire émerger des projets communs. Ce site collaboratif représente à lui tout seul l’esprit du web 2.0 : il prône la participation, l’échange, le partage et la communication. Le rôle de Collibri est à la fois transverse, prônant l’open innovation, et vertical, sur les thématiques comme la coopération, l’intelligence collective, les réseaux sociaux, les nouveaux modèles économiques. »
156. La question n’est bien sûr pas si simple et les querelles de chapelle au sein de l’industrie de l’open source peuvent justifier à elles seules l’impossibilité de leur confier la gestion de quelques financements publics.
157. Voir notamment les différentes interventions réalisées par ces acteurs lors d’EOLE 2010 à Turin : Free Software in Turin Province (Ida Vana), The work of the Commissione Ministeriale sull’Open Source (Prof. Angelo Raffaele Meo), Piedmont Region law (Roberto Moriondo), Free Software in public sector – Kerala experience (Arun Madhavan Pillai), Free software in Ecuador (Diego Chavez) et Free software in Extremadura (Carlos M Cabo Domínguez).
158. Voir The impact of Free/Libre/Open Source Software on innovation and competitiveness of the European Union, UNU-MERIT, 2006.
159. Les appels d’offres comportant une exigence de code « without GPL » se multiplient aussi au sein d’administrations et établissements publics craignant les contraintes et les effets de bord. Une partie de ces craintes disparaîtra lorsque les logiciels et licences libres seront mieux compris, mais cela peut aussi être un choix s’insérant dans une politique open source mûrement réfléchie (ainsi, la fondation Eclipse refuse actuellement l’intégration de tout composant sous licence GNU GPL au sein de ses projets).
160. Voir notamment le numéro « DoD and Open Source Software, Lessons Learned, Challenges Ahead », SoftwareTech, (1)14, 2011 (http://journal.thedacs.com/issue/56).
161. Le plan ODF fut annoncé le 1er juin 2011 lors de la conférence « The Parliament of Information Society » qui s’est tenue au parlement hongrois.
162. Voir sur le sujet le récent (et criticable) rapport Samuelson-Glushko, Analysis of share-alike obligations in municipal open data licenses, Canadian Internet Policy and Public Interest Clinic, University of Ottawa, 2011.
163. Créée sous l’initiative de la Direction de l’Information Légale et Administrative (DILA), elle a pour mission de mener une réflexion, coordonner, évaluer et organiser un effort commun des différentes administrations sur leurs données (voir : https://www.apiefrance.fr/).
Pages :   1    2 

LAL 1.3, GNU FDL 1.3 et CC By-SA 3.0

  Poule ou l'oeuf

One minute, please...

Fermer