Une brève histoire de l’Open Data

Photo Simon Chignard / Consultant / March 29th, 2013

Le mouvement d'ouverture des données publiques concerne aujourd'hui un nombre grandissant d'Etats et d'administrations. De New York à Paris, de Nairobi à Singapour, de plus en plus de territoires proposent des jeux de données en open data. Pour comprendre les enjeux de ce mouvement, l'une des premières idées techno-politiques à se diffuser à la vitesse des réseaux, il faut revenir sur ses origines. Il se trouve en effet au croisement de plusieurs cultures.

La donnée connaît aujourd’hui un regain d’intérêt, qu’il s’agisse de l’open data ou des big data. Il convient de distinguer les deux sujets, même s’ils partagent un objet commun, la donnée.

Les big data s’intéressent plus particulièrement aux potentialités offertes par l’exploitation d’un volume de données en croissance exponentielle. Dans l’open data, la création de valeur passe davantage par le partage de ces données, leur mise à disposition de tiers que par un effet volume. Une donnée ouverte répond à un ensemble de critères techniques, économiques et juridiques : elle doit être accessible gratuitement et librement en ligne, dans un format qui en permet la réutilisation.

Le terme d’open data est apparu pour la première fois en 1995, dans un document d’une agence scientifique américaine. Il y est question de l’ouverture des données géophysiques et environnementales. « Notre atmosphère, les océans et la biosphère forment un ensemble intégré qui transcende les frontières », écrivent les auteurs de ce rapport. Ils promeuvent un échange complet et ouvert des données scientifiques entre les différents pays, condition indispensable de l’analyse et de la compréhension de ces phénomènes globaux.

L’idée de bien commun appliqué aux connaissances a déjà été théorisé, et ceci bien avant l’invention de l’Internet. Robert King Merton est l’un des pères de la sociologie des sciences. La théorie qui porte son nom montre le bénéfice de l’ouverture des données scientifiques. Il importe, explique Merton dès 1942, que les résultats des travaux soient accessibles à tous librement. Chaque chercheur doit contribuer au « pot commun » et renoncer aux droits de propriété intellectuelle pour permettre l’avancée de la connaissance.

Les technologies de l’information ont par ailleurs donné un nouveau souffle à la philosophie des biens communs. La lauréate du «prix Nobel» d’économie 2009, Elinor Orstrom, a démontré par ses travaux la particularité des biens communs informationnels. Ceux-ci s’apparentent à des biens publics, car leur usage par l’un ne remet pas en cause l’usage par l’autre. Mais ce sont des biens publics d’un genre inédit : non seulement leur utilisation n’appauvrit pas le stock commun, mais au contraire il l’enrichit.

Bien avant de constituer un objet technique ou politique, le mouvement open data prend ainsi racine dans les milieux scientifiques. Ce sont les chercheurs qui ont perçu les premiers le bénéfice de l’ouverture et du partage des données.

Mais c’est la rencontre de cette idée scientifique avec les idéaux du logiciel libre et de l’open source qui façonne l’open data tel qu’il se met en place aujourd’hui.

Open data et open source
En décembre 2007, trente penseurs et activistes de l’Internet se sont donné rendez-vous à Sebastopol, au nord de San-Francisco. Leur objectif : définir le concept de données publiques ouvertes et le faire adopter par les candidats à l’élection présidentielle américaine.

On compte parmi eux Tim O’Reilly et Lawrence Lessig. Le premier est bien connu des technophiles : auteur et éditeur américain, il est souvent à l’avant-garde des mouvements de l’informatique et de l’Internet, de l’open source jusqu’à l’expression même de Web 2.0 qu’il a définie et popularisée. Lawrence Lessig, professeur de droit à l’université de Stanford (Californie) est l’initiateur des licences Creative Commons, fondées sur l’idée du copyleft et de libre diffusion des connaissances.

Les participants à la rencontre de Sebastopol sont issus pour la plupart des mouvements du logiciel et de la culture libres. Ces mouvements se trouvent au cœur de nombreuses innovations dans le domaine de l’informatique et d’Internet ces quinze dernières années. Certaines sont bien connues, comme l’encyclopédie participative Wikipedia qui atteint aujourd’hui plus d’un million de contributions pour la seule version francophone. D’autres créations de l’open source sont moins bien identifiées par le grand public mais pourtant essentielles aux services en ligne – comme par exemple le logiciel Apache des serveurs qui hébergent la majorité des sites web.

À Sebastopol sont présents des activistes et des entrepreneurs qui utilisent déjà des données publiques, par exemple Adrian Holovaty (le fondateur du service d’informations localisées EveryBlock) et le Britannique Tom Steinberg (initiateur du site FixMyStreet). L’un des benjamins du groupe n’est autre qu’Aaron Swartz, inventeur du système de flux RSS et militant de la connaissance libre. Ensemble, ils vont définir les principes qui permettent aujourd’hui de définir et d’évaluer les données publiques ouvertes.

Ces principes portent à la fois sur une idée fondamentale et sur des manières de faire. L’idée fondamentale, c’est qu’au même titre que les idées scientifiques les données publiques sont un bien commun. Les manières de faire portent principalement sur le partage et l’utilisation de ce bien commun. Elles sont directement inspirées de la démarche et des pratiques de l’open source, qui se sont organisées autour de trois notions : ouverture, participation et collaboration. C’est d’abord dans le travail en commun autour de logiciels gratuits que s’est développée cette culture. Chaque programmeur qui contribue est invité à le faire publiquement, via des plateformes de partage des codes sources. Il peut bénéficier du travail des autres mais doit en échange republier sa production – permettant ainsi la création d’une expertise collective. Le travail entre les développeurs accorde la part belle aux collaborations de pair à pair (basées sur la compétence et la réputation) plutôt que sur des relations hiérarchiques formelles.

À Sebastopol, la contribution de Tim O’Reilly sur l’open government fait apparaître en pleine lumière la filiation entre le monde du « libre » et les principes émergents de l’open data : il s’agit clairement, explique-t-il, d’appliquer aux affaires publiques les principes de l’open source et ses méthodes de travail.

En 2007, cela pouvait apparaître comme un rêve. Mais le résultat a dépassé leurs espérances. Un peu plus d’un an plus tard, le président Barack Obama prend ses fonctions à la Maison-Blanche et signe trois mémorandums présidentiels. Deux d’entre eux concernent l’open government, dont l’open data est l’un des piliers. Les mémos du président placent explicitement l’action publique sous le signe de la culture de l’open source, en se réclamant de ses principes : « transparence, participation et collaboration ».

Donnée publique, donnée ouverte ?
L’ouverture est le vecteur commun des approches open source, open government et open data. Elle représente à la fois une philosophie d’action et une profession de foi, une pratique et un objectif. Mais son application au champ des données publiques n’a rien d’évident.

La donnée publique est aujourd’hui définie par la loi. Elle concerne les acteurs publics ou privés qui interviennent dans le cadre d’une mission de service public. Les gouvernements et les collectivités ne sont donc pas les seuls concernés : un opérateur de transport qui exploite des lignes de métro pour le compte d’une collectivité l’est tout autant.

Les lois de type FOIA (Freedom of Information Act) associent à ces données des droits d’accès et de réutilisation. En France par exemple, la loi CADA (Commission d’accès aux documents administratifs) de 1978 garantit un accès à ces données et précise les conditions d’exercice de ces droits.

L’open data tente d’introduire un renversement de logique : par défaut, les données et informations publiques doivent être publiés en ligne – avant même d’être réclamées par des tiers.

Ce passage à un mode d’ouverture par défaut est en soi une évolution culturelle forte pour la plupart des acteurs publics ou privés. Le lâcher prise, caractéristique de l’innovation ouverte, n’est pas un réflexe naturel dans bon nombre d’organisations, inquiètes des usages ou plutôt des mésusages qui pourraient être fait des données ouvertes. Ne risque-t-on pas de les dénaturer en les interprétant ? Certaines données sont complexes à appréhender si l’on ne connaît pas le contexte de leur utilisation première, n’est-il pas risqué de les ouvrir ainsi ?

L’open data est aussi le fruit de son époque, où les impératifs de transparence, d’accountability sont de plus en plus pressants. Il est intéressant de noter que les acteurs les plus touchés par cette crise de confiance sont aussi les plus sensibles à l’open data : élus et acteurs publics, entreprises du secteur de l’énergie, de l’environnement, des transports, secteur bancaire… La transparence est ici perçue comme la réponse à une ère de méfiance, voire de défiance, vis-à-vis des institutions et de leurs représentants.

L’ouverture est enfin une injonction adressée aux détenteurs de données, tant publics que privés. Sur la scène de la conférence TED de 2009, Sir Tim Berners-Lee, l’inventeur des liens hypertextes et par extension du Web, pousse un cri de ralliement (pour les partisans d’un Web des données) et un cri de guerre aux détenteurs de données : « We want raw data, now ! » (vidéo: Tim Berners-Lee, TED, 2009)

L’open data répond à un ensemble d’enjeux tant politiques qu’économiques. De l’ouverture des données on attend des bénéfices démocratiques (meilleure transparence de l’action publique, participation citoyenne, réponse à la crise de confiance vis-à-vis des élus et des institutions) mais aussi la création de valeur économique par le développement de nouvelles activités à partir des données ouvertes.

On voit que le concept d’open data est aussi hétérogène dans ses origines que dans ses objectifs. Cette diversité des objectifs pose parfois question, quand il s’agit par exemple de choisir les données à ouvrir que l’on souhaite mettre à disposition des réutilisateurs.

Qu’est-ce qu’une donnée « bonne à ouvrir » ? Un fichier qui comporte les horaires de bus présente par exemple un fort potentiel de réutilisation et de développement de services utiles (à défaut d’être immédiatement rentables). En revanche, il n’est pas évident de démontrer le bénéfice démocratique de l’ouverture de telles données.

À l’inverse, nombre de gouvernements et de collectivités publient en open data des données budgétaires, un effort de transparence certain mais une réutilisation peu aisée en pratique tant le sujet même des finances publiques reste complexe à appréhender.

Un double défi
Passés les premiers temps de la découverte et des initiatives pionnières, l’open data est aujourd’hui confronté à un double défi, tant au niveau de la demande que de l’offre.

L’offre de données reste encore largement à construire : la plupart des détenteurs ont ouvert en priorité les données les plus faciles à ouvrir (tant techniquement, juridiquement que politiquement). Les données perçues comme sensibles, ou celles qui présentent un plus fort impact social ou sociétal, restent encore largement hors du champ de l’open data.

En réaction, les conflits liés aux données fermées se multiplient dans de nombreux secteurs et l’on voit émerger des initiatives sectorielles en faveur de l’ouverture.

Ainsi le collectif « Transparence Santé » qui fédère un ensemble hétéroclite d’acteurs : associations de patients et de consommateurs, chercheurs et universitaires mais aussi des acteurs privés… Tous unis pour obtenir de la Caisse primaire d’assurance maladie l’ouverture des données santé, bien sûr anonymisées. Cette initiative, si elle reste pionnière, marque une nouvelle étape : l’open data n’est pas un objectif en soi, il devient un moyen au service d’une cause et d’intérêts plus larges.

À cette difficulté de disponibilité des données s’ajoute la question de leur interopérabilité. Même disponibles sur plusieurs territoires, les données sont rarement comparables d’une ville à l’autre – ce qui ne facilite pas le développement de services à grande échelle. Le développement de référentiels thématiques communs est déjà engagé, notamment pour le champ de la mobilité et des transports.

Côté demande, la situation est là aussi contrastée. Les premiers réutilisateurs des données ouvertes ont été les développeurs d’applications mobiles, encouragés par l’organisation de concours dédiés (NYC Big Apps à New York, Rennes Métropole en accès libre…) et l’écho important qui a été donné aux initiatives open data dans les communautés technophiles geeks.

L’appropriation par le plus grand nombre se heurte rapidement à la difficile question de la culture de la donnée. Des compétences d’origines variées doivent être mobilisées : savoir repérer les sources de données, être capable de les traiter, de les manipuler, de porter un regard critique sur les conditions de leur production et de leur ouverture, maîtriser les concepts statistiques de base… Les médiateurs traditionnels, notamment la presse et les associations spécialisées, commencent à entrevoir les bénéfices de l’ouverture des données.

Moins de six ans après la rencontre de Sébastopol, force est de constater que l’idée d’open data a fait son chemin et sa vitesse de diffusion ne cesse de nous interpeller. Cependant, l’ambition a changé de nature : il est moins question de changer le monde par les données que d’essayer plus modestement de moderniser l’action publique.

L’open data n’est pas l’outil de la transparence que ses promoteurs avaient imaginé. Lawrence Lessig lui-même a pris ses distances dès 2009 avec l’intérêt d’une transparence radicale, d’autres participants de la rencontre de Sébastopol se sont ensuite illustrés par leur soutien aux initiatives de Wikileaks, dont la pratique diffère sensiblement de celle de l’open data ! L’universitaire Beth Noveck – qui a participé à la mise en place des premières politiques open data au sein de la première administration Obama – a elle aussi fait part de ses doutes sur la capacité de l’open data per se à améliorer la gouvernance des affaires publiques. Ouvrir les données ne suffit pas pour «ouvrir» les organisations et promouvoir de nouvelles pratiques de gouvernance, plus transparentes et plus ouvertes.

Ce changement d’ambition ne marque pas pour autant le désintérêt des acteurs publics pour les données et leur potentiel – bien au contraire. Signe des temps, le maire de New York vient de nommer le premier « Chief Analytics Officer » de la ville, une fonction qui existait jusqu’ici principalement dans les startups de l’Internet. Sa mission : mettre son équipe de data scientists au service de la municipalité, pour détecter par exemple les immeubles qui présentent le plus fort risque d’incendie… Allons-nous vers une ville gérée par des algorithmes ?

More on paristech review

On the topic

By the author

  • Une brève histoire de l’Open Dataon March 29th, 2013
  • philippe baudelot

    Si j’ai bien compris la démarche d’EveryBlock (fermé depuis 1 mois) celle-ci semble un peu étrange vue d’ici. Accès aux rapports de police et inspection dans les restaurants le tout mêlé avec de l’info locale fournie par les utilisateurs. J’espère que d’autres visions de la ville et de la vie locale finiront par émerger…

  • Pingback: Une brève histoire de l’Open Data | [ flux.serendipite.net ]

  • Pingback: Open data | Pearltrees

  • Pingback: OPEN DATA | Pearltrees

  • Pingback: Les nouveaux enjeux des données urbaines

  • Pingback: OPEN DATA | Pearltrees

www.paristechreview.com

This content is licensed under a Creative Commons Attribution 3.0 License
You are free to share, copy, distribute and transmit this content

Logo creative commons

5 quai Voltaire 75007 Paris, France - Email : contact@paristechreview.com / Landline : +33 1 44 50 32 89