Skip to content

Journée Afnor/BnF sur l’open data du 24 juin 2016 (2/5) : Open data et records management

29/06/2016

Au cours de cette même journée AFNOR/BnF (cf. billet précédent), la personne qui est intervenue après le GFII, Marianne Aptel, qui venait comme représentante de l’AAF, a abordé la question de l’open data sous un angle auquel je n’avais jamais pensé (honte à moi !!!) : le records management.

Si je résume bien (nos confrères ou conjoints archivistes me corrigeront si besoin), le records management consiste à positionner différemment l’archiviste de sa place habituelle dans la vie d’une archive.

Traditionnellement, on met l’archiviste en bout de chaîne : l’administration produit des documents. Quand elle n’en a plus un usage courant, elle les envoie aux archives pour tri et conservation (et mise à disposition du public s’il y a lieu).

Le records management est un discours né parmi les archivistes visant à donner un autre angle d’attaque : tout document produit par un agent dans le cadre de ses fonctions est nativement une archive. Il faut donc inscrire l’archiviste dans le processus de fabrication et d’utilisation courante de cette archive, car il a une compétence à apporter dès son origine. Notamment, on peut ainsi repenser le processus de production, de classement (indexation, rangement, transmission) en vue de son envoi au service d’archives.

Dans le cadre de la politique d’open data, on doit donc avoir une dynamique identique : cesser de produire des données ; puis se demander comment les ouvrir. Il faut produire des données en tenant compte du fait qu’elles finiront « ouvertes ».

Cela a notamment les conséquences suivantes :

  • les critères de tri et de destruction doivent être mis dès création de l’archive.
    Pas forcément sous forme de « à détruire », hein : c’est un peu plus subtil que ça et en général on s’appuie sur la typologie des documents : encore faut-il qu’elle soit maîtrisée et documentée.
  • l’anonymisation des données
  • la contextualisation du document (récupérer un compte-rendu, ou un CCTP hors du projet global, c’est nul)
  • Disposer lors de la production de documents, d’infos pour distinguer données de qualité, diffusables, avec données non diffusables
    Par exemple si dans votre catalogue il y a des données que vous savez « propres » et d’autres qui le sont moins, c’est utile de pouvoir les distinguer par un critère.
    C’est ainsi que coexistent dans le catalogue des données d’autorités dites « validées », et d’autres qualifiées d’ « élémentaires ». Les premières se retrouvent dans DataBnF, les secondes non. Mais cette information n’a à ma connaissance pas d’équivalent strict pour les notices bibliographiques.

Et donc je trouve très intéressant ce discours sur l’ouverture des données : pour mettre en place une telle politique, il faut concevoir cette ouverture dans un processus de production de la donnée, et pas seulement comme un processus de diffusion.

2 commentaires

Trackbacks

  1. Journée Afnor/BnF sur l’open data ...
  2. Journée Afnor/BnF sur l’open data ...

Les commentaires sont fermés.

%d blogueurs aiment cette page :