Aller au contenu principal

Devenez précurseur avant tout le monde (ou : devenez responsable de l’équipe Analyse et traitement des données à la BnF)

26/09/2019

J’ai contribué il y a quelques semaines à faire diffuser sur le site emploi.bnf.fr, et sur Poppee, le poste suivant : Adjoint(e) au chef du service Ingénierie des métadonnées et responsable de l’équipe Analyse et traitement de données, poste ouvert au mouvement national des conservateurs de bibliothèques, à pourvoir au 1er janvier 2019.

Ces aspects administratifs étant posés, permettez-moi de vendre ma came. Et quand je parle de came, je ne parle pas seulement de marchandise que j’essaierais de refourguer, mais bien de quelque chose qui me fait vivre et m’épanouit (rien que ça !). En effet, ce poste, je le connais bien, vu que c’est encore le mien à ce jour, et que si je le quitte aujourd’hui, c’est par un jeu de taquins comme notre profession en voit quotidiennement : aujourd’hui je suis cet adjoint, et pour le 1er janvier je me cherche un adjoint.

Donc il s’agit de travailler avec moi, ainsi qu’avec d’autres collègues tout aussi compétent·e·s et passionné·e·s.

Profil vu de face

Portrait de Dora Maar - Pablo Picasso - 1937

Portrait de Dora Maar – Pablo Picasso – 1937

Concrètement, en quoi consiste ce poste ? Comme responsable d’équipe, il fait dialoguer le projet data.bnf.fr (exposition des données de la BnF selon le modèle FRBR et la technologie RDF) et une équipe de correcteurs du catalogue (modèle ISBD, format MARC, technologie plus « traditionnelle »). Traditionnellement, ces derniers oeuvrent à l’amélioration des notices BnF (qui en ont bien besoin !), et depuis plusieurs années axent leur activité sur les corrections nécessaires à la FRBRisation du catalogue de la BnF, avec l’idée que ces notices bientôt FRBRisées bénéficieront à de nombreuses bibliothèques.

Data.bnf.fr et FRBRisation des notices existantes, voici le coeur de l’activité du responsable de l’équipe Analyse & Traitement des données.

A priori, il paraît donc que c’est essentiellement du pilotage et de la coordination (faire bosser les autres, en somme). Ce n’est pas faux (et d’ailleurs je passe pas mal de temps en réunions).

Mais le défi que pose ce poste, et qui en fait tout l’intérêt, est qu’il faut inventer, concevoir et mettre en oeuvre la méthode et les outils pour réaliser cette transition bibliographique du data legacy, aka rétrospectif.

En effet la plupart des choses qu’on veut faire ne sont pas simples, voire pas possibles, en l’état. La normalisation (transposition de RDA en RDA-fr) n’est pas terminée, le futur format de catalogage est en cours de conception, les outils pour fabriquer des oeuvres à partir des notices bibliographiques existantes sont encore très jeunes et ne fonctionnent pas pour tous les cas de figure, les notices elles-mêmes sont diverses et les documents qu’elles décrivent également — bref, il faut faire preuve de beaucoup d’imagination pour envisager, concevoir, tester, rater (voire réussir !) des solutions.

Et pour tout ça, on n’est pas tout seul : le responsable de l’équipe Analyse & Traitement des données n’est pas dans son coin. Il bosse (certes avec le chef de service Ingénierie des métadonnées, dont il est l’adjoint, mais également) avec les experts du catalogue, les acteurs de la normalisation, les porteurs du projet d’outil de catalogage FRBR-LRM (outil baptisé « Noemi »), et avec plein d’autres encore. Et franchement, ça fait beaucoup beaucoup d’experts qui connaissent leur sujet et qui sont motivés.

Une des compétences que doit apporter le responsable d’équipe, c’est la dimension d’ingénierie. Il me semble qu’avant d’être technique, cet aspect consiste surtout à savoir inventer des solutions. Ces solutions sont généralement organisationnelles, procédurales (mise en place de workflows), avant d’être techniques.

Ensuite, il est certain qu’il faut acquérir une certaine maîtrise dans le traitement de données. Pour ceux que cela ferait peur : le critère de recrutement sur ce point n’implique pas de savoir déjà faire du traitement de données. Il implique simplement d’être prêt à apprendre.

Le temps et l’accompagnement seront préservés pour permettre cette montée en compétences, la cible étant de savoir manipuler les données issues de différents flux entrants possibles (RDF venant d’une requête SPARQL, fichiers tabulés, réponses XML à des requêtes dans le SRU du catalogue de la BnF, etc.) et en extraire de l’information, des données nettoyées, etc.

C’est bien la cible, pas un préalable. Et les technologies à manipuler peuvent être de différents niveaux de complexité. On peut déjà faire beaucoup de choses avec un Excel bien maîtrisé. On peut aller encore plus loin avec OpenRefine. Et la programmation (dans le service, on utilise surtout Python pour des raisons pratiques et historiques) n’est pas la seule méthode légitime.

Mais ce que je trouve particulièrement pertinent dans ce poste, c’est que ce genre de compétences (ingénierie dans toutes les dimensions du terme) se révèle extrêmement précieux pour n’importe quel établissement. Toute bibliothèque a la charge de gérer et manipuler des données (« méta » ou non), charge pour laquelle les compétences font souvent défaut (ou au moins pour laquelle des compétences accrues seraient toujours bénéfiques).

Mon pari est que ces compétences font partie de celles qui tracent l’avenir du métier de bibliothécaire.

L’information aujourd’hui se présente comme des masses de données disponibles, protéiformes. Se contenter de traiter son catalogue local en Unimarc n’est pas suffisant pour concevoir une offre de services telle qu’attendue par les lecteurs. Et même pour des besoins internes, on est amené à devoir traiter des données souvent avec difficulté.

Faire du conservateur de bibliothèque un développeur ?

Alors non. Pas du tout. Le développeur a son propre métier, ce qui implique des concepts, des méthodes, une culture professionnelle très différente. Il anticipe les questions de versioning, de portabilité du code, applique des principes d’architecture trois tiers. En termes de compétences, ce profil de poste devrait plutôt s’apparenter aux chercheurs qui conçoivent des scripts ou une petite base de données pour pouvoir manipuler leur corpus (avec une vision métier qui oriente différemment l’activité). Un script, un bout de code, n’est pas un logiciel.

La gradation qui sépare Excel d’OpenRefine, OpenRefine de R, et R de Python (ou Go, Perl ou Ruby) peut être laissée à l’appréciation de chacun ; sachant que la liste n’est pas terminée, que les technologies évoluent, et qu’il devient urgent par exemple de s’intéresser au machine learning et aux réseaux neuronaux. Mais il me semble logique de vouloir toujours aller un cran plus loin, même si on n’arrive jamais au bout. Et ce poste est l’occasion d’aller un peu plus loin. Avec un bénéfice d’acquis qui pourra être utile ensuite pour n’importe quel autre poste : à mon sens, ça n’enferme pas un profil dans une nouvelle tour d’ivoire « expert uniquement utile à la BnF ».

Vous aurez noté, j’espère, que j’ai glissé progressivement d’un descriptif institutionnel de fiche de poste dans son contexte, à une vision personnelle du métier qui n’engage que moi. Il est tout à fait possible d’être intéressé par le poste sans être pour autant convaincu que c’est the avenir de la profession 🙂

One Comment
  1. 26/09/2019 10:58

    Si j’étais conservateur, ça me donnerait envie, même si (ou parce que) ça me ferait sortir de ma zone de confort… Ce billet complète bien l’offre d’emploi sur le site de la BNF, il mériterait même d’y être signalé en lien….

Commentaires fermés

%d blogueurs aiment cette page :