Les tribulations d’un astronome

Et si les chercheurs (re)prenaient leur destin en main ?

jeudi 16 juillet 2015 par Guillaume Blanc

La science est en crise. Bien que fortement basée sur la technologie (qui dérive de la science), notre société du XXIe siècle ne fait plus vraiment confiance à la science. Le métier de chercheur qui avait toutes ses lettres de noblesse encore il y a peu a perdu de sa prestance en particulier auprès des plus jeunes. Le sacerdoce des études longues et difficiles (même si passionnantes, mais ce critère passe de plus en plus au second plan), de la précarité du jeune docteur, de la faible probabilité d’obtenir un poste académique, du rejet des docteurs par la société, en particulier par les entreprises du privé et du salaire peu attractif en cas de coup de bol et de passage du côté académique font que nombre de jeunes talents préfèrent se tourner vers des carrières moins aléatoires et surtout plus rémunératrices.

De surcroît la recherche scientifique traverse également une crise politique, tout au moins en France, avec une brisure des institutions qui faisaient le fleuron du pays par les gouvernements de droite, et dans la continuité par le gouvernement de gauche actuel. Fin des financements récurrents du CNRS avec l’ANR et ses consœurs, destruction de l’université avec la LRU, mise en route de mammouths administratifs où la tête va encore un peu plus perdre le lien avec les pieds avec les fusions/rassemblements d’institutions : universités, grandes écoles, etc (Idex, PRES COMUEs, le monstre change de nom — de sigle ! — sans pour autant changer son objectif, grimper, coûte que coûte dans le décrié classement de Shanghaï). Les chercheurs trouvaient qu’ils faisaient trop de paperasse ? Qu’à cela ne tienne, on va leur en donner un peu plus. Une myriade de projets à écrire pour obtenir d’hypothétiques crédits afin de simplement pouvoir travailler... Bref, la recherche est bien malmenée en France. Même si François Hollande en avait fait une de ses priorités de campagne, il suffit de voir que le ministère de la recherche et de l’enseignement supérieur a disparu au profit d’un obscur secrétariat d’état pour finalement se rendre compte (trop tard ?) que les promesses n’engagent que ceux qui y croient.

Et malgré tout cela, au sein même de la marge de manœuvre dont les chercheurs disposent encore, la communauté arrive à se rajouter des couches administratives sans qu’on ne lui ait rien demandé.

Prenons par exemple les écoles doctorales. Quand j’ai débuté dans le domaine, en 1998, j’étais alors en DEA (équivalent du Master 2 actuel), les formations en astrophysique d’Île-de-France s’étaient regroupées en une école doctorale, dont le but était principalement de faire respecter la charte des thèses, de vérifier que tout se passait bien au cours de la formation doctorale des étudiants, avec un droit de véto sur certains sujets de thèse proposés, jugés trop fermés ou aléatoires, ou bien sur certains encadrants de thèses jugés peu à mêmes.

Dans la suite, ces écoles doctorales (ED) ont pris une importance phénoménale dont je n’ai pas suivi les tenants et les aboutissants, mais le résultat actuel est une sorte de monstre administratif qui a le pouvoir de distribuer les contrats doctoraux permettant aux étudiants de débuter une thèse. Ce pouvoir est, semble-t-il, très convoité, puisqu’une palanquée de chefs et sous-chefs se le sont répartis. Et l’aréopage ainsi constitué de faire la pluie et le beau temps. Pour un étudiant, obtenir un contrat doctoral est devenu un véritable parcours du combattant, le directoire de l’école doctorale ne faisant plus confiance aux enseignants des Masters pour « noter » et classer les étudiants, ces derniers doivent candidater en plus aux ED, avec dossier et entretien. Entretien devant un jury pouvant rassembler une quinzaine de personnes. C’est dire l’importance du truc ! Avec au final un résultat souvent défiant toute logique que l’on justifiera par d’obscures « décisions politiques » — elle a bon dos, la politique ! —. C’est ainsi que l’on se retrouve avec une étudiante brillante mise au pied du mur, et une autre, bien moins brillante, acceptée, dont l’encadrant de thèse se mord les doigts quelques temps plus tard. Mais de l’autre côté du miroir, le monstre est tout aussi insaisissable, pour avoir un étudiant en thèse dans une équipe, c’est devenu très difficile. Probablement pas dans toutes les équipes, le copinage a lui aussi bon dos (c’est politique !).

Bref, la voie autrefois royale pour obtenir un financement de thèse est devenu un truc immonde dans lequel grenouillent une kyrielle de chefs et de sous-chefs qui se gargarisent d’avoir le pouvoir, oui monsieur, le pouvoir, donc, de distribuer les quelques financements — contrats doctoraux — ministériels. Pour court-circuiter cette hydre malfaisante, il reste des pistes, mais plus chronophages car il faut répondre à des appels d’offre, monter des projets, etc (région, labex, ANR...).

L’ANR... Agence Nationale de la Recherche. Suite aux États Généraux de la Recherche en 2004, le financement récurrent des laboratoires via le CNRS s’est tarit comme une flaque d’eau sous la canicule. Désormais le financement de la recherche se fera pour l’essentiel sur projets via une agence gouvernementale, l’ANR. L’erreur des chercheurs a été de mettre le premier doigt dans l’engrenage. Depuis, ils se sont fait bouffer. Charpie de chercheurs. ANR, labex, idex, ERC, et j’en passe : les agences ou entités qui sont susceptibles de distribuer ce nerf de la guerre, le pognon, se sont multipliées. Mais la possibilité d’avoir un financement ne s’est pas multipliée, loin s’en faut. Par contre le temps passé à rédiger des projets, lui, s’est largement démultiplié. Pour une probabilité de gain minimale.

Prenons l’ANR. Désormais, une demande de financement se fait en deux phases. Un premier écrémage sur un document relativement court. Une première barrière déjà difficile à passer. Puis une deuxième phase, pour les chanceux du premier tour. Il apparaît que le copinage fonctionne à fond : sans connaître untel dans le comité qui sélectionne, aucune chance. C’est un critère comme un autre. On peut faire l’hypothèse que tous les projets qui passent le premier tour sont suffisamment bons (excellent pour employer un terme à la mode dans le milieu) pour mériter quelques tunes [1]. Évidemment, il n’y en aura pas pour tout le monde, sinon ce serait trop facile. D’où le deuxième round. Mais comment définir les critères qui définiront les classements finaux ? À ce niveau on atteint forcément des sommets de subjectivité. Alors le copinage, pourquoi pas, finalement, c’est une manière de départager pas plus idiote que de considérer la couleur des cheveux. Encore que le tirage aléatoire serait infiniment moins chronophage et Ô combien plus juste !

Les chercheurs ne produisent pas de capitaux, mais des articles. Enfin, à la base ils produisent de la connaissance, qu’ils relatent dans des articles, qui sont publiés (ou pas) dans des revues savantes ultra-spécialisées. Mais surtout, avant d’être publiés, ces articles sont revus par des pairs qui jugent ainsi de la pertinence de la nouvelle connaissance soumise à publication. Ce système fonctionnait plutôt pas mal, pour autant que j’en sache, jusqu’à il y a peu. Et c’est là une crise que traverse la recherche au niveau international. Pour résumer le problème, les chercheurs écrivent eux-mêmes leurs articles qu’ils soumettent à une revue pour publication. Mais pour cela, dans nombre de disciplines, la publication dans les revues est payante (pas partout, en astrophysique la plupart des revues sont gratuites pour y publier). Cher. Le travail de revue des pairs auxquels l’éditeur de la revue fait appel selon leur compétence — les « referees » — est quant à lui gratuit, non valorisé, mais très bien accepté par la communauté. Et pour accéder aux articles ainsi publiés, les universités et laboratoires de recherche doivent payer un abonnement. Vous voyez la subtilité ? En gros les chercheurs payent pour accéder à leur travail (et celui de leurs collègues, évidemment), alors qu’ils n’ont pas été rémunérés par la revue, eux, pour lui donner de la matière... Les éditeurs ont trouvé là de braves couillons sur le dos desquels s’engraisser ! La solution est pourtant relativement simple, les chercheurs ont inventé l’internet, ils font déjà eux-mêmes tout le boulot d’édition (mise en page, correction, revue par les pairs, etc) : ils pourraient très facilement se passer des éditeurs carnassiers. Et de publier eux-mêmes en ligne le résultat de leurs travaux.

D’autant plus que ces revues exercent par la suite une véritable pression, puisque il faut publier dans des revues excellentes, revues qui attendent un retour sur investissement (des abonnements à go-go) pour que leurs actionnaires se fassent encore plus de pognon, et donc ne veulent pas publier des recherches qu’elles estiment trop aléatoires ou des noms trop inconnus. La continuité étant vue comme gage de sécurité (financière).

Il y a une nouvelle science née dans les années 1960, à la suite de l’informatisation des bases de données de citations, permettant d’effectuer tout travail de bibliographie nécessaire à chaque recherche (qu’est-ce qui a déjà été fait sur le sujet ?) de manière moins fastidieuse, la bibliométrie, qui s’amuse à quantifier statistiquement le travail des chercheurs à partir de leurs publications. Le problème est que les outils dérivant de cette science sont progressivement utilisés à des fins évaluatives à partir des années 1980 (évaluation des laboratoires, des universités, des pays…) pour aboutir à l’évaluation individuelle des chercheurs au début des années 2000. On en sort du chapeau un « facteur » censé quantifier par un seul nombre la productivité d’un chercheur, le fameux facteur h du nom du physicien (sic !) qui l’a inventé. Il s’agit du nombre d’articles N publiés par un chercheur ayant obtenus au moins N citations. Comme si le travail d’une vie pouvait se résumer en un nombre. Biaisé de surcroît, car non content de faire fi des spécificités disciplinaires : certains domaines ont plus de « visibilité » que d’autres, ce n’est pas pour autant que les chercheurs y sont meilleurs ou moins bons, ils sont également « dangereux. » Comme le qualifie Yves Gingras, dans « Les dérives de l’évaluation de la recherche » : « un exemple simple suffit à le démontrer. Comparons deux cas de figure : un jeune chercheur a publié seulement trois articles, mais ceux-ci sont cités 60 fois chacun (pour une période de temps donnée) ; un second chercheur, du même âge, est plus prolifique et possède 10 articles, cités 11 fois chacun. Ce second chercheur a donc un indice h de 10, alors que le premier a un indice h de 3. Peut-on en conclure que le second est trois « meilleur » que le premier et devrait donc être embauché ou promu ? Bien sûr que non… » (p. 64). Et puis il y a les facteurs d’impact des revues dans lesquelles les chercheurs publient, et puis les classements des universités, le tout avec des critères biaisés et subjectifs. Jusqu’à quand nous soumettrons-nous à cette dictature numérologique ?

Le « publish or perish » qui en découle : publier, publier, publier à n’importe quel prix engendre évidemment des effets pervers, outre le fait que la quantité n’est pas synonyme de qualité, loin s’en faut. Mais cette course effrénée dans une spirale capitalistique infernale provoque des fraudes, tentation de rectifier une image un peu trop imparfaite, de virer un point de mesure qui s’écarte trop de sa « trajectoire, » de bâcler une expérience, de publier des résultats incertains, etc… Les chercheurs sont des humains comme les autres, corruptibles pour parvenir à leurs fins. On voit ainsi des stars prises sur le fait. Le CNRS prend le problème très au sérieux, mais en aval.

Si on revenait à un système de recherche qui prend son temps ? Qui prend le temps de chercher, de trouver, de produire de la science de qualité et non plus seulement de la quantité à la saveur fade ? La recherche embraye le pas au capitalisme débridé. L’individualisme reprend le pas sur le collectif, tout le monde veut être chef — volonté de reconnaissance oblige — d’où la multiplication des structures administratives paralysantes et pas seulement imposées par nos gouvernements, nous sommes aussi capables d’en créer ex-nihilo de nous-mêmes !

Et je passe sur les sciences humaines et sociales qui ont encore bien plus de travail à faire sur elles-mêmes, entre mandarinat (l’étudiant qui n’est pas dans la ligne de pensée de son mentor n’a aucune chance d’accèder à un poste académique…), étudiants laissés pour compte (la charte des thèses n’a pas encore percolé dans ce milieu !), esclavagisme (combien d’étudiants sont « encadrés » par une seule et même personne ? ) et j’en passe. Lisez la chouette bande dessinée « Carnet de thèse » de Tiphaine Rivière, ça sent terriblement le vécu, ça vous donnera une bonne idée de comment ça se passe dans ces milieux (la littérature, en l’occurrence). Mais aussi de comment ça ne se passe pas dans les sciences quantitatives (ou « dures ») : là, il existe une charte des thèses, un directeur de thèse n’a pas une palanquée d’étudiants simultanément, les doctorants sont véritablement encadrés dans des laboratoires (à de rares exceptions près), ils sont rémunérés pour faire leurs thèses (contrat doctoral). Si les sciences « molles » faisaient le ménage ?

Refuser la dictature des éditeurs de revues scientifiques, refuser la dictature des écoles doctorales, refuser la dictature des agences de financement qui veulent piloter la recherche par copinage, refuser le « publish or perish, » venir ou revenir à une recherche qui prend le temps de trouver. Qui mise sur la qualité plutôt que la quantité.

Bref, la politique gouvernementale française en matière d’enseignement supérieur et de recherche est pitoyable, il faut lutter fermement contre cette destruction en règle ne serait-ce que pour préserver l’avenir du pays [2] ; mais les chercheurs eux-mêmes, tout masochistes qu’ils sont, s’infligent encore plus de coups de bâtons qu’on ne leur en donne ! C’est tout à fait paradoxal ! On pourrait aussi s’ingénier à se simplifier la vie dans l’espace de liberté qui nous est royalement encore malgré tout accordé, plutôt que de s’en rajouter une couche !

[1Encore que : ayant soumis récemment un projet qui s’est heurté au mur du premier tour, le rapport que l’on m’a fait parvenir était pathétique : cinq « pairs » avaient lu et évalué notre prose, selon trois critères. Au regard de l’écart entre les notes obtenues pour chacun des critères (allant grosso modo de 0 — c’est nul — à 5/5 — c’est génial —), je me demande quelle objectivité on peut en tirer ? La conclusion évidente est que j’aurais bien aimé connaître la discipline de mes « juges » soi-disant experts !

[2D’ailleurs, malgré le travail de Sciences en Marche sur la niche fiscale du Crédit Impôt Recherche, pourtant largement médiatisé, le gouvernement a tout simplement enterré le sujet avec le rapport. Le collectif s’apprête donc à de nouvelles manifestation dès cet été. Je tenterai ainsi avec quelques scientifiques alpinistes d’aller planter le drapeau Sciences en Marche au sommet du Mont Blanc, fin août, si la chose vous tente, contactez-moi !


forum

Accueil | Contact | Plan du site | | Statistiques du site | Visiteurs : 2813 / 549388

Suivre la vie du site fr  Suivre la vie du site Science  Suivre la vie du site Comment elle se fait   ?

Site réalisé avec SPIP 3.0.17 + AHUNTSIC

Creative Commons License

Visiteurs connectés : 4