
La loi de Goodhart
La loi de Goodhart, formulée par l'économiste britannique Charles Goodhart en 1975, énonce que « lorsqu'une mesure devient un objectif, elle cesse d'être une bonne mesure » .
Autrement dit, dès qu'un indicateur est utilisé comme cible à atteindre, il perd sa fiabilité en tant que reflet fidèle de la réalité, car les comportements s'ajustent pour optimiser cet indicateur, souvent au détriment de l'objectif initial. La loi de Goodhart souligne donc les dangers de confondre les indicateurs avec les objectifs réels.
Et nous pouvons en trouver des exemples très concrets dans notre quotidien.
- Dans l’enseignement, lorsque les profs sont évalués en fonction des résultats de leurs élèves à des tests standardisés, ils peuvent être incités à "enseigner pour le test", négligeant ainsi une éducation plus généraliste.
- A l’université, la pression pour publier un grand nombre d'articles peut conduire les chercheurs à privilégier la quantité sur la qualité, en ciblant des publications faciles plutôt que des recherches innovantes…
Il est donc nécessaire de s’interroger aussi sur les mesures que nous appliquons lors de nos évaluations de performance.