La science non scientifique s’épanouit dans les sciences

Dans le monde entier, la performance scientifique des individus et des groupes de recherche est évaluée à l’aide des facteurs d’impact des revues dans lesquelles ils publient1. cette méthode est scientifiquement dénuée de sens est ignorée. Ceux qui évaluent la performance des chercheurs semblent être ensorcelés par la fausse précision d’un nombre disponible à plusieurs décimales. La plupart des chercheurs acceptent que les fonds de recherche soient concentrés sur ceux qui réussissent bien. La performance doit donc être évaluée &#x02014, ce qui n’est pas facile. La Grande-Bretagne a développé un système que Gareth Williams, professeur de médecine, décrit comme rassemblant des données trompeuses et les évaluant de manière non scientifique et inexplicable en utilisant une procédure inefficace, coûteuse et inutile (p   1079) .2 Le résultat est que des ressources limitées peuvent être mal appliqué et la recherche déformée par les chercheurs qui jouent à des jeux pour marquer des points dans l’exercice d’évaluation. Une partie de l’évaluation est de marquer les chercheurs ’ performance par les facteurs d’impact des revues dans lesquelles ils publient. Le facteur d’impact d’une revue est essentiellement le nombre de fois que les articles qu’elle publie sont divisés par le nombre d’articles qui pourraient être cités1,3. Les facteurs d’impact sont calculés annuellement par l’Institute for Scientific Information de Philadelphie et publiés dans le Science Citation Index. Ils sont une mesure imparfaite même de la qualité d’un journal parce qu’ils sont biaisés vers les revues américaines, fortement déformés par la spécialité, et vulnérables aux problèmes techniques.1 Moralement, et surtout, les facteurs d’impact sont insignifiants comme mesure de la performance des scientifiques individuels ou groupes de recherche pour la simple raison qu’il y a peu de corrélation entre le nombre de fois qu’un article peut être cité et le facteur d’impact d’une revue1. En effet, les facteurs d’impact dépendent de quelques articles fréquemment cités. Eugene Garfield, l’inventeur des facteurs d’impact, a mis en garde depuis plusieurs années ceux qui veulent évaluer les performances de recherche des individus et des groupes de ne pas utiliser les facteurs d’impact.Par exemple, il a écrit dans le BMJ en 1996: “ Utilisation de l’impact moyen de la citation du journal au lieu de l’impact réel de l’article … tandis que expédient … est dangereux. ” 3 Per Seglen, un professeur norvégien, a complètement démoli l’utilisation des facteurs d’impact dans l’évaluation de la recherche dans le BMJ l’année dernière.1 Pourtant, la pratique continue. Ça doit s’arrêter.