Opinion: Malgré ses limites, l’étude offre des indices sur les préjugés sexistes -Ecologie, science



Cette opinion a été rédigée en réponse à «Opinion: Une étude d’évaluation par les pairs compromet la réponse aux préjugés sexistes»

En janvier, Progrès scientifiques a publié un projet massif analysant les résultats de l’examen par les pairs de 350 000 manuscrits de 145 revues qui n’ont trouvé aucune preuve de préjugé sexiste après la soumission de manuscrits. À peine un mois plus tôt, mes collègues et moi avons publié dans mBio une étude similaire, mais à plus petite échelle, qui a analysé les résultats de l’examen par les pairs de 108 000 soumissions de manuscrits à 13 revues de l’American Society for Microbiology (ASM). Notre étude a révélé une tendance constante pour les manuscrits soumis par des femmes auteurs correspondants à recevoir plus de résultats négatifs que ceux soumis par des hommes. Les deux projets ont analysé six années de données de soumission qui ne sont disponibles que pour les éditeurs de revues, mais sont parvenues à des conclusions différentes.

Lire la suite.

Ela stimulation des sources possibles d’inégalités entre les sexes dans les processus d’examen par les pairs et de rédaction des revues savantes est une entreprise difficile pour diverses raisons. Il existe de sérieux obstacles à des études expérimentales solides et croisées testant des hypothèses causales en manipulant les informations et les contextes des manuscrits, des auteurs et des arbitres. La réalisation d’études rétrospectives est donc la seule option, et c’est également loin d’être simple en raison du manque d’infrastructure de partage de données entre les éditeurs et les revues. Bien que cela rend toute généralisation des résultats problématique et limitée, je crois qu’il est essentiel d’étudier l’examen par les pairs avec des données croisées à grande échelle, pour éviter de surestimer les cas individuels. C’est ce que nous avons essayé de faire dans notre récent Progrès scientifiques article.

Alors que nous savions que nos résultats pourraient être controversés, je suis surpris par la façon dont Ada Hagan a mal interprété nos recherches et voudrais commenter les trois points sur lesquels elle a fondé son opinion.

La sélection de revues n’est pas robuste

Le manque de randomisation dans la sélection des revues est une faiblesse de notre étude, mais nous n’avons jamais prétendu avoir suivi une stratégie d’échantillonnage aléatoire. De plus, la taille, la distribution et la qualité de notre ensemble de données sont sans précédent, et l’utilisation de différents modèles statistiques sur le même ensemble de données a augmenté la rigueur et la robustesse de notre analyse. Les recherches antérieures de ce type n’étaient effectuées que sur des revues uniques ou sur une petite cohorte de revues similaires, et jamais à une telle échelle intersectorielle. Il est également important de noter que la décision de restreindre notre échantillon uniquement aux revues indexées par Web of Science visait à assurer la comparabilité et à éviter d’ajouter des contrôles supplémentaires à nos modèles (par exemple, pour tenir compte des différences potentielles dans les normes de révision éditoriale et par les pairs). Cela signifiait que nous avons exclu un petit nombre de revues, mais cela n’a pas affecté la distribution des revues par domaine de recherche, et donc notre ensemble de données comprenait une large représentation des revues scientifiques. Je soulignerai également que les études à petite échelle prétendant avoir trouvé des traces non équivoques d’inégalités entre les sexes n’ont jamais été accusées d’être basées sur un échantillon de revues représentatif non randomisé, bien qu’elles soient clairement limitées à une ou à quelques revues examinées.

Chaque soumission de manuscrit est traitée comme une seule unité

Je suis d’accord avec Hagan sur le fait que nous ne pouvions pas reconstruire le sort des manuscrits rejetés, ensuite resoumis ailleurs pour estimer si les femmes ont été retardées dans le processus de publication par de multiples rejets. Cependant, cela nécessiterait un ensemble de données couvrant des milliers de revues de plusieurs éditeurs, ce qui est impossible à atteindre. Nous avons contrôlé pour la série de revues – c’est-à-dire si les critiques et les éditeurs étaient plus exigeants dans le cas des manuscrits de femmes – et n’avons trouvé aucun effet négatif significatif. De plus, je crois que la décision de partir de manuscrits individuels – plutôt que d’agréger les groupes de genre, comme l’ont fait de nombreuses études précédentes, y compris celles de Hagan – nous a permis de contrôler les facteurs de confusion sur lesquels nous disposions de données, tout en estimant l’effet genre à toutes les étapes du processus d’examen par les pairs.

Les rejets de bureau ne sont pas évalués

C’est un bon point. Nous avions des données sur les rejets de bureau uniquement sur un sous-échantillon de revues, en raison du fait que certains systèmes de soumission de manuscrits ont enregistré ces informations tandis que d’autres ne l’ont pas fait, et nous en avons fait état dans le version pré-imprimée de l’article publié en février 2020. Les résultats suggéraient que les manuscrits avec une proportion plus élevée de femmes parmi les auteurs avaient moins de chances d’être rejetés par écrit dans les revues de santé / médecine et de sciences sociales, alors qu’ils avaient plus de chances d’être rejetés revues scientifiques. Nous avons initialement inclus cette analyse dans le manuscrit, mais les critiques ont suggéré de la supprimer car notre étude était centrée sur l’examen par les pairs.

En conclusion, nous n’avons pas prétendu étudier toutes les sources d’inégalités et de biais qui affectent les femmes dans le milieu universitaire, et en effet, nous avons contextualisé nos résultats dans les conclusions pour éviter toute mauvaise interprétation. Notre objectif était de trouver des traces de préjugés contre les femmes dans la manière dont l’examen par les pairs traite les manuscrits soumis dans un échantillon de revues provenant de divers domaines de recherche. En fin de compte, nous n’avons trouvé aucune preuve d’un tel biais. Nous devrions, à mon avis, continuer à faire de notre mieux pour publier des études rigoureuses – même si elles sont controversées. En tant que scientifiques, en fin de compte, nous croyons au pouvoir des preuves.

Flaminio Squazzoni est professeur de sociologie à l’Université de Milan, Italie, où il dirige le BEHAVE Lab. De 2014 à 2018, il a présidé un projet européen à grande échelle sur l’examen par les pairs (PEERE).

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *