Comment vous êtes-vous intéressée aux inégalités dans le monde des sciences ?

Aude Bernheim – Avec Flora Vincent, avec qui j’ai publié « L’intelligence artificielle, pas sans elles ! », nous avons créé l’association Wax science, pour promouvoir auprès des jeunes une science ludique et sans stéréotypes. Au fil des travaux réalisés pour cette structure, nous avons découvert des aspects qui ne nous étaient pas encore apparus, nous qui trouvions, à titre personnel, que le monde scientifique était créatif et amusant.

En prenant conscience de toutes les inégalités qui persistaient dans ce milieu, nous avons voulu mener un combat pour davantage de diversité.

Pour quelles raisons ?

A. B. – Le manque de diversité influence très fortement les recherches menées et les technologies. Certaines peuvent être biaisées par le simple fait qu’elles reposent sur des questions elles-mêmes stéréotypées.

En outre, le sujet dépasse la seule question des inégalités. Il est aussi plus performant d’avoir des équipes mixtes. Si les sciences écartent les femmes, elles se privent d’une partie des talents. Alors que 33% des chercheurs sont des chercheuses, il y a toujours peu de femmes ingénieures, peu de femmes présidentes d’université. Cet état de fait a des répercussions sur les choix d’orientation des jeunes générations : moins de femmes choisissent les sciences. Et une fois dans ce secteur, à chaque échelon, on les pousse vers l’extérieur.

 

De quelle manière ?

A. B. – Il suffit de regarder le rôle qu’elles assument dans les laboratoires. Via des choix parfois inconscients, elles vont davantage se consacrer à la coordination ou à l’organisation. C’est une somme de petites tâches anodines en apparence, mais qui consomment énormément de temps.

De même, des articles scientifiques ont démontré que les lettres de recommandation étaient genrées, avec des champs lexicaux différents pour les femmes et pour les hommes. Là où un homme est « brillant », avec « un fort leadership », une femme est dite « sérieuse » et « s’entend bien avec tout le monde ». En 2012, une opération de testing a été faite sur la base de CV où, à compétences égales, seul le genre du prénom différait. Résultat : les femmes sont moins recrutées, on leur propose des salaires moins élevés et on a moins envie de les mentorer.

 

Ce qui veut dire que la science est un milieu sexiste ?

A. B. – Oui, comme beaucoup de milieux, il fonctionne selon des codes très anciens qui ont du mal à évoluer. Ce qui est frappant, c’est que, quand nous avons commencé à nous intéresser au sujet, peu de scientifiques de notre entourage avaient le sentiment d’en avoir été victimes. En réalité, c’est que la prise de conscience n’avait pas eu lieu.

Chez les étudiantes d’aujourd’hui, qui ont vécu le phénomène Me too, cette prise de conscience se fait beaucoup plus tôt. Et, moi-même, en repensant à mon parcours, je m’aperçois qu’il y a eu des biais. Ils sont parfois inconscients :  on se fixe des ambitions en endossant le rôle que l’on attend que l’on prenne.

Le syndrome de l’imposteur est également très fréquent chez les minorités, en particulier chez les femmes. En sciences, ce manque de confiance en soi fait perdre un temps fou. Une femme va avoir tendance à refaire plusieurs fois les mêmes expériences. Alors qu’un collègue masculin va croire en son résultat dès la première fois et présenter ses travaux.

« Il est déjà difficilement acceptable que de plus en plus d’aspects importants dans notre vie soient décidés par des machines, la moindre des choses, c’est que ces dernières ne soient pas biaisées ! » – Aude Bernheim, chercheuse à l’Inserm.

Votre ouvrage « L’intelligence artificielle, pas sans elles ! » montre que ces inégalités se retrouvent dans les algorithmes. Sous quelle forme ?

A. B. – Cela va du logiciel de traduction, qui traduit « a doctor » par « un médecin » et « a nurse » par « une infirmière », aux algorithmes utilisés pour trier automatiquement des candidatures qui vont écarter des CV de femmes. Dans le même esprit, des logiciels de reconnaissance faciale seront moins capables de reconnaître des visages de femmes que d’hommes. Avec, à la clé des discriminations à l’embauche touchant les minorités et les femmes.

Les algorithmes utilisés par l’intelligence artificielle sont entraînés et formés sur des jeux de données qu’on leur fournit. Si 90% des visages du jeu d’apprentissage sont des hommes blancs, ils identifieront mieux les hommes blancs. Le problème s’est posé aux Etats-Unis avec un logiciel d’aide à la décision judiciaire, censé évaluer les risques de récidive d’un prisonnier. Or, cet outil incriminait souvent, à tort, des prisonniers noirs, en leur attribuant un score élevé de risque de récidive, décorrélé de la réalité de leur dossier.

Cela pose la question de ce qu’est un algorithme équitable, et cela n’est pas du tout évident ! Il est pourtant crucial d’y répondre, car il est déjà difficilement acceptable que de plus en plus d’aspects importants dans notre vie soient décidés par des machines, la moindre des choses, c’est que ces dernières ne soient pas biaisées !

Comment corriger ces biais ?

A. B. – D’abord en repensant la question de la diversité dans le monde de l’informatique, avec l’idée de changer les modes de pensée appliqués aux algorithmes. Il faut également mieux former à la fois les experts qui les développent, mais aussi ceux qui les utilisent. Tout ne repose pas sur les développeurs : il y a une responsabilité collective. Gommer les inégalités est du ressort de tous. Le DRH qui utilise un logiciel pour trier les CV ne peut pas ignorer ce que produit son outil. C’est sa responsabilité, in fine, de suivre la décision de l’algorithme ou pas.

L’Europe est en train de faire des propositions dans ce sens : la Commission européenne a présenté fin avril un projet de règlement sur l’intelligence artificielle visant à encadrer l’utilisation des algorithmes.