
Pascale Kuntz
Professeure en informatique à Polytech Nantes
Pascale Kuntz est professeure en informatique à Polytech Nantes et chercheuse au Laboratoire des Sciences de Numérique de Nantes où elle a animé le pôle Sciences des Données et Décision (2017-2020). Ses recherches en apprentissage portent sur le développement de modèles et d’algorithmes de classification (non supervisée et supervisée) intégrant des chevauchements de classes. Sa formation initiale pluridisciplinaire (université Paris Dauphine et EHESS) l’a conduite à s’impliquer dans de nombreux projets collaboratifs à la fois académiques et industriels, portant notamment ces dernières années sur la conception de systèmes d’aide à la décision. Engagée dans la francophonie scientifique pour le développement d’une IA multi-culturelle, elle a été vice-présidente de la Société Francophone de Classification, éditrice adjointe de la revue RIA, puis a créé en 2019 la Revue Ouverte d’Intelligence Artificielle (ROIA). Elle a été chargée de mission égalité femmes-hommes de l’université de Nantes (2017-2020) puis responsable d’un réseau de recherche fédérant plus de cinquante chercheur.e.s de douze laboratoires autour des études de genre en sciences humaines et sociales, en santé et dans le numérique (2020-2024).
Title: Sexe et genre dans les systèmes d’aide à la décision clinique – Vers une exploration de leurs usages en recherche translationnelle.
Parmi les caractéristiques introduites aujourd’hui dans toutes les bases de données et dans une variété non recensée de modèles de décision en médecine, on trouve la bicatégorisation homme/femme, et la mise en œuvre du concept de genre est encore rare. La critique de la représentation universelle du patient basée sur un sujet masculin qui a prévalu jusqu’au milieu du siècle dernier, et une demande sociétale croissante ont conduit des acteurs publics à s’emparer de cette problématique. En France, un rapport de 2020 intitulé « Sexe, genre et santé » la Haute Autorité de Santé préconise la « vigilance », en indiquant qu’« il est probable qu’il appartienne aux financeurs de solutions numériques, et en particulier à la puissance publique, d’exiger des garanties de maîtrise des biais de sexe et de genre dans les analyses de données ». Mais, une multiplicité de pratiques et une absence de consensus ont été confirmées par une étude internationale à large échelle, et du côté de la conception informatique des systèmes d’aide à la décision, les questions de l’impact des choix catégoriels de sexe/genre sont majoritairement ignorées. Ces dernières s‘inscrivent pourtant pleinement dans le développement d’une IA de confiance dont deux dimensions majeures sont la qualité des données et l’interprétabilité des résultats. L’intelligibilité doit bénéficier aux professionnels de santé, utilisateurs des logiciels d’aide à la décision. Or, elle n’est pas intégrée dans les exigences actuelles associées au droit des dispositifs médicaux (Bernelin et Desmoulin-Cansalier, 2021). Un rapport récent du sénat français (2024), qui s’appuie sur un rapport de l’Académie nationale de médecine, indique que « si les professionnels de santé (…) ne sont pas informés des possibles biais des systèmes d’IA qu’ils utilisent, ils ne peuvent pas se distancier des résultats proposés par les machines et sont alors susceptibles d’être induits en erreur dans leur analyse clinique ». Cet exposé vise à préciser des enjeux de ces questionnements en s’appuyant sur des travaux interdisciplinaires récents, et à discuter de différentes perspectives en recherche translationnelle qui promeut l’essor de la médecine personnalisée et l’intégration croissante de l’IA dans la chaîne de traitement de l’information, de la recherche à la pratique clinique.
