Header

Algorithmes : comment éviter les biais de l’Intelligence Artificielle ?

Née dans les années 1950, l’Intelligence Artificielle (IA) nourrit de nombreux fantasmes. Longtemps redoutée car susceptible de remplacer l’Homme, ce sont aujourd’hui ses travers qui posent question. Les logiciels d’IA peuvent être en effet comparés à des boites noires dont le fonctionnement est mystérieux ; susceptibles d’induire des erreurs dans les algorithmes. Mais que sont exactement ces biais et d’où proviennent-ils ? Est-il possible de les éviter ou, à tout le moins, de les corriger ? Quel est leur impact dans le secteur si particulier de l’Intelligence Artificielle en santé ?

Explications avec Isabelle Bloch, enseignante-chercheuse au sein du LIP6 à la Sorbonne Université (et membre associée de l’équipe IMAGES du laboratoire LTCI, à Télécom Paris).

ARIAS Magazine

|2022-06-16

Dans le langage courant, un biais est souvent un moyen détourné et habile de contourner un obstacle ou une difficulté. Mais en matière d’intelligence artificielle, l’acception est un peu différente : un biais désigne alors un manque de neutralité de l’algorithme, faussant – de manière consciente ou non – ses résultats. « Mais un algorithme peut-il seulement être neutre ? interroge Isabelle Bloch, enseignante-chercheuse à la Sorbonne Université. En réalité, rien n’est neutre et une première difficulté réside dans la définition même du terme. On dit parfois que la neutralité, c’est donner une image la plus fidèle possible de la réalité. Mais, lorsqu’il s’agit d’imagerie médicale, cette image est elle-même un codage de la réalité. Il s’agit donc de se demander ce que l’on veut représenter de cette réalité. » Et de prendre conscience des éventuels biais de cette représentation dans le système ainsi que dans son utilisation (qui est rarement neutre)...

En effet, parce qu’ils sont les fruits d’un travail humain, les algorithmes et, donc, leurs résultats, dépendent de celui-ci. C’est la première catégorie de biais, qualifiés de cognitifs et provoqués par une distorsion dans le traitement de l’information. Ces biais peuvent être la conséquence des croyances, du groupe social, de l’éducation, de la formation, des habitudes… bref, de la vision du monde du concepteur ou du programmeur qui va influencer ses choix de variables. « On peut trouver les biais cognitifs à plusieurs niveaux c’est-à-dire dans la conception du programme, sa confirmation (par exemple, on « cherche » une tumeur), son cadrage (c’est-à-dire la manière de poser une question) mais aussi son utilisation et l’interprétation des résultats », poursuit l’experte.

Une seconde famille de biais, appelés statistiques, porte sur les données utilisées dans le système ou dans sa conception. En effet, si performant soit celui-ci, s’il est construit sur des données biaisées (variables non prises en compte, biais de sélection…), il le sera nécessairement. « On peut par exemple manquer de données, détaille Isabelle Bloch. Elles peuvent également avoir une représentativité trop faible, ne pas prendre en compte certains paramètres ou certaines variables, comporter des erreurs ou des inexactitudes, etc. » En matière de santé, par exemple, les biais statistiques peuvent provenir d’une population de référence restreinte ou non représentative de la population générale (sexe, âge, origine géographique ou ethnique, etc.), entraînant un risque de discrimination. En outre, certaines données relatives à un individu peuvent être incomplètes. Ces questions sont particulièrement prégnantes en santé, où les données sont extrêmement nombreuses mais n’ont, la plupart du temps, pas été recueillies dans le même objectif que celui poursuivi avec l’algorithme ; ce qui pose la question de la généralisabilité (modèle statistique qui a pour but d'évaluer la fiabilité d'un dispositif d'évaluation ou de mesure). Afin de limiter les biais liés à leur interprétation, il faut donc des systèmes capables de les extraire et de les rendre pertinentes. En outre, beaucoup de ces données, très hétérogènes et issues de divers documents comme des comptes-rendus d’hospitalisation ou des rapports d’imagerie par exemple, sont consignées sous forme textuelle. Là encore, la fiabilité du système afin de les « convertir », de les structurer, de les anonymiser, en un mot de les rendre exploitables, est cruciale.

Enfin, pour des raisons de coûts, certains algorithmes peuvent également être biaisés. Cela peut être involontaire, par exemple en ne tenant pas compte du contexte économique dans lequel l’outil est conçu et/ou déployé. Mais les biais économiques peuvent également avoir été introduits de manière volontaire, pour en diminuer le coût, par exemple. 

Si « certains disent qu’on ne fait jamais que mettre une opinion dans un programme », il est toutefois possible d’atténuer les biais. Quel que soit le type de biais, « la vigilance est essentielle, explique Isabelle Bloch. Ainsi, il faut avoir conscience des biais connus a priori et les rectifier. Travailler sur des données nécessite de garder en tête qu’il peut y avoir des biais au moment de la création et de l’utilisation de l’algorithme. » Lors de la création d’un algorithme, il est par exemple souhaitable de recourir à des équipes de concepteurs et de programmeurs aux profils variés dont les visions, en se confrontant, permettent de diminuer les biais. La multiplication des utilisateurs est également importante : « en imagerie, par exemple, le radiologue peut confronter son propre point de vue avec celui de l’algorithme mais également avec l’avis de ses confrères », illustre Isabelle Bloch qui rappelle en outre que « d’une part, tous les biais ne sont pas forcément négatifs et, d’autre part, n’ont pas tous la même importance. Il faut bien distinguer le biais de l’erreur, qui sont deux choses différentes. »

Concernant la question des biais de données, « lorsqu’elles sont insuffisantes, notamment lors de la phase d’apprentissage du système, on peut estimer puis corriger ce biais en allant chercher d’autres données acquises dans d’autres conditions, explique Isabelle Bloch. Pour les biais statistiques connus, il existe également des méthodes que l’on peut combiner pour les corriger ou permettre de travailler avec, en recourant par exemple à des études multisites ou à une méthode d’augmentation des données simulant des situations ou des cas dont on ne dispose pas. » A noter que ces méthodes prennent de plus en plus d’ampleur, permettant la recherche d’explicabilité des biais de données et, donc, leur correction ou leur compensation. Enfin, et comme la quantité massive de données ne peut résoudre seule tous les biais statistiques, les systèmes sont de plus en plus « intelligents » combinant apprentissage statistique et modélisation des connaissances, pour chercher à optimiser leurs performances.

Vastes sont les perspectives ouvertes par l’intelligence artificielle en imagerie médicale : classification des images, aide à la planification, accès aux données, aide à la réalisation des examens, qualité des images optimale, aide à la détection et au diagnostic des lésions et tumeurs, aide à la prédiction de l’évolution d’une pathologie… Et si cela est réjouissant, cela ne manque pas de soulever des interrogations voire des appréhensions du côté des professionnels de santé de l’imagerie.

On ne le soulignera jamais assez : l’IA ne peut se substituer au radiologue et n’est qu’un outil d’aide à la décision humaine, qui doit être utilisé à bon escient, dans la bonne situation, pour les bonnes images et pour le bon patient. « Les radiologues restent particulièrement sensibles et attentifs au fait de continuer à voir le patient et à interagir avec lui, pas uniquement via les images, explique Isabelle Bloch, enseignante-chercheuse à la Sorbonne Université. Néanmoins, il est vrai que l’on commence à entendre parler d’un biais dit de complaisance, reposant sur le risque que le radiologue fasse trop confiance à l’algorithme. »

Dans l’analyse des images médicales, les biais induits par les algorithmes sont à peu près aussi fréquents que ceux induits par l’œil et le cerveau du radiologue. « Une image n’est jamais que le codage d’une réalité à savoir, en imagerie médicale, la représentation du patient », rappelle Isabelle Bloch. Mais les biais de l’algorithme et ceux du radiologue ne sont pas de même nature et il est difficile de savoir si les uns sont plus impactants que les autres : « A mon sens, il n’est d’ailleurs pas heureux de les comparer et il faut rester prudent, avertit l’experte. Même si l’image résulte d’une mesure physique, elle n’est pas complétement objective car le choix de la modalité d’imagerie, des conditions d’examen ou encore des paramètres d’acquisition entrent en ligne de compte. »

Afin de démystifier l’effet « boîte noire » de l’intelligence artificielle, souvent redouté, de nombreux travaux sont menés sur l’explicabilité, l’interprétabilité et la transparence des algorithmes : « il est essentiel d’expliquer les résultats obtenus et de montrer en quoi la décision de l’algorithme est juste, souligne Isabelle Bloch. C’est cette transparence qui augmentera la confiance des radiologues dans le système et dans les laboratoires qui les conçoivent. Ce domaine en pleine expansion se développe dans plusieurs directions, selon que l’on cherche à expliquer pour justifier, pour contrôler, pour améliorer ou pour découvrir. Il s’agit d’identifier des causes – plus que des corrélations ou autres arguments statistiques – et il est important d’identifier ce que l’on veut expliquer, pour qui et pour quoi. » 

Il faut également accompagner les radiologues à contrôler et apprendre les faiblesses de l’algorithme pour l’améliorer. « Eux-mêmes insistent sur l’importance de former les internes à la manière d’utiliser l’intelligence artificielle dans un cadre éthique, détaille Isabelle Bloch. Ils ont en effet à leur disposition des outils extrêmement aidants et performants mais il faut leur donner les connaissances et les compétences nécessaires pour comprendre leur utilisation et les conséquences de cette utilisation. » Et cela fonctionne d’autant mieux que l’imagerie médicale est une spécialité en lien étroit avec la technologie en général et que les radiologues connaissent ce type de raisonnement. « Il faut également les impliquer en amont, dans la conception des algorithmes, préconise l’enseignante-chercheuse. Cela les sensibilisera également au problème d’accès aux données. Leur participation à la création de bases de données est ainsi cruciale ». 

Classiquement, on distingue les données en fonction des étapes pour lesquelles elles interviennent :

  • Les données d’apprentissage qui permettent d’estimer le ou les paramètres ;
  • Les données de validation qui permettent d’estimer le ou les hyperparamètres ayant pour fonction d’ajuster la phase d’apprentissage ;
  • Les données de test qui permettent d’évaluer l’algorithme, sa capacité de généralisation et de traitement de chaque cas particulier.

Après la publication de son livre blanc consacré à l’intelligence artificielle (« Une approche européenne axée sur l’excellence et la confiance ») en février 2020, la Commission européenne a dévoilé au mois d’avril 2021 une proposition de loi visant à encadrer juridiquement l’IA au sein de l’UE. Elle définit quatre niveaux de risques pour les systèmes dotés d’intelligence artificielle (inacceptable, élevé, limité et minimal) et propose notamment l’introduction de critères et exigences qualitatifs afin de lutter contre certains biais discriminatoires.

En France, la Haute Autorité de Santé (HAS) s’est également emparée de la question et a élaboré une grille de « classification fonctionnelle, selon leur finalité d’usage, des solutions numériques utilisées dans le cadre de soins médicaux ou paramédicaux ». Ce document, validé par le Collège en février 2021, a pour objectif de faciliter et structurer les échanges entre les différents acteurs du numérique en santé. Il distingue 4 niveaux (A, B, C, D) de classification en fonction du degré de personnalisation et/ou d’autonomie du dispositif numérique proposé