FR arias radiomique

La radiomique : quand l’algorithme révèle la puissance des données d’imagerie

Si le concept de radiomique existe depuis 1983, ce n’est que depuis le début des années 2010 qu’il connaît une réelle explosion. Pourtant, il reste aujourd’hui relativement peu connu et beaucoup, y compris parmi les professionnels de l’imagerie, ignorent encore de quoi il s’agit. Une lacune à combler urgemment, eu égard à l’immense champ des possibles que la radiomique porte en elle. Décryptage avec Irène Buvat, physicienne, Directrice du Laboratoire d’imagerie translationnelle en oncologie à l’Institut Curie et l’une des plus grandes spécialistes françaises de la question.

ARIAS Magazine

|23/05/2023

À l’instar des autres termes en -omique qui ont fleuri ces dernières années comme la génomique ou la protéomique, la radiomique s’appuie sur l’utilisation, en imagerie médicale, d’un grand nombre de données quantitatives via l’outil informatique :

<p>Irène BUVAT</p>

Irène Buvat s’appuie sur le postulat qu’une image contient (beaucoup !) plus d’informations que ce que l’on voit à l’œil nu et que ces informations sont extrêmement précieuses pour améliorer la prise en charge des patients : « La radiomique est notamment très utilisée en cancérologie où l’on va extraire des images des caractéristiques qui vont refléter différentes propriétés d’une tumeur : forme, contour, degré d’hétérogénéité du signal... On va mesurer plusieurs dizaines voire centaines de caractéristiques à partir d’une image et construire des modèles qui permettront de déterminer, par exemple, si elle est bénigne ou maligne, si elle va répondre à tel traitement ou pour essayer de prédire la survie du patient de sorte à pouvoir intensifier la thérapie en cas de très mauvais pronostic. » 

En pratique, la radiomique peut recourir ou pas à l’Intelligence Artificielle comme le précise l’experte : « Partant des images, on peut simplement définir des caractéristiques mathématiques et intuitives (comme la sphéricité d’une tumeur, par exemple) que l’on sait mesurer, mettre en équation et intégrer dans des modèles relativement basiques ». Bien que cela soit en effet de la radiomique, cette approche est cependant de moins en moins retenue, eu égard aux possibilités offertes par l’Intelligence Artificielle.

Mais qu’apporte exactement l’IA à la radiomique ? Elle joue un double rôle, comme le détaille Irène Buvat : « Grâce au deep learning (se reporter au lexique ci-dessous pour plus d'informations), l’IA permet en effet d’identifier automatiquement à partir d’un grand nombre d’images des caractéristiques sans qu’on les ait définies ou intuitées a priori ». Ces caractéristiques dites profondes sont mises en exergue par des réseaux de neurones, lesquels vont montrer que les caractéristiques en question sont effectivement corrélées à ce que l’on cherche à prédire.

Son second apport réside dans la construction de modèles : « L’IA peut tester une quasi-infinité de manières de combiner toutes ces caractéristiques pour faire une prédiction là où le cerveau humain peut faire des hypothèses, explique Irène Buvat. Et sans outil d’Intelligence Artificielle, on ne peut tester toutes les combinaisons possibles. L’IA va donc non seulement permettre de tester un très grand nombre de combinaisons mais aussi de trouver la place qu’il faut accorder aux différentes caractéristiques et la meilleure manière de les combiner entre elles ».

Grâce à tout cela, la radiomique permet d’affiner le diagnostic, la caractérisation de la pathologie et son évolution et, donc, la prise en charge de chaque patient. Cette méthode trouve donc toute sa place dans la démarche d’une médecine personnalisée, prédictive et de précision. Mais si elle en est un ingrédient clé, l’exploitation à grande échelle par l’IA de l’imagerie n’en est pour autant pas l’alpha et l’oméga, comme tient à la nuancer Irène Buvat : « Les images contiennent de précieuses informations pour orienter le diagnostic et la prise en charge thérapeutique. En cela, elles apportent une partie de la solution mais elles ne sont pas suffisantes, particulièrement en ce qui concerne les tâches de prédiction. Il faut raison garder : on ne peut pas prédire la réponse à un traitement uniquement à partir des données d’imagerie ». Pour en améliorer les performances, les modèles radiomiques sont donc augmentés et complétés avec d’autres types de données : cliniques, génomiques, issues de biopsies, résultats de prélèvement, analyses des anomalies moléculaires, etc. C’est une condition sine qua non pour des prédictions justes et utilisables.

Concernant son utilisation par les praticiens, justement, la radiomique se heurte encore aujourd’hui à une certaine incompréhension, notamment parce qu’elle repose sur une approche data-driven, c’est-à-dire pilotée par les données (se reporter au lexique ci-dessous pour plus d'informations) : « L’algorithme va identifier le lien entre les données et ce que l’on cherche à prédire mais on ignore comment il a exploité ces données pour arriver à la conclusion, pointe en effet Irène Buvat. Par conséquent, elle apparaît souvent opaque aux yeux des utilisateurs ». Pour y remédier, les chercheurs travaillent donc suivant une démarche fondée sur le data-driven afin de comprendre comment l’algorithme a combiné les informations issues des données : « cela doit permettre de formuler de nouvelles hypothèses que l’on peut ensuite vérifier en concevant les bonnes expériences », poursuit Irène Buvat. Une étape particulièrement importante dans le domaine de la santé en général et de l’imagerie en particulier. En effet, le médecin sera beaucoup plus enclin à faire confiance à un algorithme et à intégrer ses résultats dans sa prise de décision thérapeutique s’il comprend comment les données ont été exploitées. Ce n’est pas encore le cas aujourd’hui mais « on va y arriver grâce à l’IA explicable, ou XAI, un domaine en pleine expansion, prédit Irène Buvat. L’XAI a pour objectif de convertir un modèle d’IA en hypothèses que l’on va tester pour s’assurer que le modèle est correct et que l’on peut lui faire confiance ». 

Dans un futur proche, les algorithmes vont donc être capables de prédire et de générer un rapport qui expliquera leur décision, un cap « d’autant plus important que comprendre sur quoi repose la base de la décision est le seul moyen d’améliorer nos connaissances des mécanismes et de savoir comment agir sur le traitement, souligne Irène Buvat. Si on arrive à comprendre les mécanismes de résistance par exemple, on peut identifier des nouvelles cibles thérapeutiques et agir sur les bons facteurs ». En effet, si la compréhension du fonctionnement d’un algorithme d’IA n’est pas nécessaire pour certaines tâches comme la segmentation automatique des organes ou des tumeurs, par exemple, elle est en revanche essentielle en radiomique où l’on cherche à élaborer des classifications et des prédictions de caractéristiques que le cerveau humain n’a pas forcément la capacité de faire.

Pour autant, c’est bel et bien ce cerveau humain qui reste – et doit rester – maître. L’algorithme ne doit en aucun cas devenir une source d’appauvrissement du savoir des médecins, insiste Irène Buvat : « Il faut donc une acculturation et une formation très importantes des médecins pour qu’ils utilisent intelligemment ces algorithmes sans perdre leur propre discernement ». En effet, un médecin qui voit des dizaines de milliers d’images dans sa pratique clinique devient un expert. Il a su intégrer toutes ces informations, les histoires des patients. « Les algorithmes pourront probablement le faire mais il ne faudrait pas que les médecins s’appuient trop sur l’outil et arrêtent leur démarche intellectuelle, prévient encore Irène Buvat. Il faut exploiter les algorithmes pour être meilleurs, non pour exécuter ou s’appuyer sur eux de façon excessive. Là encore, il faut raison garder et veiller à ce que les utilisateurs comprennent les atouts mais aussi les limites des algorithmes. »

Mais au-delà de cette prise en main par les médecins, d’autres freins persistent pour permettre l’utilisation des modèles radiomiques en application clinique quotidienne.

Un obstacle de taille réside dans leur validation. Généralement développés par une équipe ou un groupe de chercheurs, en effet, les modèles radiomiques ne sauraient être déployés sans validation de leur reproductibilité en routine clinique. « La principale difficulté de cette validation réside en ce que les modèles dépendent de la qualité des images, explique Irène Buvat. Le parc d’imageurs étant très hétérogène, il faut s’assurer que l’algorithme va avoir de bonnes performances en dépit de la variabilité de la qualité des images ». 

Autre limite pointée par notre physicienne : l’étendue des populations de patients. « Si la population qui a entraîné l’algorithme est trop restreinte, cela n’est pas applicable car le niveau de preuve n’est pas suffisant. » Impossible, en effet, de mettre sur le marché un algorithme pouvant avoir des conséquences sur la prise en charge du patient sans pouvoir garantir la suffisance de probabilité de bonnes réponses. De manière corolaire, la taille des bases de données est également un frein au développement des algorithmes. « Comme il est fondé sur les datas, plus la base d’images utilisée pour le mettre au point est grande, mieux entraîné sera l’algorithme, rappelle Irène Buvat. Or, en médecine nucléaire, la taille des bases de données disponibles est plus réduite qu’en scanner ou en mammographie, par exemple : actuellement, nos bases de données comptent plutôt entre 100 et 500 patients là où il y a 5000 patients en radiologie ! »

Mais cela évolue rapidement, notamment grâce aux méthodes facilitant l’accès aux données. C’est par exemple le cas de l’apprentissage fédéré qui permet d’accéder à des données sans les faire sortir des hôpitaux : « L’algorithme est transmis d’un établissement à l’autre pour être raffiné à partir des données de chaque établissement. Cela facilite l’apprentissage sur de grandes bases de données, améliorant et consolidant ainsi les modèles avec des nouvelles et nombreuses images », explique Irène Buvat.

Encore une preuve supplémentaire, s’il en fallait, que le champ des possibles ouvert par la radiomique est immense et plein de promesses…

Si la radiomique a été initialement introduite et mise en application en cancérologie, elle ne s’y limite pas. Elle est au contraire porteuse de réjouissantes perspectives dans d’autres spécialités, comme la cardiologie et la neurologie notamment. « En effet, des travaux américains menés et validés auprès de plusieurs milliers de patients ont montré des résultats probants de l’utilisation de l’analyse radiomique pour identifier des pathologies cardiaques et aider les médecins à faire du diagnostic différentiel », illustre Irène Buvat, physicienne et Directrice du Laboratoire d’imagerie translationnelle en oncologie à l’Institut Curie. Quant à la neurologie, « la radiomique peut permettre la différenciation entre des maladies neurodégénératives qui présentent des symptômes a priori similaires et difficiles à différencier, en particulier dans des phases précoces de la maladie, poursuit Irène Buvat. Par exemple, la maladie de Parkinson et la démence à corps de Lewy ont des signes cliniques très proches dans leur phase précoce si bien que même sur une imagerie, il est difficile de faire un diagnostic différentiel. Des algorithmes de radiomique permettant de faire cette distinction commencent à être développés. Ceci est très important car on ne doit pas traiter de la même manière ces pathologies, si voisines soient-elles. En outre, cela permet de bien orienter le patient dès le début ».

  • Apprentissage fédéré : technique d’IA consistant à diviser la tâche d’entraînement d’un algorithme sur différentes machines délocalisées et utilisant les données locales pour apprendre. Seuls les paramètres du modèle sont fédérés, les données, elles, restant privées.
  • Apprentissage supervisé : technique d’IA consistant à fournir à un algorithme un grand nombre d’exemples de données avec la réponse attendue, afin que l’IA identifie les dizaines voire centaines de millions de paramètres d’un modèle permettant d’inférer la bonne réponse à partir de nouvelles données.
  • Data driven : démarche consistant à alimenter un algorithme par un grand nombre d’exemples, d’images, de data, etc.
  • Deep learning : aussi appelé apprentissage profond, sous-domaine du machine learning consistant à soumettre un algorithme à une très grande quantité de données (big data) en vue de le laisser les analyser lui-même, les segmenter et y reconnaître des schèmes.
  • Machine learning : aussi appelée apprentissage automatique, technique d’IA conférant aux algorithmes la capacité d’apprendre sans être explicitement programmés, s’appuyant sur leur aptitude à acquérir des nouvelles connaissances afin de s’améliorer et d’évoluer d’eux-mêmes quand ils sont exposés à de nouvelles données.
  • XAI : aussi appelée Intelligence Artificielle explicable, type d’Intelligence Artificielle rendant possible la compréhension des résultats et des conclusions réalisés par un algorithme et, donc, de lui faire confiance.