Législation de l’Intelligence Artificielle :
la France et l'Europe prennent le leadership

ARIAS magazine|26/01/2021

Depuis la naissance officielle de l’Intelligence Artificielle en tant que discipline scientifique, le droit a pu forger des règles pour en structurer les contours et les principes de fonctionnement. Récemment, le droit associé s'est fortement développé, en particulier au niveau européen, poussé par les progrès techniques et les investissements sur les marchés, empreints d’enjeux de souveraineté à l’échelle internationale.

Siemens Healthineers a interviewé Cécile Théard-Jallu, avocate associée au sein du Cabinet De Gaulle Fleurance & Associés, sur la législation en matière d'Intelligence Artificielle.

Cécile Théard-Jallu : La dynamique est réelle. Au niveau européen, la préparation d’une future législation s’accélère. Après les lignes directrices posant les 7 principes clefs d’un développement éthique et sociétal de l'Intelligence Artificielle établies en avril 2019, la Commission européenne a publié en février 2020, un livre blanc présentant sa stratégie. Axée sur la régulation et l’investissement, elle vise à la fois, à promouvoir le recours à l’IA et à tenir compte des risques associés à certains de ses usages. L’Union Européenne entend ainsi élaborer un cadre de politique publique et réglementaire pour instaurer un écosystème d’excellence et de confiance.

Début octobre 2020, trois nouveaux rapports ont posé les fondations d’une future législation européenne, annoncée pour le début 2021 sur :

  1. le cadre éthique (notamment pour que le développement, le déploiement et l'utilisation de l'IA soient centrés sur l’homme et contrôlé par lui, associés à la sécurité, la transparence et la traçabilité) ;
  2. le régime de responsabilité (notamment avec l’adoption d’un possible régime spécifique pour les IA à haut risque) ;
  3. les droits de propriété intellectuelle, dont la mise en œuvre reste à clarifier dans le contexte de l’IA, notamment pour protéger les développeurs et leurs investissements.

A quelques semaines de la présentation d’une proposition législative par la Commission, le Parlement européen a adopté une résolution sur l’usage civil et militaire de l’Intelligence Artificielle, le 20 janvier 2021. De nombreux thèmes sont abordés (santé, justice, éducation, armes létales autonomes, deepfakes, reconnaissance faciale …) avec une règle en fil rouge : le besoin d’une réglementation stricte et un usage contrôlé par l‘humain, autour d’une IA devant rester un outil d’aide à la décision ou à l’action par l’homme, sans le remplacer, ni le décharger de sa responsabilité.

La résolution constate que l’Intelligence Artificielle est appelée à jouer un rôle de plus en plus fondamental en matière de santé : algorithmes d’aide au diagnostic, chirurgie assistée par robot, prothèses intelligentes, traitements personnalisés reposant sur la modélisation du corps de chaque patient en trois dimensions, robots sociaux destinés à assister les personnes âgées, thérapies numériques conçues pour améliorer l’autonomie de certains malades mentaux, médecine prédictive et logiciels d’anticipation des épidémies, etc. Elle demande notamment à ce que l’IA utilisée dans la santé publique respecte la protection des données personnelles des patients et évite la dissémination incontrôlée de ces données. Egalement, cette IA doit préserver « (…) l’égalité des patients dans l’accès aux soins, (…) la relation patient-médecin et (…) en toute circonstance le serment d’Hippocrate de sorte que le médecin ait toujours la possibilité et la responsabilité de s‘écarter de la solution donnée par l’IA (…) ».

Le Parlement estime qu’il est nécessaire d’adopter un cadre juridique européen commun assorti de définitions harmonisées et de principes éthiques communs. Les Etats membres sont également incités à légiférer pour créer ou renforcer le régime juridique de l’IA à l’échelle nationale. Dans cette optique, même si ses prémices sont antérieures aux lignes directrices et résolutions européennes, la France est en passe d’être le premier pays à ancrer la notion de « garantie humaine » de l'Intelligence Artificielle dans son système juridique.

Au niveau international, les évolutions prennent également corps. Ainsi, la France et le Canada sont à l’initiative d’un Partenariat Mondial sur l’Intelligence Artificielle. Lancé le 15 juin 2020, ce « PMIA » prône le développement et l’utilisation responsable de l’IA, fondée sur les droits fondamentaux, l’inclusion, la diversité, l’innovation et la croissance économique. Ce dernier est déjà soutenu par près d’une dizaine de pays dans le monde, dont les USA.

C.T-J. : Oui ! L’éthique est au cœur des débats, à la fois au niveau européen et français, ainsi que dans les échanges internationaux.

A l’échelle nationale, le projet de loi relatif à la « bioéthique » met en avant des principes d’usage éthique de l’IA dans la relation avec le patient et de la part des industriels, afin de permettre une maîtrise humaine de la décision et de l’information. Ce concept de « garantie humaine » repose plus précisément sur les principes suivants : une information du patient en amont de l’usage de l’outil et une fois les résultats générés, sous le contrôle du professionnel de santé ; une capacité de l’outil et de ses acteurs à tracer les traitements et les données en toute transparence à l’égard de l’utilisateur ; le tout orchestré par un cadre réglementaire adopté sous le contrôle des autorités chargées de superviser soit l’activité de soins, à savoir la HAS, soit la protection des données personnelles, à savoir la CNIL.

Le 2 février 2021, le Sénat devrait entamer l'examen en deuxième lecture du projet de loi, adopté par l'Assemblée nationale en deuxième lecture en juillet 2020. En restant optimiste, on peut donc s’attendre à une finalisation du texte au cours du premier semestre de 2021. Ce nouveau concept devra bien sûr s’articuler avec d’autres outils du droit français, mais plus largement ce projet est désormais porté auprès de l’OMS par une task force dédiée. 

C.T-J. : Je ne parlerais pas d’absence de législation, au contraire. Aujourd’hui, le droit français contient d’ores et déjà une série d’outils à même de couvrir des situations impliquant l’Intelligence Artificielle. D’ailleurs, les tribunaux ont déjà eu à traiter d’affaires de responsabilité impliquant un usage inapproprié de l’IA. Il est donc nécessaire que les professionnels de santé, leurs établissements de rattachement et les industriels agissent en tenant compte de ces règles déjà en vigueur.

En attendant les évolutions du cadre législatif annoncées en France ou au niveau européen, il est important de voir les choses à 360 degrés. Cela implique pour les prestataires de santé de se former et de sensibiliser les utilisateurs au bon usage de ces outils, ou encore de souscrire des polices d’assurance adaptées aux risques liés à leur utilisation.

Pour les industriels du secteur de la santé, il s’agit notamment de faire évoluer le processus de conception, développement, production, commercialisation, maintenance des produits et services mettant en œuvre de l’IA pour anticiper les changements juridiques à venir en répondant aux nouveaux besoins de leurs partenaires.

D’ailleurs, la HAS a d’ores et déjà inclus le concept de « garantie humaine » dans son nouveau guide d’évaluation, publié le 14 octobre 2020 et adressé aux industriels recourant à des dispositifs médicaux enrichis par l’IA et souhaitant une prise en charge par l’Assurance Maladie. Les industriels ont donc tout intérêt à s’approprier le concept afin de faire du human warranty by design.

C.T-J. : Oui, un tel frottement peut exister puisque l’Intelligence Artificielle nécessite un partage de données de qualité pour progresser et en même temps, ces données induisent un investissement pour celui qui les a rassemblées, organisées et qualifiées. Une opposition peut donc survenir entre l’open data et la transparence sur les données alimentant ou résultant de l’IA, d’un côté, et de l’autre, le besoin légitime de valoriser l’innovation.

Or, la tendance actuelle en Europe et en France est de faire évoluer la législation vers une transparence accrue, en particulier sur les IA à haut risque, ainsi que de favoriser une IA éthique et une croissance économique, centrée sur l’homme. C’est donc le moment de coconstruire, en étudiant des modèles économiques alternatifs à celui de la seule valorisation de l’actif immatériel par le biais de la propriété intellectuelle, par exemple fondés sur la valeur ajoutée du service apportée au marché. Il faut également faire preuve de créativité dans les procédures de contrôle mises en place, qu’elles soient inopinées ou anticipées, internes ou externes, nationales ou locales, pour sensibiliser les acteurs et s’assurer de leur bon comportement.

En d’autres termes, les acteurs vont devoir réfléchir de façon coordonnée à des outils permettant de façonner des règles de fonctionnement et de décision vertueuses et efficientes autour de l’usage de l’IA dans la relation avec le patient.

C.T-J. : Sur le plan juridique et éthique, la construction de règles nouvelles exige d’avancer avec prudence sur une ligne de crête située entre :

  1. le besoin d’innovation et la prise en compte des forts atouts que représente l’IA (puissance de calcul et référentiels de données permettant des décisions plus fiables et plus rapides) ;
  2. la mise à l'écart ou la diminution des risques qu’elle engendre (discrimination, boite noire, etc.), notamment en évitant qu'elle ne remplace l’homme dans sa décision de façon à ne pas engendrer une forme de déresponsabilisation des acteurs.

Dans ce cadre, contrairement à certains commentateurs, je partage l'avis de ceux jugeant dangereux d’octroyer une personnalité juridique à l’Intelligence Artificielle qui la doterait de droits et d’obligations propres. Toute sophistiquée qu’elle ait pu devenir, l’IA ne reste qu’un ensemble de processeurs se nourrissant de larges volumes de données, sans émotion ni conscience. Elle doit accompagner l’homme sur le plan technologique pour sécuriser sa prise de décision et son action, sans le remplacer. En l’occurrence, pour le secteur de la santé, il s’agit d’améliorer et de fiabiliser le fonctionnement des produits et la réalisation des soins apportés aux patients, en laissant les professionnels de santé exercer leur métier.

Au-delà, l’Intelligence Artificielle soulève de forts enjeux économiques et politiques dans un contexte d’innovation, de commercialisation et d’usage mondialisés, avec 3 grandes zones qui se dessinent : les Etats-Unis (vision mercantile), la Chine (contrôle par l’Etat) et l’Europe (vision éthique et sociétale).

L’adhésion progressive à cette troisième approche, qui semble se dessiner au travers du « PMIA » lancé par le Canada et la France, incite à l’optimisme même si cela s’inscrit dans un contexte de super puissance des GAFAS. Il s’agit pour l’Union Européenne de mettre en place ou de renforcer ses outils notamment technologiques, académiques, financiers, industriels et législatifs, pour renforcer l’adhésion vers cette approche, en stimulant les investissements dans la R&D, le développement des compétences et l’adoption de l’Intelligence Artificielle par les différents acteurs, y compris les patients et les professionnels de santé.


Merci à Cécile Théard-Jallu d’avoir partagé, dans le cadre de cette interview, sa passion, son savoir et son expérience juridique de terrain en matière d’intelligence artificielle.

FR_CC_Cecile_Theard-Jallu

Intervenant en droit commercial, des contrats, des technologies de l’innovation, réglementation des produits et services, protection des données et propriété intellectuelle, Cécile Théard-Jallu a développé une forte expérience pour des acteurs nationaux et internationaux du secteur privé et public, notamment dans l’univers de la santé, de la mobilité, de l’assurance, de l’énergie, de l’environnement, des télécommunications ou plus globalement du digital.