L'intelligence artificielle (ci-après « IA ») est au cœur des innovations médicales et technologiques, mais son développement rapide soulève des questions éthiques et juridiques majeures, que l'Union européenne souhaite accompagner notamment par la publication de ses nouvelles lignes directrices sur les pratiques interdites en matière d'IA, prises dans le cadre de l'entrée en application du Règlement (UE) 2024/1689 (ci-après le « Règlement IA »).
Publiées le 4 février 2025, ces lignes directrices, non contraignantes, apportent des précisions sur l'application des interdictions de l'article 5 du Règlement IA, qui classe certains usages de l'IA comme "à risque inacceptable" et donc strictement interdits.
Parmi les domaines les plus concernés : la santé, dans le cadre duquel tant l'usage qui en est fait que les données qui sont collectées à cette occasion sont considérés comme particulièrement sensibles.
Les lignes directrices s'attachent donc à détailler les différents types de pratiques interdites, en donnant des exemples concrets pour chacun d'entre eux et en excluant les pratiques qui seraient autorisées, les pratiques « out of scope ».
Pour rappel, les pratiques interdites identifiées par le Règlement IA sont les suivantes :
- la manipulation et la tromperie par l'IA i.e. l'utilisation de techniques trompeuses pour influencer le comportement de manière significative et causer des dommages
- l'exploitation des vulnérabilités, dues à l'âge, un handicap ou une situation socio-économique
- le « scoring social » ou l'évaluation des individus fondée sur leur comportement social ou caractéristiques personnelles, conduisant à un traitement disproportionné
- l'évaluation des risques criminels, l'IA type « minority report » prédisant le risque qu'une personne commette une infraction, uniquement basée sur le profilage ou des traits de personnalité
- le scraping d'images faciales, ou l'IA collectant des images faciales à partir d'Internet ou de caméras de surveillance pour développer des bases de données de reconnaissance faciale
- la détection des émotions,
- la catégorisation biométrique pour déduire des opinions politiques, orientations sexuelles, etc.
- l'identification biométrique à distance en temps réel à des fins de maintien de l'ordre.
S'agissant par exemple de la pratique interdite de manipulation et tromperie par l'IA, ces lignes directrices identifient deux illustrations de ce qui est interdit ou au contraire autorisé :
🔴 Exemple relevant de la notion de pratique
interdite
Un assistant médical basé sur l'IA qui incite
à acheter des produits promettant des bienfaits
irréalistes pour la santé mentale des patients et qui
risquerait d'aggraver leur condition mentale et de les
exploiter financièrement en les poussant à acheter
des produits inefficaces et coûteux, ce qui pourrait leur
causer des préjudices psychologiques et financiers
significatifs.
✅ Exemple relevant de la notion de pratique
autorisé
Un chatbot thérapeutique qui utilise des techniques
subliminales pour orienter les utilisateurs vers un mode de vie
plus sain et les aider à abandonner de mauvaises habitudes,
comme le tabagisme. La Commission considère que, même
si les utilisateurs qui suivent les conseils du chatbot et sa
thérapie subliminale ressentent un certain inconfort
physique et un stress psychologique dûs aux efforts
nécessaires pour arrêter de fumer, ce chatbot ne peut
pas être considéré comme susceptible de causer
un préjudice significatif dès lors qu'il
n'y a aucune tentative cachée d'influencer la
prise de décision au-delà de la promotion
d'habitudes saines.
Les lignes directrices identifient également des illustrations de pratiques interdites ou autorisées concernant l'interdiction de détection des émotions.
🔴 Exemple relevant de la notion de pratique
interdite
L'utilisation de la reconnaissance des émotions pour
évaluer le bien-être, le niveau de motivation ou la
satisfaction au travail ou dans l'apprentissage des
étudiants et employés ne constitue pas une
« utilisation pour raisons médicales »
et serait donc interdite.
✅ Exemple relevant de la notion de pratique
autorisée
Au contraire la reconnaissance des émotions peut être
déployée pour aider des employés ou des
étudiants atteints d'autisme et améliorer
l'accessibilité pour les personnes aveugles ou
sourdes. De même, les robots d'assistance aux soins
utilisant des systèmes de reconnaissance des émotions
lors d'un examen médical, ou encore les moniteurs
vocaux analysant les appels d'urgence, entrent dans le cadre
d'une utilisation médicale de l'IA.
Ainsi, ces lignes directrices de la Commission visent à assurer une application uniforme et cohérente du Règlement IA et tentent de définir des limites claires pour éviter les abus de l'intelligence artificielle dans des domaines sensibles, et leur confrontation aux retours d'expériences des multiples acteurs de ce secteur sera particulièrement enrichissante.
A lire également sur le sujet de l'IA :
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.