ARTICLE
30 June 2025

L'UE encadre l'Intelligence Artificielle : les nouvelles directives de la Commission Européenne sur les pratiques interdites

DA
Delsol Avocats

Contributor

DELSOL Avocats, an entrepreneurial firm dedicated to entrepreneurs and businesses

We combine our various expertise according to our clients’ needs in order to assist, advise and defend them.

Helping you choose the right route

We provide our clients with a global, technical and strategic vision taking into account their distinctive economic and cultural features.

Our cross-practice and sector-specific expertise allow us to deliver tailored assistance for transactions in France, Belgium and abroad through our networks of best friend firms.

L'intelligence artificielle (ci-après « IA ») est au cœur des innovations médicales et technologiques.
European Union Technology

L'intelligence artificielle (ci-après « IA ») est au cœur des innovations médicales et technologiques, mais son développement rapide soulève des questions éthiques et juridiques majeures, que l'Union européenne souhaite accompagner notamment par la publication de ses nouvelles lignes directrices sur les pratiques interdites en matière d'IA, prises dans le cadre de l'entrée en application du Règlement (UE) 2024/1689 (ci-après le « Règlement IA »).

Publiées le 4 février 2025, ces lignes directrices, non contraignantes, apportent des précisions sur l'application des interdictions de l'article 5 du Règlement IA, qui classe certains usages de l'IA comme "à risque inacceptable" et donc strictement interdits.

Parmi les domaines les plus concernés : la santé, dans le cadre duquel tant l'usage qui en est fait que les données qui sont collectées à cette occasion sont considérés comme particulièrement sensibles.

Les lignes directrices s'attachent donc à détailler les différents types de pratiques interdites, en donnant des exemples concrets pour chacun d'entre eux et en excluant les pratiques qui seraient autorisées, les pratiques « out of scope ».

Pour rappel, les pratiques interdites identifiées par le Règlement IA sont les suivantes :

  • la manipulation et la tromperie par l'IA i.e. l'utilisation de techniques trompeuses pour influencer le comportement de manière significative et causer des dommages
  • l'exploitation des vulnérabilités, dues à l'âge, un handicap ou une situation socio-économique
  • le « scoring social » ou l'évaluation des individus fondée sur leur comportement social ou caractéristiques personnelles, conduisant à un traitement disproportionné
  • l'évaluation des risques criminels, l'IA type « minority report » prédisant le risque qu'une personne commette une infraction, uniquement basée sur le profilage ou des traits de personnalité
  • le scraping d'images faciales, ou l'IA collectant des images faciales à partir d'Internet ou de caméras de surveillance pour développer des bases de données de reconnaissance faciale
  • la détection des émotions,
  • la catégorisation biométrique pour déduire des opinions politiques, orientations sexuelles, etc.
  • l'identification biométrique à distance en temps réel à des fins de maintien de l'ordre.

S'agissant par exemple de la pratique interdite de manipulation et tromperie par l'IA, ces lignes directrices identifient deux illustrations de ce qui est interdit ou au contraire autorisé :

🔴 Exemple relevant de la notion de pratique interdite
Un assistant médical basé sur l'IA qui incite à acheter des produits promettant des bienfaits irréalistes pour la santé mentale des patients et qui risquerait d'aggraver leur condition mentale et de les exploiter financièrement en les poussant à acheter des produits inefficaces et coûteux, ce qui pourrait leur causer des préjudices psychologiques et financiers significatifs.

✅ Exemple relevant de la notion de pratique autorisé
Un chatbot thérapeutique qui utilise des techniques subliminales pour orienter les utilisateurs vers un mode de vie plus sain et les aider à abandonner de mauvaises habitudes, comme le tabagisme. La Commission considère que, même si les utilisateurs qui suivent les conseils du chatbot et sa thérapie subliminale ressentent un certain inconfort physique et un stress psychologique dûs aux efforts nécessaires pour arrêter de fumer, ce chatbot ne peut pas être considéré comme susceptible de causer un préjudice significatif dès lors qu'il n'y a aucune tentative cachée d'influencer la prise de décision au-delà de la promotion d'habitudes saines.

Les lignes directrices identifient également des illustrations de pratiques interdites ou autorisées concernant l'interdiction de détection des émotions.

🔴 Exemple relevant de la notion de pratique interdite
L'utilisation de la reconnaissance des émotions pour évaluer le bien-être, le niveau de motivation ou la satisfaction au travail ou dans l'apprentissage des étudiants et employés ne constitue pas une « utilisation pour raisons médicales » et serait donc interdite.

✅ Exemple relevant de la notion de pratique autorisée
Au contraire la reconnaissance des émotions peut être déployée pour aider des employés ou des étudiants atteints d'autisme et améliorer l'accessibilité pour les personnes aveugles ou sourdes. De même, les robots d'assistance aux soins utilisant des systèmes de reconnaissance des émotions lors d'un examen médical, ou encore les moniteurs vocaux analysant les appels d'urgence, entrent dans le cadre d'une utilisation médicale de l'IA.

Ainsi, ces lignes directrices de la Commission visent à assurer une application uniforme et cohérente du Règlement IA et tentent de définir des limites claires pour éviter les abus de l'intelligence artificielle dans des domaines sensibles, et leur confrontation aux retours d'expériences des multiples acteurs de ce secteur sera particulièrement enrichissante.

A lire également sur le sujet de l'IA :

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More