ARTICLE
6 November 2024

De AI-verordening: gevolgen voor werkgevers

B
Buren

Contributor

BUREN is an independent international firm of lawyers, notaries, and tax advisers with offices in Amsterdam, Beijing, The Hague, Luxembourg, and Shanghai. We provide full-service, multidisciplinary support, helping national and international clients expand, innovate, or restructure their businesses through our offices, country desks, and global network of partners.
Op 21 april 2021 heeft de Europese Commissie een wetsvoorstel gepubliceerd met de eerste EU-regels voor Artificiële intelligentie (AI).
Netherlands Technology

Op 21 april 2021 heeft de Europese Commissie een wetsvoorstel gepubliceerd met de eerste EU-regels voor Artificiële intelligentie (AI). Onlangs is deze AI-verordening door het Europees Parlement aangenomen. De verordening zal twintig dagen na de bekendmaking ervan in het Publicatieblad in werking treden. Dit zal naar verwachting in de tweede helft van 2024 plaatsvinden. De AI-verordening zal zich vooral richten op AI-systemen met een hoog risico, waaronder AI-systemen die op de werkvloer worden gebruikt. In dit Alert zetten wij de belangrijkste gevolgen voor werkgevers daarom voor u op een rij.

De AI-verordening
De AI-verordening is de eerste wetgeving die regels stelt omtrent het gebruik van AI en heeft als doel om de grondrechten, democratie, rechtsstaat en milieuduurzaamheid te beschermen tegen AI-systemen.

De Europese wetgever heeft de volgende definitie in artikel 3 van de AI-verordening opgenomen voor AI: "Software die is ontwikkeld aan de hand van een of meer van de technieken en benaderingen die zijn opgenomen in de lijst van bijlage I en die voor een bepaalde reeks door mensen gedefinieerde doelstellingen output kan genereren, zoals inhoud, voorspellingen, aanbevelingen of beslissingen die van invloed zijn op de omgeving waarmee wordt geïnterageerd."

De definitie die de Europese wetgever hanteert is erg breed; een systeem zal in beginsel al onder de definitie vallen indien het systeem opereert met een bepaalde mate van autonomie. Autonomie houdt in dat het systeem "output" genereert die beïnvloed is door factoren waar de gebruiker geen invloed op heeft. Denk hierbij onder andere aan chatbots, gepersonaliseerde suggesties, maar ook selectiesystemen voor sollicitanten.

De AI-verordening volgt een zogenaamde "risicogebaseerde aanpak", waarbij onderscheid wordt gemaakt tussen AI-toepassingen die i) een onaanvaardbaar risico, ii) een hoog risico, en iii) een beperkt of minimaal risico met zich meebrengen:

  • Onaanvaardbaar risico: AI-systemen die een onaanvaardbaar risico met zich brengen, zullen worden verboden. Dit zijn systemen die als een gevaar voor de mens worden beschouwd. Titel II van de AI-verordening bevat een lijst van verboden AI-systemen, zoals systemen die gedrag manipuleren of mensen classificeren op basis van hun uiterlijk of sociale kenmerken.
  • Hoog risico: uit de tekst van titel III van de AI-verordening blijkt dat AI-systemen die aanzienlijke schade aan de gezondheid, de veiligheid, de grondrechten, het milieu, de democratie of de rechtsstaat kunnen toebrengen, onder "Hoog Risico" vallen. In bijlage III van de verordening worden categorieën van AI-systemen die kwalificeren als een hoog risico genoemd. De AI-systemen met een hoog risico zullen aan strikte regelgeving onderworpen zijn.
  • Beperkt en minimaal risico: voor systemen met een beperkt risico zullen specifieke transparantieverplichtingen worden ingevoerd die ervoor zorgen dat personen, indien nodig, worden geïnformeerd. Zo zal bijvoorbeeld moeten worden aangegeven dat er sprake is van een AI-systeem. De AI-verordening maakt verder het gratis gebruik van AI-systemen met een minimaal risico mogelijk, dit betreft de overgrote meerderheid van de AI-systemen.

AI-systemen op de werkvloer in beginsel gekwalificeerd als hoog risico systemen
Het grootste deel van de AI-verordening is gericht op AI-systemen met een hoog risico. In Bijlage III van de AI-verordening staat beschreven dat AI-systemen die worden gebruikt op het gebied van werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid, met name voor de aanwerving en selectie van personen, voor het nemen van besluiten over promotie en ontslag en voor de toewijzing van taken, monitoring of evaluatie van personen in werkgerelateerde contractuele betrekkingen, ook als systemen met een hoog risico moeten worden geclassificeerd. Deze systemen kunnen namelijk aanzienlijke gevolgen hebben voor de toekomstige carrièrekansen en het levensonderhoud van deze personen.

Waar moet aan worden voldaan indien een hoog-risico systeem op de werkvloer wordt gebruikt?
Indien er gebruik wordt gemaakt van AI-systemen met een hoog risico, zijn er dwingende vereisten waaraan moet worden voldaan. Er wordt in de AI-verordening een onderscheid gemaakt tussen de aanbieder of distributeur van een AI-systeem en een gebruiker. Indien een AI-systeem dat gebruikt wordt op de werkvloer als een hoog-risico systeem kwalificeert en de onderneming geen aanbieder of distributeur is, zullen de regels voor gebruikers van toepassing zijn. Gebruikers van AI-systemen met een hoog risico zijn onder andere verplicht om:

  • Het gebruik van AI-systemen te monitoren en bij te houden welke data wordt gebruikt om output te leveren. Indien er aanwijzingen zijn dat het systeem een risico kan betreffen voor de gezondheid, veiligheid of voor de bescherming van grondrechten van personen, dient de aanbieder of distributeur op de hoogte te worden gesteld en mag het systeem niet meer worden gebruikt;
  • Te controleren, voor zover de gebruiker de controle heeft, of de inputdata relevant is voor het beoogde doel van het AI-systeem;
  • De instructies op te volgen van de aanbieder en het systeem voor de beoogde doeleinden te gebruiken. De aanbieder is verantwoordelijk voor de voorafgaande goedkeuring van de systemen met een hoog risico, registreert het systeem in de daarvoor aangewezen EU-databank en meldt risico's bij de nationale bevoegde autoriteiten. Indien hiervan wordt afgeweken, zal de gebruiker als aanbieder worden gezien en zal de regelgeving voor aanbieders op de gebruikers van toepassing zijn;
  • De personen die worden blootgesteld aan de AI-systemen met een hoog risico, daarover te informeren.

Inwerkingtreding
De AI-verordening zal zoals hiervoor is aangegeven twintig dagen na de bekendmaking ervan in het Publicatieblad van de Europese Unie in werking treden, naar verwachting in de tweede helft van 2024. Hierna zal de AI-verordening gefaseerd van kracht gaan. Een half jaar na de inwerkingtreding zullen de bepalingen over de verboden AI-systemen van kracht zijn. Twee jaar na de inwerkingtreding zullen de overige bepalingen van de verordening van kracht worden, waaronder de regels met betrekking tot AI-systemen met een hoog risico.

Sancties bij niet-naleving
Voor de sancties bij niet-naleving van de AI-verordening is aansluiting gezocht bij de sancties in de AVG. De sancties zijn op grond van artikel 71 van de AI-verordening in beginsel als volgt: tot €30 miljoen of 6% van de totale wereldwijde jaarlijkse omzet voor overtredingen van de verboden AI-systemen, tot €20 miljoen of 4% van de totale wereldwijde jaarlijkse omzet voor overtredingen van de voorschriften of verplichtingen van de AI-verordening of €10 miljoen of 2% van de totale wereldwijde jaarlijkse omzet voor het verstrekken van onjuiste informatie.

Bij het bepalen van de hoogte van de administratieve boete zullen alle relevante omstandigheden van de situatie worden meegenomen, zo wordt onder andere rekening gehouden met de grootte van een onderneming die de inbreuk pleegt.

To do
Indien er gebruik wordt gemaakt van AI-systemen op de werkvloer, zal de AI-verordening verschillende administratieve taken met zich brengen. Ons advies is daarom om alvast de volgende stappen te nemen:

  • Nagaan welke AI-systemen op dit moment worden gebruikt en hoe deze worden gekwalificeerd. Denk hierbij onder andere aan onboarding-processen, systemen die HR-taken automatiseren of systemen die worden gebruikt bij de beoordeling van de toekenning van een bonus.
  • Nagaan of de AI-systemen die worden gebruikt aan de wettelijke regelgeving voldoen;
  • Nagaan of de AI-systemen met een hoog risico voor de juiste doeleinden worden gebruikt;
  • Een plan opstellen hoe de systemen zullen worden gemonitord en hoe de logs zullen worden bewaard. Zo kunnen er bijvoorbeeld contractuele afspraken worden gemaakt met de aanbieders van de AI-systemen dat de bewaring van de logs in overeenstemming met artikel 20 van de AI-verordening onder de controle van de aanbieder valt.

Originally published 24 July 2024

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Find out more and explore further thought leadership around Technology Law and Digital Law

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More