ARTICLE
9 January 2025

Akt O Umělé Inteligenci Mění Pravidla Hry V EU

SA
Schoenherr Attorneys at Law

Contributor

We are a full-service law firm with a footprint in Central and Eastern Europe providing local and international companies stellar advice. As the go-to legal advisor for complex commercial matters in the region, Schoenherr aims to use its proximity to industry leaders, in developing practical solutions for future challenges. We keep a close eye on trends and developments, which enables us to provide high quality legal advice that is straight to the point.
Dne 1. srpna 2024 vstoupil v platnost světově první právní rámec zaměřený na regulaci umělé inteligence, známý jako AI Act (nařízení Evropského parlamentu a Rady (EU) č. 2024/1689).
Austria Technology
Schoenherr Attorneys at Law are most popular:
  • with readers working within the Telecomms industries

Dne 1. srpna 2024 vstoupil v platnost světově první právní rámec zaměřený na regulaci umělé inteligence, známý jako AI Act (nařízení Evropského parlamentu a Rady (EU) č. 2024/1689). Toto nařízení má za cíl zajistit ochranu základních práv evropských občanů a podniků a zvýait bezpečnost prostřednictvím regulace systémů umělé inteligence na základě jejich rizikového potenciálu.

Koho se nařízení dotkne?

AI Act se aplikuje na celý u~ivatelský a vývojový řetězec umělé inteligence. Povinnosti se vaak výrazně liaí podle role, kterou subjekt v hodnotovém řetězci zastává. Nejpřísnějaí regulace se týkají poskytovatelů a u~ivatelů vysoce rizikových systémů umělé inteligence. Příkladem mohou být vývojáři systémů pro biometrickou identifikaci, ale i bě~né společnosti pou~ívající AI při své činnosti, například při náboru zaměstnanců a analýze ~ivotopisů. Ze sektorového pohledu bude kromě vývoje moderních technologií AI Act klást zvýaené nároky předevaím na oblast sociálních sítí, digitální marketingové společnosti nebo finanční a pojiaťovací sektor

Klasifikace rizik

AI Act rozliauje u systémů AI čtyři úrovně rizika:

Zakázané postupy
Postupy v oblasti AI, které představují zvláatě akodlivé způsoby vyu~ití AI, jsou zakázané. Do této kategorie patří například systémy sociálního hodnocení, manipulaci s lidským chováním a hromadný scraping obličejů pro vytváření databází pro rozpoznávání obličejů.

Vysoce rizikové systémy
Tyto systémy mohou negativně ovlivnit bezpečnost lidí nebo jejich základní práva. Patří sem systémy pou~ívané v kritické infrastruktuře, vzdělávání, zaměstnání, řízení pracovníků, přístupu k základním veřejným slu~bám, prosazování práva nebo biometrické identifikaci.

Začíná nová éra regulace umělé inteligence

Systémy s omezeným rizikem
Typicky zahrnují chatovací roboty nebo generativní AI, kde regulace klade důraz zejména na transparentnost.

Systémy s minimálním rizikem
Větaina systémů AI pou~ívaných v EU spadá do této kategorie, například AI ve hrách nebo spamové filtry. V těchto případech mohou subjekty splňovat po~adavky regulace dobrovolně.

Povinnosti poskytovatelů vysoce rizikových systémů
Ne~ poskytovatel uvede na evropský trh vysoce rizikový systém AI, musí provést posouzení shody, které ověřuje, ~e systém splňuje stanovené po~adavky na důvěryhodnou umělou inteligenci. To zahrnuje zejména kvalitu dokumentace, transparentnost, lidský dohled a kybernetickou bezpečnost. Poskytovatelé musí také zavést systémy řízení kvality a rizik a zapsat vysoce rizikové systémy AI do evropské databáze.

Poskytovatelé systémů AI určených ke komunikaci s lidmi musí zajistit, ~e lidé budou vědět, ~e jejich protějakem je stroj. Poskytovatelé systémů generujících mediální obsah mají povinnost postarat se o to, aby výstupy z těchto systémů byly označeny jako uměle vytvořené nebo manipulované. Poskytovatelé obecných modelů AI musí zpřístupnit určité informace poskytovatelům navazujících systémů a zajistit, aby při trénování jejich modelů bylo dodr~ováno autorské právo.

V praxi to znamená zvýaené náklady na vývoj a implementaci compliance procedur, co~ mů~e být pro mnoho společností, zejména těch středních, významným zdrojem časového i finančního tlaku.

Sankce za poruaení
Přesto~e je AI Act poměrně rozsáhlý (má přes sto čtyřicet stran právního textu), neodpovídá na vaechny klíčové otázky související s AI, zejména v oblastech práva duaevního vlastnictví nebo odpovědnosti za akodu způsobenou systémy AI. AI Act vaak nebude jediným předpisem EU v oblasti umělé inteligence. V současné době je předmětem debat konkrétní obsah směrnice o odpovědnosti za umělou inteligenci, která by měla v rámci EU harmonizovat pravidla občanské odpovědnosti.

AI Act přináaí standardní re~im sankcí za poruaení evropských pravidel. Sankce mohou dosáhnout a~ 7 % ročního celosvětového obratu nebo 35 milionů eur za poruaení pravidel zakázané AI. Méně záva~ná poruaení jsou sankcionována zhruba polovičně.

Doporučení závěrem
AI Act bude plně pou~itelný od 1. srpna 2026, nicméně jeho povinnosti vstupují v platnost postupně, počínaje zákazem vysoce rizikových systémů v únoru příatího roku a pravidly pro obecné umělé inteligence v srpnu. Zavést odpovídající pravidla a po~adavky bude pro větainu společností časově náročné, s přípravou tak doporučujeme neotálet.

Změna pravidel pro digitální platformy

Nově přijatá směrnice o platformové práci má za cíl zlepait pracovní podmínky pracovníků, jejich~ činnost je řízena prostřednictvím digitálních platforem (v praxi často taxi, kurýrní nebo donáaková slu~ba apod.). Z pohledu zaměstnavatelů v oblasti digitálních platforem přináaí směrnice povinnost přehodnotit právní vztah s pracovníky a jasně definovat, zda jsou to zaměstnanci, či osoby samostatně výdělečně činné (směrnice přináaí vyvratitelnou domněnku zaměstnaneckého statusu). Firmy by měly také upravit své procesy algoritmického řízení a zajistit, ~e budou plnit nové po~adavky na ochranu osobních údajů a monitoring zaměstnanců.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

[View Source]

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More