ARTICLE
20 December 2024

Za 30 Mln Zł Rocznie Komisja Będzie Nakładać Makijaż Sztucznej Inteligencji

GP
GP Partners

Contributor

We are a forward-thinking law firm, blending creativity and logic to address the complex intersection of business and technology. As rapid advancements in AI and digital innovation reshape industries, we provide strategic legal solutions to protect our clients’ businesses and assets.

Inspired by the visionary ideas of Stanislaw Lem’s The Cyberiad, we navigate the ever-evolving digital landscape, where yesterday’s science fiction has become today’s reality. Our team excels at untangling the intricate web of technology and regulation, ensuring compliance and safeguarding our clients' interests.

With resilience and precision, we serve as trusted advocates for businesses in Poland and beyond, adapting to the unstoppable pace of change. Whether tackling challenges posed by new technologies or ensuring financial security in a digital world, we are dedicated to delivering results that meet the demands of the future.

Na łamach Rzeczpospolitej 6 listopada nawoływałem, aby kompetencje nadzoru sztucznej inteligencji (SI) oddać Prezesowi Urzędu Ochrony Danych Osobowych (PUODO).
Poland Privacy

Na łamach Rzeczpospolitej 6 listopada nawoływałem, aby kompetencje nadzoru sztucznej inteligencji (SI) oddać Prezesowi Urzędu Ochrony Danych Osobowych (PUODO). 20 listopada ukazał się tekst polemiczny, autorstwa mecenasa Przemysława Sotowskiego, w którym Pan Mecenas powołuje kilkanaście tez na granicy dezinformacji, bez uzasadnienia, oprócz oczywistej oczywistości". Tak jakby autor był bardziej politykiem niż prawnikiem. Niech mottem mojej repliki będzie to, co 12 sierpnia 1986 roku powiedział Ronald Reagan "Dziewięć najbardziej przerażających słów w języku angielskim to Jestem z rządu i jestem tu, aby pomóc"

Kluczowym stwierdzeniem jest jednak następujące sformułowanie polemiki Pokazuje to jednak ,że autor [znaczy ja – wstawka moja] mylnie utożsamia nadzór nad rynkiem z ochroną praw podstawowych". Otóż, obawiam się, że w AIA chodzi właśnie o ochronę praw podstawowych osób fizycznych.

Istotą nadzoru nad wykorzystaniem SI na rynku EU jest ochrona praw podstawowych osób fizycznych przed ryzykiem dla nich płynącym z korzystania z tych technologii.

W RODO nie chodzi wcale o zagrożenia dla prywatności

AIA reguluje wykorzystanie sztucznej inteligencji WYSOKIEGO RYZYKA dla PRAW PODSTAWOWYCH osób fizycznych. O to samo chodzi w RODO. RODO ma chronić prawa i wolności osób fizycznych oraz nadzorować ryzyko dla tych praw i wolności. AIA ma nadzorować ryzyko dla praw podstawowych. Jaka jest różnica? Żadna. Nadzór nie ma się skupiać na tym, który z dostawców technologii zarobi na naszym rynku więcej, ani żeby to była uczciwa konkurencja. Nadzór ma chronić osoby fizyczne przed ryzykiem dla ich praw podstawowych płynącym z wykorzystania SI wysokiego ryzyka.

Niezrozumienie celu AIA wiąże się najwyraźniej z niezrozumieniem samego RODO. W RODO nie chodzi wcale o zagrożenia dla prywatności. Chodzi o (wszelkie) ryzyka dla praw i wolności człowieka płynące z naruszenia prywatności. Te ryzyka to mogą być ryzyka uszkodzeń ciała, śmierci, katastrof, utraty pracy, manipulacji, ograniczenia praw obywatelskich, inwigilacji, oszustwa, odmowy świadczeń medycznych lub ich refundacji etc. I o takie właśnie zagrożenia chodzi w AIA.

Owszem, zarządzanie ryzykiem jest dużo starsze niż RODO, tak ja jestem dużo starszy niż autor polemiki. Nowością jednak w zarządzaniu ryzykiem, że tak jak w RODO, w AIA ocenia się ryzyko dla podmiotu trzeciego – osób fizycznych, a nie dla organizacji, oraz ocenia się je w kategoriach bezwzględnych.

RODO opiera się na koncepcji rozproszonego, oddanego rynkowi zarządzania ryzykiem i nadzoru następczego. W RODO zawarte są też elementy systemu prewencyjnego, na którym opiera się AIA. Chodzi o kodeksy postępowania i certyfikację. UODO poczynił już istotne kroki w tym zakresie. Ochrona danych osobowych to jedyny (oprócz elementów nieustandaryzowanej infrastruktury krytycznej) obszar wymagający tworzenia systemu zarządzania zgodnością (oceny ryzyka, zarządzania jakością i certyfikacji), spośród wszystkich regulowanych przez AIA obszarów. Pozostałe obszary (różne maszyny, zabawki, urządzenia radiowe etc) już mają swoje systemy zarządzania zgodnością. UODO właśnie teraz tworzy takie systemy zgodności, w oparciu o prerogatywy z RODO i doświadczenia z praktyki stosowania RODO jak i pozyskaną wiedzę rynkową. Edison, który wymyślił, żeby powierzyć tworzenie alternatywnych systemu zgodności sztucznej inteligencji w ochronie danych organowi konkurencyjnemu do PUODO, powinien otrzymać nagrodę Darwina.

Owszem las to nie to samo co las krzyży. Sens tej analogii idzie jednak w drugą stronę. Regulacja SI ma na celu właśnie to, żeby las nie przekształcił się w las krzyży. A RODO, przywołam tu Prezesa Jana Nowaka, to nie jest akt o danych osobowych, tylko akt o ochronie osób fizycznych. AIA też nie jest aktem o ochronie korporacji rozwijających używających sztucznej inteligencji tylko aktem o ochronie osób fizycznych.

Nie istnieją dobre standardy bezpieczeństwa

Jak to dobitnie wywodzi raport We have no science of safe AI" autorstwa D. Janků i in, nie istnieją dobre standardy bezpieczeństwa SI. System tworzony przez AIA to procedury niewypełnione treścią akurat w obszarze danych osobowych i w tym obszarze najgroźniejsze. Dlaczego nadzór nad tym obszarem miałby dostać organ bez doświadczenia i zrozumienia, że chodzi właśnie o ochronę praw podstawowych a nie organ, który w tym się specjalizuje?

Czy AI przetwarza dużo danych osobowych? Autor polemiki twierdzi, że jest wiele systemów SI, które nie przetwarzają danych osobowych. I dlatego, rozwijają się techniki ochrony prywatności, takie jak syntetyczne dane, prywatność różnicowa, czy confidential computing". Obawiam się, że w tych dwóch zdaniach ukrył się oksymoron. Zdanie nr 2 wyklucza zdanie nr 1. Nie byłoby potrzeba technik ochrony prywatności, gdyby te mityczne, rzekomo nieprzetwarzające danych osobowych systemy, naprawdę nie przetwarzały danych osobowych.

Uroczy argument nie ma badań". Podobno nie ma badań" że AI przetwarza dane osobowe, chyba że do makijażu? Naprawdę schodzimy na ten poziom?

Autor twierdzi, że dane osobowe są najczęściej przetwarzane tam, gdzie wymaga tego specyfika produktu czy usługi i potrzeba klienta – na przykład aby dopasować ubranie, czy makijaż do konkretnej osoby, za jej wiedzą i zgodą. No, jeżeli taki jest stan świadomości i wiedzy o działaniu i współczesnych zastosowaniach sztucznej inteligencji w całym Ministerstwie Cyfryzacji i Grupie Roboczej ds. AI, to ja się nie dziwię, że rozporządzeniem chcieli zmieniać ustawę. Martwi mnie tylko tak duży udział w tej osób, które na co dzień zajmują się ochroną danych.

Twierdzenie, że SI przetwarza dane osobowe głównie na potrzeby dobierania makijażu, jest niepoważne. Mówi nam jednak, że proponenci utworzenia Komisji ds. AI nie czytali AIA.

Netflix filmy kręci, naukowcy książki piszą o tym, że Dolina Krzemowa stoi na pobieraniu wszelkich możliwych danych osobowych. Słynne sformułowanie Steva Jobsa Silicon Valley is not monolithic", We've always had a very different view of privacy than some of our colleagues in the Valley." tylko to potwierdza.

Żadnymi pieniędzmi nie jesteśmy w stanie zrównoważyć przewagi finansowej Doliny Krzemowej, USA, Chin

No ale wróćmy do tych badań, co ich niby nie ma. Zacznijmy od przejrzenia pierwszej z brzegu firmy technologicznej na A – znajdziemy głównie przykłady zastosowania AI do przetwarzania danych osobowych – w marketingu, customer experience, bankingu, zarządzania ludźmi, wyszukiwania danych, rozrywce itp. Wrzućmy w Google albo w jakieś AI przykłady użytku AI. Na 22 tylko 3 (rolnictwo, robotyka i astronomia) nie są bezpośrednio związane z przetwarzaniem danych osobowych. Pozostałe 21 to: e-commerce, edukacja, styl życia, nawigacja, mowa naturalna, rozpoznawanie obrazów, rozpoznawanie twarzy, zasoby ludzkie, zdrowie, gaming, samochody, media społecznościowe, marketing, chatoboty, finanse, cyberbezpieczeństwo, Podróże i transport, rozrywka . Ale ale... Zacznijmy od badania Pisma, czyli AIA. AIA reguluje taką SI, która może stwarzać zagrożenie dla OSÓB FIZYCZNYCH (nie dla korporacji), w tym:

  • systemy przetwarzające dane osobowe zakazane z uwagi na zagrożenie dla praw i wolności osób fizycznych (art. 5);
  • systemy grożące niebezpieczeństwem fizycznym DLA OSÓB FIZYCZNYCH z Załącznika I. Obszary z Załącznika I mają już funkcjonujące przymusowe systemy zarządzania zgodnością;
  • po trzecie systemy zagrażające prawom i wolnościom osób fizycznych z Załącznika III. Załącznik III wymienia: biometrię (rozpoznawanie emocji, zdalna identyfikacja, profilowanie osób) , cyfrową, drogową i mediową" infrastrukturę krytyczną, kształcenie i szkolenie zawodowe, zatrudnienie i zarządzanie pracownikami i dostęp do samozatrudnienia, kwalifikowanie osób do świadczeń zdrowotnych i innych świadczeń publicznych przez administrację, a także do żądania zwrotu takich świadczeń, ocena zdolności kredytowej, ocena ryzyka i cen ubezpieczeń, ocena priorytetu zgłoszeń alarmowych, ściganie przestępstw, ocena ryzyka migrantów, sądownictwo, wpływanie na decyzje wyborców.
  • Z tej wyliczanki nawet ruch drogowy i dostawa mediów wiąże się z istotnym przetwarzaniem danych osobowych, a pozostałe elementy polegają na przetwarzaniu danych osobowych.
  • deep fejki (mogące wprowadzić w błąd osoby fizyczne jak i wykorzystać dane osób fizycznych),
  • modele ogólnego zastosowania, które mogą narobić w zasadzie dowolnego bigosu i przy tym jeszcze podglądać i profilować użytkowników internetu i tych modeli (czyli przetwarzać ich dane osobowe jak i zbierać cudze dane osobowe), co oczywiście czynią.

Jeśli członek GRAI twierdzi, że sztuczna inteligencja przetwarza dane osobowe tylko pomagając przy makijażu i tylko za zgodą użytkownika, to ja się nie dziwie, że Ministerstwo wolało sobie powołać własny organ, gdzie takie brednie będzie sobie można radośnie powtarzać.

Z przecieków informacji z prac nad wdrożeniem AIA w Polsce wiadomo, że w tej przepychance chodzi o to, żeby sparaliżować nadzór i zamienić go w rozdawnictwo kasy publicznej dla wiecznie głodnych firm technologicznych.

Koncepcja nadzoru wodzowskiego", który jak Ulrich von Jungingen będzie wieść natarcie polskiej" sztucznej inteligencji na cały świat, obrzucając firmy technologiczne miliardami z Funduszu Sztucznej Inteligencji brzmi jak z filmów Barei. Tymi miliardami (których zresztą nie ma) urzędnicy mogą co najwyżej komuś sypnąć w oczy i liczyć, że im z powrotem skapnie. Żadnymi pieniędzmi nie jesteśmy w stanie zrównoważyć przewagi finansowej Doliny Krzemowej, USA, Chin. Argument, że my tu mamy fikcyjnego nadzorcę, co najwyżej pozbawi zaufania do państwa jako instytucji. Tym bardziej, że cokolwiek Komisja będzie opowiadać, to PUODO i tak może i będzie wydawać decyzje względem zastosowania każdej technologii przetwarzającej dane osobowe. Za koncepcją wytworzenia takiego PRowego organu, jakim ma być ta Komisja, stoi więc prawdziwy Machiavelli Polski resortowej. Może ten od fundacji rodzinnych?

Opinia publiczna obroni Komisję przed degeneracją? Serio? Bo, niby, obroniła IDEAS? To jak w dowcipie. Kradnie Pan z budżetu? Tak, A co? Nie boi się Pan, że ktoś się dowie? No właśnie się Pan dowiedział, i co?

Komisja ma być nowoczesnym ośrodkiem kompetencji? Czy tak jak Ministerstwo Pracy zauważyło SI i chce chronić przed nią zawody? To zacząłbym od windziarza.

Komisja będzie szukać nowych obszarów regulacji? Może windy kosmiczne? Wydobywanie helu na Księżycu?

Angielskie powiedzenie pierdnąć w windzie" (fart in the elevator), oznacza powiedzieć coś nieprzyjemnego, ale niestety prawdziwego. Otóż powołanie Komisji ds. SI rodzi też ryzyko zachowań typu drzwi obrotowe" (revolving door), które doprowadziły do systemowej korupcji całego systemu nadzoru rynków w USA. Wiadome jest, że w zasadzie nikogo z sektora prywatnego nie stać na to, żeby zostać urzędnikiem i powiedzieć rodzinie, że od teraz rodzinny budżet kurczy się dziesięciokrotnie. Dlatego praca w sektorze publicznym to albo misja albo inwestycja. Jak misja to na całe życie. Ale jak inwestycja, to musi się zwrócić. I znamy takie przypadki, także w Polsce, że się zwróciło.

Z tej perspektywy to rzeczywiście, PUODO nigdy nie performował. Może właśnie dlatego autorom projektu ustawy o nadzorze nad SI nie podoba się wizja przeniesienia praktyki PUODO na obszar SI?

Pan nie wie, kim ja jestem! Na deser pozostawiłem sobie pierwszy zarzut Pana Mecenasa. Jest mi bardzo miło, że autor polemiki wywołał mnie do tablicy zarzucając", że jestem prawnikiem od ochrony danych osobowych, a nie prawnikiem od cyberbezpieczeństwa, własności intelektualnej czy, jak to sformułował, prawnikiem zajmującym się odpowiedzialnym tworzeniem i wykorzystaniem AI". Dla rzetelnej odpowiedzi na zagadnienia merytoryczne podnoszone przez mec. Sotowskiego, mogę, z czystym sumieniem, wypowiedzieć się na mój ulubiony temat, czyli na swój. Jestem uznanym prawnikiem IT, cloud computingu, cyberbezpieczeństwa, własności intelektualnej, ochrony danych osobowych i sztucznej inteligencji. I jeszcze rozwiązywania sporów.

Za podsumowanie niech posłużą nam dziś słowa Deny. Defend. Depose" odnalezione na łuskach pocisków, które kilka dni temu zabiły Briana Thompsona, prezesa firmy ubezpieczeniowej United Health, znanej z tego, że wykorzystywała algorytm sztucznej inteligencji nH Predict, któremu zarzuca się 90-cioprocentowy poziom błędów przy odrzucaniu roszczeń osób starszych dotyczących terapii przepisywanych im przez lekarzy. Jak widać, morderca Briana Thomsona jednak uczynił z takiego przetwarzania danych istotę sprawy.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More