Avrupa Komisyonu tarafından 2021 yılının Nisan ayında Avrupa Birliği Yapay Zekâ Düzenlemesi (“Düzenleme”)'ne ilişkin taslak metin ilk kez kamuoyuna duyurulmuştu1. Geçtiğimiz haziran ayında ise Avrupa Parlamentosu tarafından taslak Düzenleme'ye ilişkin değişiklik önerileri paylaşılmıştı2.

Bu doğrultuda Parlamento tarafından yapılan öneri ve eklemelerden biri de “yüksek riskli yapay zekâ sistemleri için temel haklar etki değerlendirmesi” başlıklı 29a maddesi oldu. 9 Aralık 2023'te Düzenleme'ye ilişkin Parlamento, Konsey ve Komisyon arasındaki üçlü görüşmelerde uzlaşmaya varıldı3. Ancak devam eden teknik toplantılar dolayısıyla üzerinde uzlaşma sağlanan metin henüz kamuoyuna duyurulmadı.

Yüksek Riskli Yapay Zekâ Sistemleri İçin Temel Haklar Etki Değerlendirmesi:

Parlamento tarafından önerilen değişiklikler kapsamında, 29a maddesi uyarınca Düzenleme'de tanımlanan yüksek riskli yapay zekâ sistemlerinin kullanılması durumunda sistem kullanıcılarının sistemin özel kullanımı bağlamındaki etkisine ilişkin bir değerlendirme yapma zorunluluğu öngörülmektedir. Bu yükümlülüğe tabi yüksek riskli yapay zekâ sistemleri kullanıcılarının yapay zekâ sistemini profesyonel amaçlarla kullanan kullanıcılar olduğunu da ifade etmek gerekir. 

Yüksek Riskli Yapay Zekâ Sistemleri Nelerdir?

Taslak Düzenleme'de yüksek riskli yapay zekâ sistemleri;

  • AB'nin ürün güvenliği mevzuatı kapsamına giren ürünlerde kullanılan yapay zekâ sistemleri,
  • Gerçek kişilerin biyometrik olarak tanımlanması ve sınıflandırılması,
  • Kritik altyapının yönetimi ve işletilmesi,
  • Eğitim ve mesleki eğitim,
  • İstihdam, çalışan yönetimi ve serbest mesleklere erişim,
  • Temel özel hizmetlere ve kamu hizmet ve yardımlarına erişim ve bunlardan yararlanma,
  • Kolluk kuvvetleri,
  • Göç, iltica ve sınır kontrol yönetimi,
  • Hukukun yorumlanması ve uygulanması konusunda destek

olarak belirtilmiştir. Bu bağlamda, yukarıda yer alan yüksek riskli yapay zekâ sistemlerinden faydalanan kullanıcılar için madde 29a uyarınca bu sistemlere yönelik temel haklar etki değerlendirmesi yapma yükümlülüğü öngörülmektedir.

Temel Haklar Etki Değerlendirmesinin İçermesi Gereken Hususlar:

Temel haklar etki değerlendirmesinin amacı, yüksek riskli yapay zekâ sistemlerinin kullanılması ile ortaya çıkabilecek risklerin belirlenmesini ve bu risklerin en aza indirilmesi için gerekli önlemlerin alınmasını sağlamaktır. Yüksek riskli yapay zekâ sistemi kullanıcılarının bu sistemi kullanmadan önce yapmaları gereken bu değerlendirmenin içeriğinde aşağıdaki hususların yer alması aranmaktadır. Buna göre, yüksek riskli yapay zekâ sistemi kullanıcılarının gerçekleştireceği temel haklar etki değerlendirmesi asgaride aşağıdaki hususları içermelidir:

  • Sistemin hangi amaçla kullanılacağına dair net bir taslak,
  • Sistemin kullanılması amaçlanan coğrafi ve zamansal kapsamının net bir taslağı,
  • Sistemin kullanımından etkilenmesi muhtemel gerçek kişi ve grup kategorileri,
  • Sistemin kullanımının temel haklara ilişkin ilgili Birlik hukuku ve ulusal hukuk ile uyumlu olduğunun doğrulaması,
  • Yüksek riskli yapay zekâ sisteminin kullanıma sokulmasının temel haklar üzerindeki makul olarak öngörülebilir etkisi,
  • Marjinalleştirilmiş kişileri veya hassas grupları etkilemesi muhtemel belirli zarar riskleri,
  • Sistemin kullanımının çevre üzerindeki makul olarak öngörülebilir olumsuz etkileri,
  • Tespit edilen zararların ve temel haklar üzerindeki olumsuz etkilerin nasıl hafifletileceğine ilişkin ayrıntılı bir plan,
  • İnsan gözetimi, şikayetlerin ele alınması ve telafi edilmesi de dahil olmak üzere kullanıcıların uygulamaya koyacağı yönetişim sistemi. 

Temel Haklar Etki Değerlendirmesi Bakımından Dikkat Edilmesi Gereken Hususlar

Yukarıda yer verdiğimiz hususları içermeyen bir etki değerlendirmesinin yapılması veya temel haklar etki değerlendirmesi sırasında tespit edilen risklerin azaltılmasına yönelik ayrıntılı bir planın bulunmaması halinde, yüksek riskli yapay zekâ sistemi kullanıcılarının bu sistemi kullanıma sokmaktan kaçınması gerekir. Aynı zamanda kullanıcının bu hususta sağlayıcıyı ve ulusal denetim makamını gecikmeksizin bilgilendirmesi gerektiği de değişiklik önerisinde yer almaktadır.

Temel haklar etki değerlendirmesi yapma yükümlülüğü ilk defa kullanıma sokulacak yüksek riskli yapay zekâ sistemleri için geçerlidir. Bu noktada kullanıcılar, benzer durumdaki yüksek riskli yapay zekâ sistemleri için daha önceden gerçekleştirilmiş veya halihazırda sağlayıcılar tarafından yürütülen temel haklar etki değerlendirmelerinden faydalanabilirler. Gelgelelim yüksek riskli yapay zekâ kullanıcıları ilgili sisteminin kullanımı bakımından gerçekleştirdikleri temel haklar etki değerlendirmesi ile sayılan hususların artık karşılanmadığını düşünürse, yeni bir temel haklar etki değerlendirmesi yapma zorunluluğu öngörülmektedir.

Temel haklar etki değerlendirmesini gerçekleştiren yüksek riskli yapay zekâ sistemi kullanıcılarının etki değerlendirmesi sırasında ulusal denetim makamını ve ilgili paydaşları bilgilendirmesi gereklidir. Bu bilgilendirmenin yanı sıra sistem kullanıcıları başta yüksek riskli yapay zekâ sisteminden etkilenmesi muhtemel kişi veya kişi gruplarının temsilcileri olmak üzere etki değerlendirmesine girdi sağlamak amacıyla, eşitlik kurumları, tüketici koruma kurumları ve veri koruma kurumları gibi diğer ilgili kurumları da etki değerlendirmesine ilişkin sürece dahil etmelidir. Önemle belirtmemiz gerekir ki yüksek riskli yapay zekâ sistemleri kullanıcısı olan KOBİ'ler değişiklik önerisinde temel haklar etki değerlendirmesi yapma yükümlülüğünden muaf tutulmuştur ancak KOBİ'ler gönüllü olarak bu değerlendirmeyi uygulayabilirler. 

Yüksek riskli yapay zekâ kullanıcısının yürüttüğü faaliyet gereği aynı zamanda Avrupa Birliği Genel Veri Koruma Düzenlemesi madde 35 uyarınca da bir veri koruma etki değerlendirmesi gerçekleştirmesi yükümlülüğü bulunuyorsa, kullanıcının temel haklar etki değerlendirmesini veri koruma etki değerlendirmesi ile birlikte gerçekleştirmesi gerekir.

Sonuç

Uzlaşılan metnin AB yasası olabilmesi için hem Parlamento hem de Konsey tarafından resmi olarak kabul edilmesi gerekmektedir. YZ Düzenlemesi'nin uygulanmaya başlanması ile birlikte, Avrupa Birliği'ndeki operasyonlarında, ürün ve hizmetlerinde yüksek riskli yapay zekâ sistemlerini kullanan şirketlerin temel haklar etki değerlendirmesi yapma yükümlülüğünü yerine getirmesi gerekecektir. Konuya ilişkin güncel gelişmelerle ilgili sizleri bilgilendirmeye devam edeceğiz.

Footnotes

1. European Commission, Prososal for AIA, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

2. European Parliament, Draft Compromise Amendments, https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/
COMMITTEES/CJ40/DV/2023/05-11/ConsolidatedCA_IMCOLIBE_AI_ACT_EN.pdf

3. Press release of the European Council on agreement after the trialogue, https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/; Press Release of the European Parliament on agreement after the trialogue, https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.