Yani yapay zeka kamu için bir tehdit arzedebilir ve hukuk kurallarıyla düzenlenmesi gerekir diye görüş bildirmiş.

Geçtiğimiz aylarda, yine Elon Musk öncülüğünde geliştirilen bir yapay zeka botu, ünlü elektronik spor oyunu DOTA 2'de yenilmez kabul edilen insan oyuncuyu yenerek kabiliyetlerini sergilemişti. Yapay zeka botu yalnızca 6 aylık bir süre içinde kendi kendine karşı oynayarak antrenman yapmış ve en iyi insan oyuncuyu yenmeyi başarabilmişti. Buradan izleyebilirsiniz.

Kulağa tehlikeli geliyor mu?

DOTA 2'nin pek çok anlamda, özellikle bir yapay zeka için satrançtan çok daha fazla boyutlu, derinlikli bir oyun olduğu düşünülüyor.


2017 yılı içerisinde iktisat, hukuk, felsefe, etik ve sosyal bilimler alanında uzmanlar ile teknik/mühendis katılımcıların yapay zeka üzerine düzenledikleri Asilomar Konferansı'nın tebliğinde yer alan Asilomar Yapay Zeka Prensipleri ile bu işin gelecekte -insanlığın menfaatlerini koruma bakımından- nasıl bir rota izlemesi gerektiği konusunda ilk ciddi bildiri yayımlanmış oldu.

Prensipleri destekleyenler arasında Stephen Hawking, Elon Musk, Sam Altman, Sam Harris ve Jeff Dean gibi isimler de var.


Bu yazımda prensiplerin etik ve değerler alanında olanlarını listeleyeceğim. Bir sonraki yazımda ise bu prensipler üzerine görüşlerimi yazacağım.

Asilomar prensiplerine göre insanlık yapay zeka sistemleri ile ilgili tüm muamelelerde aşağıdaki ilkeleri izlemeli:

  1. Güvenlik: Yapay zeka sistemleri, çalışır halde bulundukları görev sürelerince güvenli ve emniyet altında olmalı ve bu durum, uygulanabilir olduğu ölçüde teyit edilebilir olmalıdır.
  2. Arızalar konusunda şeffaflık: Yapay zekanın bir zarara yol açması halinde, bu zarara neden yol açılmış olduğunun kesin olarak tespit edilebiliyor olması gerekir.
  3. Yargısal şeffaflık: Otonom herhangi bir sistemin yargısal muhakeme süreçlerine herhangi bir dahiliyeti olur ise, bu dahiliyetin içeriğiyle ilgili gerekçelendirme tatmin edici ölçüde yapılabiliyor olmalı ve bu etkiden ortaya çıkan sonuç, yetkin ve yetkili bir insan tarafından denetlenebilir olmalıdır.
  4. Sorumluluk: İleri yapay zeka sistemlerinin tasarımcı ve geliştiricileri, bu sistemlerin kullanımlarından, kötü kullanımlarından ve davranışlarından ötürü doğacak her türlü maddi ve manevi sorumlulukta pay sahibidir. Bu sorumluluk, doğacak etkileri şekillendirebilir olma yetkisinin de bir sonucudur.
  5. Değerlerin uyumlaştırılması: Yüksek ölçüde otonomiye sahip yapay zeka sistemleri, çalışır halde oldukları tüm zamanlar için geçerli olmak üzere, hedef ve davranışları insani değerlerle uyumlu olacak şekilde tasarlanmalıdır.
  6. İnsani değerler: Yapay zeka sistemleri, insan haysiyeti, hakları, özgürlükleri ve kültürel çeşitlilik gibi ideallerle uyumlu olacak biçimde tasarlanmalı ve işletilmelidir.
  7. Kişisel mahremiyet: Yapay zeka sistemlerinin verileri işleme ve kullanıma sunma kabiliyetleri ve gücü göz önüne alındığında insanların ürettikleri tüm verilere erişme, bunları yönetme ve kontrol etme hakları olmalıdır.
  8. Özgürlük ve mahremiyet: Yapay zekanın kişisel veriler üzerinde uygulamaları, insanların gerçek veya algılanan hürriyetleri üzerinde makul olmayan ölçüde sınırlandırıcı olmamalıdır.
  9. Paylaşılan fayda: Yapay zeka sistemleri mümkün olan en fazla sayıda insana fayda sağlamalı ve güçlendirmelidir.
  10. Paylaşılan refah: Yapay zeka sistemlerince üretilen ekonomik refah, geniş ölçekte ve tüm insanlığın faydasına olarak paylaşılmalıdır.
  11. İnsan kontrolü: İnsanlar, yapay zeka sistemlerine, insanlarca belirlenecek amaç ve görevlerin yerine getirilmesi esnasında kararlar alma yetkisini verip vermemeyi ve verilecek ise nasıl verileceğini tercih edebilmelidir.
  12. Bozguncu olmama: İleri derece yapay zeka sistemlerini kontrol etmek suretiyle elde edilen güç, toplumun sağlıklı işleyişinin üzerine bina edildiği sosyal ve medeni süreçlere saygılı olmalı ve bunları geliştirici tarzda olmalıdır. Bu süreçleri bozucu ve yıkıcı olmaktan kaçınmalıdır.
  13. Yapay zeka silahlanma yarışı: Ölümcül otonom silahlarda bir silahlanma yarışından kaçınılmalıdır.

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.