AB GÜNDEMİ: AB İçin Yeni Liderlik Alanı: Yapay Zekâ
AB İçin Yeni Liderlik Alanı: Yapay Zekâ
Avrupa Komisyonu, 21 Nisan 2021 tarihinde yaptığı bir açıklamayla yapay zekâ ile ilgili 108 sayfa ve dokuz ekten oluşan bir dizi yeni kural ve eylem önerisinde bulundu. Önerilerin temelinde Avrupa’yı güvenilir bir yapay zekâ merkezi yapmak amacı yatıyor. Avrupa Komisyonunun Dijital Çağa Uygun bir Avrupa’dan Sorumlu Başkan Yardımcısı Margrethe Vestager, “yapay zekâ alanında güven olursa iyi olur değil, olmazsa olmazdır” diyerek güvenin bu alanda önemini vurguladı. Komisyon bu öneriyle yapay zekâ konusunda dünyadaki ilk yasal çerçeveyi ortaya koyarak bir “ilk”e imza atmış oluyor. Avrupa’nın bu konudaki yaklaşımını yansıtan düzenleme aynı zamanda Avrupa’nın yapay zekâ alanında önder olma isteğinin de bir göstergesi. Yasal düzenlemenin yanı sıra Üye Devletlerle Koordineli Plan ve Araçlar konusunda getirilen uyarlanmış yeni kurallar Komisyonun önerisinin diğer bölümlerini oluşturuyor.
Yapay Zekâ Tanımı ve Kapsamı
Komisyonun 25 Nisan 2018 tarihli Avrupa için Yapay Zekâ Stratejisi kapsamında yaptığı tanıma göre yapay zekâ, belirli hedeflere ulaşmak amacıyla belirli bir derecede inisiyatif kullanarak çevrelerini analiz etmek ve sonucunda eylem alabilmek suretiyle akıllı bir davranış sergileyen sistemleri anlatıyor.
Şubat 2020 tarihli Yapay Zekâ Üzerine Beyaz Kitap kapsamında ise yapay zekânın toplum üzerindeki yadsınamayacak etkisi ve güven yaratma gereksinimi göz önünde bulundurularak, yapay zekânın Avrupa değerleri ve insan haysiyeti ve mahremiyetinin korunması gibi temel haklar üzerine dayandırılması gereğine atıfta bulunuluyor. 20 Ekim 2020 tarihinde AP’nin, mevcut yasal düzende yapay zekâ sistemlerinin yükümlülüğüne ilişkin bir disiplin olmayışını dile getirmesinin ardından Komisyon tarafından açıklanan 21 Nisan 2021 tarihli yeni öneri de yapay zekâ tanımını ileriye dönük olarak tanımlıyor. Yeni öneride yapay zekânın tanımının henüz geliştirilmemiş teknikleri de kapsayabilmesi için olabildiğince nötr olması, önerinin geleneksel yapay zekâdan hibrid sistemlere kadar tüm yapay zekâyı kapsamına alması ve yasal belirlilik olabilmesi için de tüm teknik ve yaklaşımların bir listesinin (Ek 1) yapılması gerektiği belirtiliyor. Bu özellikleri dikkate alarak yapay zekâyı “Ek 1’de yer alan teknik ve yaklaşımların biri veya birkaçını kullanarak geliştirilmiş ve insanlar tarafından tanımlanmış bir dizi hedef doğrultusunda içerik, tahmin, tavsiye veya etkileşim içinde bulundukları çevre ile ilgili karar üretebilen yazılım” olarak tanımlamakta.
Yapay zekâ sistemleri yazılım temelli olarak arama motorlarında, sesli yardımcılar veya ses ve yüz tarama, saklama ve tanıma sistemlerinde olduğu gibi bilgisayar donanım sistemlerinin kullanıldığı robotlar, insansız araba ve uçaklarda da kullanılabiliyor. Kronik hastalıkların tedavisinde, trafik kazalarında ölümlerin önlenmesi, iklim değişikliği ile mücadele ve siber güvenlik tehditlerini öngörmek kullanıldığı alanlardan diğerleri. Teknolojik gelişmelerin hızlanması ile birlikte toplumun yararına olabilecek birçok alanda potansiyel faydaları da artmakla birlikte bazı istenmeyen sonuçları da olabilmekte. Yapay zekâ sistemleri karmaşık, şeffaf olmayan, öngörülemeyen, otonom/bağımsız ve veri temelli olma özellikleri nedeniyle güvenlik riski oluşturabilmekte, temel haklar konusunda mevcut yasaların etkili bir şekilde uygulanmasına engel teşkil edebildiği görülmekte. Bu güvensizlik vatandaşların ve işyerlerinin yapay zekâyı kullanmakta yavaş davranmalarına neden olmakta, üye ülkelerdeki ulusal yetkili kurumların farklı düzenlemeleri ise iç pazarda bölünmelere yol açmakta. Risklerin ve fırsatların dengeli bir şekilde değerlendirilip yasal bir çerçeve içine oturtulması gereği ortaya çıkıyor. Tüm bu nedenlerden dolayı Komisyonun düzenleyici çerçeve önerisi, vatandaşların temel haklarını ve kullanıcıların güvenliğini korumak ve aynı zamanda da yapay zekâ gelişimini sağlamak amacını taşıyor.
Yapay Zekâya “Avrupalı” Yaklaşım
Yapay zekânın gelecekteki tüm tanımlarını da içerecek şekilde düzenlenen yeni kurallar risk temelli bir yaklaşıma sahip ve tüm üye ülkelerde aynı şekilde uygulanacak. Bu girişimle yapay zekânın değil, yapay zekânın uygulama alanlarını düzenlemek ve yasal bir çerçeve içine koymak ana amaç. Bunu yaparken de Avrupa değerleri ve temel haklara bağlı kalmak; yapay zekânın uygulamasının yaratacağı fırsatlarla risk arasında denge kurmak; inovasyonu engellemeden teşvik ederken yapay zekânın uygulama alanlarının kullanıcılar için güvenli olması ve güvenilir bir ortam sağlamak yeni kuralların belirleyici unsurlarından.
Bu amaca yönelik geniş bir uzman kadrosuyla çalışan Komisyon, yapay zekânın uygulama alanlarını kabul edilemez derecede riskli, yüksek derecede riskli, sınırlı risk ve minimal risk taşıyan uygulama alanları olarak kategorilere ayırdı. Bu kategorilerin oluşturulması için yüksek derecede riskin açık tanımı ile birlikte yasal çerçeve içinde yüksek derecede risk taşıyan sistemleri tanımlayabilmek için sağlam bir metodoloji ortaya koyuluyor. Komisyon, risk kategorilerini oluştururken söz konusu yapay zekâ sisteminin istenen amaca ve kullanım alanına, potansiyel olarak etkileyebileceği insan sayısını, sonucunu, yaratabileceği zararın geri çevrilebilir olmasını ve AB’deki mevcut kuralların olası riskleri azaltma yönünde etkili önlemlerinin alınıp alınmadığını göz önünde bulunduruyor.
Bu metodoloji ile belirlenmiş kategorilere göre bireylerin temel haklarına, güvenlik ve geçim haklarına tehdit oluşturan yapay zekânın her türlü uygulama alanı yasaklanıyor. Kullanıcıların özgür iradelerini etkilemek amacıyla insan davranışını manipüle etmek üzere tasarlanmış sistem ve uygulamalar ile hükümetlerin “sosyal puanlama” yapmasına olanak tanıyan sistemler kabul edilemez risk taşıyan grupta sayıldıklarından bu ilk gruba giriyor.
Vatandaşların sağlığını ve yaşamını tehlikeye sokabilecek olan ulaşım gibi kritik önemdeki altyapılar, istihdam ve işçi yönetimi gibi işe almaya ilişkin uygulamalar, bireylerin temel haklarını tehlikeye sokabilecek yasal uygulamalar, kanunların belli somut verilere göre uyarlanmasına olanak tanıyan adalet ve demokratik süreçlerin idaresinde kullanılan uygulamalar, göç, mülteciler ve sınır kontrollerine ilişkin olarak seyahat belgelerinin doğrulanması için uygulamalar ve benzerleri yüksek derecede riskli yapay zekâ uygulamaları arasında sayılıyor. Bunun dışında tıptan eğitime kadar olan birçok alanda tüm uzaktan biyometrik kimlik belirleme sistemleri yüksek derecede riskli uygulamalar sayılarak sıkı kurallara, değerlendirme, yasal izin ve denetime tabi olmaları öngörülüyor. Bu uygulamaların kamuya açık alanlarda canlı yayın kapsamında yasal uygulamalar için kullanılması ilke olarak yasak olacak. İzne tabi olarak uygulanabilecekleri şartlar ise son derece dar bir çerçevede tanımlanacak.
Belirli şeffaflık yükümlülüğü olan sistemlerin sınırlı risk kapsamına giren yapay zekâ uygulama alanları grubuna dâhil olmaları öngörülüyor; “chatbot” türü sistem kullanıcılarının bir makine ile iletişim içinde olduklarının farkında olmalarının gerekliliği gibi.
Komisyonun önerisi çerçevesinde yapay zekâ kullanan video oyunları veya internette istenmeyen posta filtreleri ise -çoğu yapay zekâ uygulamaları bu kategori altına giriyor- vatandaşların haklarına veya güvenliğine minimum düzeyde risk oluşturduğu veya hiç risk oluşturmadığı gerekçesiyle serbestçe kullanılabilecek.
Komisyonun önerdiği yasal çerçeve, AB vatandaşlarını etkileyen yapay zekâ sistemleri ile ilgili olarak AB içindeki ve dışındaki kamu ve özel tüm aktörlere/varlıklara uygulanabilecek. Bu kapsamda ithal olanlar da dâhil sistem sağlayıcılarını ve aynı zamanda kullanıcıları ilgilendiren kurallar bulunuyor. Profesyonel amaçla olmayan özel kullanımlar ise bu kurallara tâbi değil.
Bu yasal çerçevenin uygulanmasında ve yaptırımlar konusunda sorumluluğu Üye Devletler taşıyor. Piyasanın denetlenmesi ve bu yasal çerçevenin uygulanması için bir veya daha fazla ulusal yetkili oluşturmak ve bir yetkiliyi de kendi ülkesini temsil etmek üzere Avrupa Yapay Zekâ Kurulu’na (European Artificial Intelligence Board) atamak zorunda olacak. Bu Kurul’da ayrıca Avrupa Veri Koruma Denetçisi (European Data Protection Supervisor) ve Komisyon bulunuyor. Kurul, yüksek derecede riskli yapay zekâ sistemleri ile ilgili tavsiye ve fikir verecek ve standartlaşma konularında destek sağlayacak.
Önerinin Yansımaları
Avrupa Komisyonunun İç Pazardan Sorumlu Üyesi Thierry Breton’un, bu önerinin amacını “Avrupa’nın yapay zekâ alanındaki pozisyonunu güçlendirmek, laboratuardan piyasaya kadar mükemmel bir sistem oluşturmak ve bunu yaparken de yapay zekânın Avrupa değerlerine ve kurallarına saygılı olmasını ve sanayinin yapay zekânın potansiyelini kullanmasını sağlamak” sözleriyle anlatması bu alanda AB’nin ne kadar iddialı olduğunu çok net bir şekilde gösteriyor. Göreceli olarak kısa sürede hazırlanmış olan bu yasal çerçeve önerisi, sivil toplum kuruluşları ve AB yasa koyucuları tarafından çok detaylı bir şekilde incelenmeye başlandı bile. Sanayiye çok ılımlı yaklaştığı ve hükümetlere yapay zekâ kullanarak gözetleme konusunda çok geniş bir alan bıraktığı şeklinde eleştiriler dile getiriliyor. Öneri nedeniyle Avrupa’nın ABD ve Çin’den uzaklaşma olasılığı da yapılan analizler arasında. Çin’in teknoloji konusunda artan hırsı nedeniyle AB ile yakın ilişki arayışı içine giren ABD’nin bu alanda Avrupa’yı takip etmediği, yeni kurallar ile birlikte iki taraf arasındaki ayrılığın daha da artma olasılığına işaret ediliyor. Çin ile de arasındaki ayrımın yeni kurallarla daha da arttığına da değiniliyor. Bunun da başlıca nedeni Komisyonun öneride kabul edilemez riskler kapsamında Çin’de kullanılan sosyal puanlama sistemine atıfta bulunması ve AB’nin bu şekilde otoriter gözetleme sistemlerini kullanmayacağının işaretini vermesi olduğu söyleniyor. Yapay zekâ konusu gerek uygulama alanları gerekse AB’nin dünyada bu alandaki ilk yasal düzenlemeyle AB içinde ve dışında gündemi meşgul etmeye devam edecek gibi görünüyor.
Şehnaz Dölen, İKV Kıdemli Uzmanı