Cahit Arf'ın "Makinalar Düşünebilir mi ve Nasıl Düşünebilir" makalesinin üzerinden 60 yıldan fazla zaman geçti. Geçtiğimiz 60 yılda yapay zekâ sistemlerinde birçok değişim ve yenilik meydana geldi. 21. yüzyılın ilk çeyreğini bitirmeye yaklaşırken yapay zekâ hayatımızın birçok alanında devrim yaratma potansiyeline sahip genel amaçlı bir teknolojiye doğru evrilmekte. Nitekim yılın son ayına girerken, 2023 yılı yapay zekâ teknolojisi ve özellikle derin öğrenme modellerinde baş döndürücü teknolojik gelişmeler yaşanıyor. Özellikle dilimize "üretken yapay zekâ" olarak çevrilen "generative AI" sistemleri, Open AI şirketinin ChatGPT uygulaması ile birlikte toplumun her kesiminde geniş yankı uyandırdı.
Üretken yapay zekâ sistemleriyle birlikte meydana gelen teknolojideki çok boyutlu dönüşüm, kamuoyu tarafından büyük bir ilgiyle karşılansa da birçok uzman ve bilim insanı yapay zekadaki bu ani hızlanmayı endişe verici olarak nitelendiriyor. Öyle ki dünya genelinde birçok araştırmacı ve geliştirici tüm yapay zekâ laboratuvarlarının GPT-4'ten daha güçlü sistemlerin geliştirilmesine en az altı ay ara vermesi çağrısında bulundu. Bu açık çağrıya ek olarak birçok uzman ve politika yapıcı yapay zeka ile ilgili düzenleme ihtiyacına dikkat çekmekte.
Yapay Zekâ Yarışından Yapay Zekâ Düzenleme Yarışına
Ülkeler ve bölgeler arasındaki yapay zekâ yarışının bir sonraki rekabet sahası yapay zekâ düzenlemeleri ekseninde genişlemektedir. Yapay zekâ yarışının öncü ülkeleri ABD, Çin ve İngiltere yapay zekanın düzenlenmesi ve standartlarının oluşturulmasında farklı politika ve stratejileri benimsemektedir. Ancak bu ülkeler tarafından paylaşılan politika stratejilerinin temel yaklaşımının yapay zekâ düzenlenmelerinin olabildiğince pragmatik ve esnek şekilde dizayn edilmesi ve rekabetçi avantajı korumak üzerine kurgulandığı görülmektedir. Öte yandan AB'nin geçtiğimiz günlerde üzerinde uzlaştığı "AB Yapay Zeka Yasası" ise kapsamlı düzenleme modeli ile içerik olarak farklı bir strateji izlemektedir.
Bununla birlikte düzenlemenin ana hatlarını risk temelli düzenleme yaklaşımı oluşturmaktadır. Bu çerçevede temel haklar ve toplumsal değerler için önemli riskler oluşturduğu düşünülen yüksek riskli yapay zekâ sistemleri, zorunlu uygunluk değerlendirmeleri, insan gözetimi ve veri yönetişimi dahil çeşitli şeffaflık gereksinimleri ve hesap verebilirliği teşvik edecek yasal yükümlülükler getirmektedir. Öte yandan AB Yapay Zekâ Yasası'nın ihlaline ilişkin para cezaları gibi çeşitli caydırıcılıklar da yasanın kapsamı içerisindedir. Cezalar, ihlale ve şirketin büyüklüğüne bağlı olarak değişmektedir.
Yasa, üretken yapay zekâ sistemlerine yönelik şeffaflık gereklilikleri getirirken genel amaçlı yapay zekâ için iki aşamalı bir yaklaşım benimsemiştir. Buna göre belirli bir hesaplama eşiğine sahip modellerin yüksek sistemik risk taşıdığı kabul edilecek ve daha sıkı yükümlülüklere tabi tutulacaktır. Bu düzenleme AB Yapay Zekâ Yasası'nın olası "yapay genel zeka" (AGI) evrimine yönelik tedbirleri olarak değerlendirilebilir. Söz konusu tedbirler arasında ise model değerlendirmelerinin yapılması, sistemik risklerin değerlendirilmesi ve siber güvenlik önlemleri hakkında Komisyona rapor verilmesi yer almaktadır.
Anlaşma aynı zamanda yenilikçi yapay zekâ sistemlerinin geliştirilmesi, test edilmesi ve doğrulanması için kontrollü ortamlar olan "yapay zekâ düzenleyici sanal alanlarıyla" ilgili güncellemeler de yapmaktadır. Bu yaklaşım AB'nin risk odaklı düzenleme yaklaşımına ek olarak nispeten düşük riskli uygulamalarda daha esnek ve katılımcı bir politika benimsediği göstermektedir. Buna ek olarak Yasa, AB komisyonu altında "Yapay Zekâ Ofisi"nin kurulması için adımlar atıldığına dikkat çekmektedir. Yapay Zekâ Ofisi gelişmiş yapay zekâ modellerini denetlemek, standartların ve test uygulamalarının geliştirilmesine katkıda bulunmak ve üye devletlerde düzenleme ve standartların tek tip uygulanmasını koordine etmekle görevlendirilecektir.
AB Yasasındaki Risk Temelli Yaklaşım
AB Yapay Zekâ Yasası, bir yapay zekâ sisteminin insan onuru, güvenliği ve özgürlüğü için oluşturduğu risk düzeyine bağlı olarak farklı yaptırımların uygulandığı risk temelli bir yaklaşımı benimsemektedir. İlk olarak düşük riskteki yapay zekâ uygulamaları, ek yasal yükümlülükler olmaksızın mevcut mevzuata tabi olarak geliştirilebilir ve kullanılabilir uygulamaları ifade etmektedir. Şu anda kullanılan veya kullanılması muhtemel yapay zekâ sistemlerinin büyük çoğunluğu bu kategoriye girmektedir. Söz konusu kategoride net bir yaptırım olmamakla birlikte Yasa, güvenilir yapay zeka sistemlerinin geliştirilmesi için gönüllü önlemleri desteklemektedir.
İnsanların güvenliği veya temel hakları üzerinde (AB Temel Haklar Şartı tarafından korunduğu şekliyle) olumsuz etki yaratma potansiyeline sahip yapay zekâ sistemleri yüksek riskli olarak değerlendirilmektedir. Yasanın ek bölümünde yapay zekâ kullanım durumlarının gelişimine uyum sağlamak üzere gözden geçirilebilecek yüksek riskli yapay zekâ sistemlerinin listesi yer almaktadır. Yasa ayrıca yüksek riskli uygulamaları içeren listenin "zamanla güncelleneceğine" dikkat çekmiştir.
Temel hakları ihlal ettiği için AB değerlerine aykırı olan ve bu nedenle yasaklanacak olan uygulamalar ise kabul edilemez risk olarak kategorisinde değerlendirilmektedir. Yasa'daki en dikkat çekici nokta olan bu bölüm, bir dizi uygulamanın yasaklanmasını içermektedir. Bunlar arasında sosyal puanlama, biyometrik sınıflandırma, gerçek zamanlı uzaktan biyometrik tanımlama, duygu tanıma araçları gibi genelde biyometriklerden oluşan bir dizi spesifik yapay zekâ temelli uygulama yer almaktadır. Ancak Yasa'ya yönelik tartışmaların odağında yer alan kabul edilemez risk kategorisinde özelikle biyometrik sistemlerin terörle mücadele, cinayet ve çocuk kaçırma gibi özel durumlarda kullanımını mümkün kılacak istisnalar belirtilmiştir. Öte yandan Yasa'nın kabul edilemez risk kategorizasyonu bağlamında sağladığı istisnalar ve "esnek" tutum, Yasa'ya yönelik eleştirilerin temel odaklarından birini oluşturmaktadır.
Sonuç olarak risk temelli yaklaşım, kapsamlı yükümlülükler dizisi, yasaklar veya şeffaflık gereksinimi gibi bazı spesifik düzenleyici yaklaşımlar getirmektedir. Bu yaklaşım güvenilir yapay zekanın desteklenmesi ve temel hakların korunması noktasında dengeleyici bir yaklaşım oluşturma motivasyonuyla kurgulanmıştır. Öte yandan AB Yapay Zekâ Yasası, yeni yapay zekâ uygulamalarına uyum sağlamak ve kamu çıkarlarını korumak için esnek bir çerçeve sağlama noktasında oldukça tartışmalıdır.
Cesur Fakat Eksik
AB Yapay Zekâ Yasası övgüye değer bir çaba olsa da potansiyelinin tam anlamıyla hayata geçirilmesi noktasında bazı zorluklar ve sınırlamalarla karşı karşıyadır. İlk olarak Yasa'nın üzerine kurgulandığı geniş yapay zeka tanımı, yasal belirsizlikleri artırmaktadır. Her ne kadar AB, OECD'nin güncel yapay zekâ tanımını esas alan bir yaklaşım benimsemiş olsa da basit algoritmalardan karmaşık sinir ağlarına kadar çok çeşitli yapay zeka sistemlerini etkili bir şekilde kategorilendirmek adına daha net tanımlamalara ihtiyaç vardır. Buna ek olarak yapay zekâ sistemlerinin dinamik doğası risk temelli kategorizasyona yönelik zorluklar doğurmaktadır.
Yasa ile ilgili eleştirilen noktalardan bir diğeri ise öz düzenlemeye ve gönüllü iş birliğine dayanan uygulama mekanizmalarının yetersizliğine yöneliktir. Bu noktada özellikle düşük riskli yapay zeka uygulamalarına yönelik düzenleyici yaklaşımla ilgili soru işaretleri bulunmaktadır. Bir diğer husus yasanın uygulanışının denetlenmesi ve koordine edilmesidir. AB Yapay Zekâ Ofisi ve birlik içindeki ulusal otoriteler ağı düzenlemeyi denetlemek ve uygulamak için yeterli yetkiye sahip değildir. Özellikle kabul edilemez risk sınıflandırmasında yer alan canlı yüz tanıması sistemleri gibi biyometrik yapay zekâ sistemlerinin yasaklanmasına yönelik atılacak adımlarda AB içinde uzlaşma sağlanmak kolay olmayacaktır. Bu uygulamaların kolluk ve polis kuvvetleri tarafından kullanımının meşruluğu ve orantılılığı ile ilgili tartışmalar ise halen sürmektedir. Buna ek olarak askeri veya savunma amaçlı kullanılan yapay zekâ sistemlerinin Yasa'nın kapsamı dışında tutulmuş olması ise dikkat çekici bir diğer noktadır.
Öte yandan AB düzeyinde anlaşma yapılmış olmasına rağmen, nihai metin üzerinde henüz anlaşmaya varılmadığı ve ayrıntıların kesinleşmesi için teknik çalışmaların devam ettiği söylenmelidir. Yasa'nın henüz yasal bağlayıcılığı olmamakla birlikte 2024'ün başından itibaren kademeli olarak yürürlüğe gireceği düşünülmektedir.
Özetlemek gerekirse henüz hukuksal bağlayıcılığı olmayan AB Yapay Zekâ Yasası, risk temelli bir yaklaşım benimseyerek, belirli yapay zekâ uygulamalarını yasaklayarak ve şeffaflığı ve hesap verebilirliği teşvik ederek yapay zekanın temel haklar ve toplumsal değerlerle uyumlu bir şekilde geliştirilmesini ve kullanılmasını sağlamayı amaçlamaktadır. Yasanın uygulanmasında şüphesiz zorluklarla karşılaşacak olsa da yapay zekaya yönelik düzenleyici adımların atılması noktasında önemli sonuçlar doğuracaktır. Bu yasanın yapay zekâ yarışını nasıl etkileyeceği veya diğer ülkeler tarafından nasıl karşılanacağı şu an için belirsizliğini korurken yapay zekâ yarışının bir diğer kulvarının yapay zekâya yönelik norm üretme yarışı olacağına şüphe yok.