2021 yılında yayımlanan bir yazıda teknoloji ve güvenlik ilişkisini yeni nesil bir gaddare olarak tanımlamıştım.[i] Yazıda anlatılmak istenen bir yandan teknolojinin güvenlik politikalarına olan katkısı, diğer taraftan teknolojik gelişmelerle gelen risklerin yeni güvenlik sorunlarına yol açmasıydı. Ancak üç yılda pek çok şey değişti ve geldiğimiz noktada yapay zekânın bizatihi kendisinin bir gaddareye dönüştüğünü görmek oldukça ürkütücü. Çünkü farklı politikalar açısından kullanışlı bir araç olabilen bu teknoloji, yapay zekânın hızlı gelişimiyle iki ucu keskin ve her yeri kesebilen bir araç halini aldı.
Son günlerdeki gelişmelerle de yapay zekâ tekrar en önemli gündem maddeleri arasında. Aslında alan, kontrolsüz bir hızla büyüyerek tüm olumlamalara karşın karanlık bölgeye göz kırpmaya devam ediyor. Hatta bu kontrolsüzlüğe karşı geçen yıl bu alanda çalışan, düşünen, araştırmalar yürüten yüzlerce kişi yapay zekâ çalışmalarında yeni aşamalara geçmeden bir süre verilmesi ve belirli sınırlar çizilmesini talep etmişti. Bu talep ve çağrının ana gayesi, yapay zekânın kontrolsüz büyümesinin olumsuz sonuçlar doğurabileceği korkusuydu.
Diğer taraftan bu çağrıların izdüşümünde ve benzer bir gayeyle Avrupa Birliği Yapay Zekâ Yasası hazırlandı. Bu yasaya hem Avrupalı şirketler tepki göstererek yapay zekâ alanındaki yarışta Avrupa'nın geride kalacağını belirtirken, hem de Avrupa'da da faaliyet gösteren bazı büyük teknoloji firmaları bazı yeni uygulamaları ve teknolojileri Avrupa Birliği üyesi ülkelerde kullanıma sokmamakla tehdit ettiler.
Ancak geçtiğimiz günlerdeki yeni gelişmeler gösteriyor ki bu çabalar teknoloji şirketlerini pek durdurmamış. Birkaç hafta önce OpenAI şirketi, ChatGPT olarak bilinen yapay zekâ destekli dil işleme modelinin yeni sürümünü GPT-4o'yu tanıttı. Bu duyuru sonrası ise pek çok tartışma başladı. Bir yandan eğitim sisteminde oto-öğrenim sistemlerinin ve kişiye özgü eğitim modellemelerinin artık mümkün olduğuna dair kullanım potansiyelleri paylaşıldı. Diğer taraftan tıp alanında çığır açacağı iddia edilen ve semptomlar üzerinden teşhis ve tanı yapabilme kapasitesi tartışıldı. Yeni modelin dil işleme yetenekleri dışında ses ve görüntü işleme kapasitesindeki artış da ayrıca dikkat çekti. GPT-4o'nun bir diğer özelliği ise Turing testinde üst düzey bir performans göstermesi oldu. Bu test, yeni modeli kullanan insanların çoğunun, konuştukları kişinin insan olduğuna inandığını gösteriyor. Yani tepkilerde insanileşme oranı artıyor ve hızlanıyor.
GPT-4o, işlenen verilerin uçtan uca tek bir yeni modelin eğitildiği ve tüm girdi ile çıktıların aynı sinir ağı tarafından işlendiği ilk model olması da dikkat çekici bir özellik olarak tanıtım metinlerinde yer aldı.
Google da 15 Mayıs'ta yıllık geliştirici konferansı I/O 2024'te yeni yapay zekâ dönemine geçişi açıklayarak Gemini 1.5 Pro ve yeni Gemini 1.5 Flash modellerini tanıttı. Gemini 1.5 Pro modelinde; çeviri, kodlama, akıl yürütme gibi temel kullanım alanlarında iyileştirmeler yapıldığı, Gemini 1.5 Flash'ın ise tepki hızıyla rakiplerinin önüne geçeceği iddia edildi. Diğer taraftan veri kullanımında da yeni açılımlar ve daha fazla ve çeşitli veri kullanımı (dolayısıyla daha fazla risk) yönünde bilgilendirmeler yapıldı.
Facebook, WhatsApp, Instagram gibi uygulamaların sahibi olan Meta şirketi ise kendi yapay zekâ modellemesi olan Chameleon'un tanıtımını yaptı. GPT-4o'ya rakip olması hedeflenen bu aracın da uçtan uca bir model olarak tasarlandığı ve farklı veri kaynaklarından ve türlerinden bütünleşik ve tekil bir işleme kapasitesine sahip olacağı iddia ediliyor.
Yine bu alanda öne çıkan bir diğer haber Sony tarafından Uluslararası Robotik ve Otomasyon Konferansı'nda duyurulan yapay zekâ destekli mikro-cerrahi yapabilen bir yeni robotik kollar oldu. Bir mısır tanesine mikro operasyon yapabilen bu aracın, ameliyatları hatasız bir şekilde ve otonom yapabileceği iddia edildi.
Dolayısıyla Mayıs ayı yapay zekâ araçları ve teknolojileri bakımından oldukça hareketli geçti. Yukarıda sıralanan gelişmeler daha çok şirketlerin çalışmaları ve kendi anlatılarıyla ilgili. Ancak yapay zekâyla ilgili bir diğer güncel gelişme İsrail'in Filistin'de sürdürdüğü saldırı ve katliamlarda yapay zekâyı da kullandığının ortaya çıkması.
Milyonlarca insana ait verileri işleyen İsrail, otonom saldırılar düzenlerken bu saldırılarda meydana gelen sivil kayıpları da önemsemiyor. Yani yapay zekâ masum sivillerin ölmesini umursamadan kararlar veriyor ve saldırıyı gerçekleştirecek şekilde işliyor.
İsrail'in pek çok alanda olduğu gibi yapay zekâda da sınırları zorluyor olması ve insanları umursamaması kötü kullanıma bir örnek. Uygulamayı geliştiren, verileri paylaşan şirketler muhakkak yalnızca etik değil, insani suçlamalarla karşılaşmalı. Öte yandan diğer şirketlerin de etik sınırlarla ilgili ciddi sorunlar ortaya koydukları görülüyor.
OpenAI şirketinin ChatGPT-4o'yu duyurmasından sonra Hollywood yıldızı Scarlett Johansson'un sesinin, yapay zekâ botu tarafından izinsiz kullanıldığı iddiaları ortaya atıldı. Kendisine teklif iletildiğini ve teklifi reddettiğini söyleyen Johansson buna rağmen kendi sesinin kullanıldığını iddia etti. Şirketin CEO'su Sam Altman ise önce farklı filmlerdeki seslerin işlendiğini ve sonuçta böyle bir ses çıktığını açıkladı. Ancak inandırıcı bulunmayan bu açıklama sonrası Washington Post gazetesinin bir araştırmasında, ismini vermek istemeyen başka birisinin sesinin kullanıldığına dair haberler yapıldı. Johansson haklı olarak bu olayı "deepfake" tartışmalarıyla ve etik ihlalle bağlantılı olarak eleştirdi.
OpenAI için müstakil bir tartışma da değildi bu. Öncelikle daha önce Twitter'ın el değiştirmesi sürecinde de gündeme gelen, şirket içi veri kullanımlarını ve etik ihlalleri izleyen benzer bir birimin Superalignment adıyla OpenAI'de de kurulacağı açıklanmış olmasına rağmen bu ekibin işlevsel olmadığı, ekibin başındaki ismin bir yıl geçmeden istifa ettiği ve ekibin dağıtıldığı ortaya çıktı. Diğer bir olay ise şirketten ayrılan çalışanları kamuoyu önünde şirketi eleştirmeleri halinde kazanılmış öz sermaye haklarının geri alabileceğine dair maddeler içeren bir gizlilik sözleşmesi imzalanmış olması. CEO Altman bu hususlardan da haberi olmadığını iddia etti.
Zaten birkaç ay önce ciddi tartışmalar yaşanan ve şirket yönetiminde değişimleri gündeme getiren tartışmalar, Microsoft'la olan ilişkiler, şirketin ana hedefinin değiştiğine yönelik eleştiriler gündemdeydi. Dolayısıyla yapay zekânın amiral gemisi olarak görülen OpenAI şirketine dair şimdiden etikle ilgili pek çok sorun alanı açılmış durumda. Bu gidişat da tabii ki gelişmeleri takip edenleri ürkütmeye devam ediyor. Çünkü şirketin GPT-4o ile başlattığı açılımda uygulamanın sınırlı ücretsiz kullanımı ve cüzi ücretli daha geniş kullanımında hedefin çok daha büyük bir veri setine ulaşmak olduğuna dair iddialar var. Burada ana gayenin ise yapay genel zekaya gidişin ancak büyük veri setlerinin çok daha genişletilmesi ve çeşitlenmesiyle mümkün olacağına dair inanç.
Yapay genel zeka ise distopik bilim kurgu filmlerinin ana aktörü aslında. Yani kabaca kendi kendine eyleme geçebilen, düşünen, düşünmeyi öğrenen, öğrenmeyi öğrenen ve insani ya da insan ötesi formlara dair bir geçiş.
Belki de gerçek felaket senaryosu. Belki de Matrix'e giden yolda yeni durak. Ancak bu alanın boş bırakılmaya gelmeyeceği muhakkak. AB'nin YZ Yasası bu anlamda sınırlı da olsa önemli. Daha kısıtlı olsa da ABD ve Çin de kendi düzenlemelerini yaptılar, ancak orada temel odak iki ülkenin bu alandaki rekabetiyle bağlantılı. Yani gelişimi değil, karşı tarafı engellemeye yönelik çabalar. Yakın zamanda ABD Senatosundan bir komisyon da Çin'in bu alandaki gelişmelerini engelleyecek ve ABD'yi öne geçirecek çabalara dair araştırmasını yayınladı.
Diğer bir gelişme ise izleyici yapı olarak İngiltere'nin öncülüğünde kurulan AI Güvenlik Enstitüsü'nün ABD'ye açılımına dair haberler. Enstitü 20 Mayıs'ta, bu yaz San Francisco'da ofis açacağını ve izleme faaliyetlerini arttıracağını açıkladı.
Bu çabalar ne kadar yeterli olacak bilmiyoruz. Bir yandan yarıştan geri kalmamak diğer taraftan bu yarışın yıkıcı etkilerinden korunmak zorundayız. Ülke olarak yapabileceklerimiz var muhakkak. Ancak ana odağımızın insanlık olması gerekliliğini de atlamamalıyız. Çünkü yapay zekâ adım adım değil, koşarak ve büyük adımlarla geliyor. Atılan her adımda da büyük çukurlar açarak, o çukurlara etik sorunları doldurarak ilerliyor. Bilim kurgu filmlerinin kurgu olmasını ümit ederek izlemeye devam ediyoruz.
[i] http://www.tid.web.tr/kurumlar/tid.web.tr/isd/201/cenaybabaoglu.pdf