Yapay Zeka sihirli bir cümle gibi. Her girdiği yerde sanki pazarlama unsuru olarak kullanılmaya başladı. Daha akıllı ürün, daha akıllı servis algısı yarattığı için kullanılıyor. Medya giderek daha karmaşık hale gelen yapay zekanın değişik kategorilerini anlatmakta zorlanınca kolaya kaçmak için robotlarla anlatmaya çalışıyor. Oysa yapay zeka sadece robotlar değil hayatımıza giren ve girecek olan pek çok ürün ve serviste var. Her gün daha fazlası da ekleniyor. Yabancı dil çevirisinden akıllı asistanlara, sürücüsüz otomobilden yüz tanımaya farklı kullanım alanları bulunuyor. Yapay zeka kimi yerde derin öğrenme, doğal dil öğrenme kılığında karşımıza çıkıyor. Yani yapay zekayı farklı yetenekler geliştirerek bir çocuk büyütür gibi kullanıyoruz. İşte gelişen ve büyüyen çocuğun etik kaygıları veya vicdanı olsun istiyorsanız, etik değerleri unutmamak şart. Bir insan gibi büyüyen ve yetenekler kazanan yapay zeka teknolojisinin insan uygarlığına ait temel etik değerlere de sahip olması şart. İşte bu konuda dünya literatürüne katkı sağlayan Dr. Cansu Canca gibi akademisyene sahibiz. Milyarlarca kullanıcı verisine sahip şirketlerin yapay zeka tekeli oluşturma tehlikesine dikkat çeken Yapay Zeka Etik Laboratuvarı (AI Ethics Labhttps://aiethicslab.com/ cansu-canca/) kurucusu ve yöneticisi Dr Cansu Canca ile yapay zeka ile karşımıza çıkacak geleceğin görünmez duvarlarını, tehditleri ve fırsatları konuştuk.
GÜÇ ŞİRKETLERİN ELİNDE
Cansu Canca yapay zeka konusunda gücün sınırlı sayıda şirketin elinde toplanmasına dikkat çekerek şöyle konuştu: "Yapay zekâ ve etik ilişkisini ilginç kılan, yapay zekâ kullanan sistemlerin her sektörden teknolojiyi dönüştürme ve bunu yaparken de hayatımızı ve toplumu birçok yönden etkileme gücünün olması. Ve tabii bir de bu gücün belirli ellerde toplanıyor olması. Yani burada etiğin göz ardı edilmesi durumunda doğacak problemler bir yanda güvenerek (ya da üzerinde düşünmeyerek) kullandığımız sistemlerin bize zarar vermesi, diğer yanda ise biz farkında bile olmadan paylaştığımız bilgilerimiz sayesinde dünyada büyük bir gücün 5-10 şirketin elinde toplanması. Teknolojik, ekonomik ve sosyal değişim için de geçerli."
HER KONUDA KARŞIMIZA ÇIKACAK
"Etik kaygıları yapay zekâ geliştirme sürecine entegre etmemizin amacının sadece etik sorunları önlemek değil, buna ek olarak geliştirilen projelerin ve ürünlerin insanlara ve topluma olabildiğince faydalı olmasını sağlamak" olduğunu ifade eden Canca, kurumların etik sorunları çözmede kendileri sorumluluk almadıklarında, sistemin kendi katkıları olmadan, tamamen yasa koyucular tarafından hukuki düzenlemeler ile şekillenmesini kabullenmiş olduğunu belirtiyor. Canca, "Girişimler etik değerler konusunda daha değerli ve sorumluluk almaya kurumlara göre daha yatkın. Sonunda hepimiz tabi olacağız. Yani bu sistemlerin etik olması daha sonra siz bir işe başvururken, kredi başvurusu yaparken, sağlık veya eğitim hizmeti alırken, size karşı haksızlık yapılmaması için de önemli" diyor.
ALGORİTMALAR KONTROL ETMESİN
Doğru bilgiye erişimin önemine vurgu yapan Canca, "Demokrasi değerini, kişilerin doğru ve gerekli bilgilere sahip olarak, seçenekleri bilerek, kendi değerlerine göre karar vermesinden ve her bir bireyin bu şekilde söz sahibi olmasından alıyor. Bilgiye erişimimizin yapay zekâ kullanan sistemler tarafından düzenlendiği bir çağdayız. Öğrendiğimiz, araştırdığımız, gözümüze takılan, görmemiz istenen her şey kullandığımız Google, Facebook, Twitter ve hatta Google Scholar gibi platformların algoritmaları tarafından bize sunuluyor. Dolayısıyla, demokrasiye olan tehdit, tam da kişinin kendi kararını verebilmesi için ihtiyaç duyduğu bilgiyi ve seçenekleri öğrenmesi aşamasında devreye giriyor. Bunun yolu da artık yapay zeka kullanan sistemlerin bilgiyi düzenlemede kullanılırken doğru ve etik kullanımını sağlamaktan geçiyor" diye konuştu.
SORUNLAR YENİ DEĞİL ESKİ
Yapay zekâ kullanan sistemlerin ortaya koyduğu etik soruların çoğunun yeni olmadığına vurgu yapan Canca, "Bunlar çoğunlukla bildiğimiz, felsefe ve sosyal bilimlerde geniş literatürü olan sorular. Burada yapay zekânın esas etkisi problemlerin etki hızını ve alanını arttırması. Mesela, ayrımcılık (cinsiyet, sosyo- ekonimik statü, vb.) var olan ve kendini işe alımlardan ceza sistemine kadar çeşitli alanlarda gösteren bir sosyal sorun. Yapay zekâ kullanan sistemlerde ayrımcılık olması bunun daha sistematik, daha hızlı, ve daha çok kişiye karşı yapılması sonucunu doğuracak. Yani sorunun aslı değişmese de önemi bu şekilde yükselmiş oluyor" diye konuştu.