Teknolojinin gelişmesiyle siber tehditler de artmaya başladı. Bu tehditlerden biri de DeepFake adındaki manipülasyon içeren görüntü ve sesin kullanıldığı videolar. Yapay zeka kullanılarak kişinin yüz görüntüsü dijital olarak kopyalanıp birebir canlandırılabiliyor, hatta ses bile ekleniyor. Aktör-aktris ve ünlülerin, internet ortamında çokça görüntüsü olduğu için DeepFake'leri yapılabildiği düşünülse de artık herhangi bir insan için de DeepFake yapılabilir hale geldi. Amatörlerin bir-iki günde ürettiği görüntüler daha çabuk fark edilebiliyor ama profesyonel olanların haftalarca çalışarak hazırladığı bu videolara dikkatlice bakmadıkça gerçek kişiden ayırt edilemiyor. Bir-iki sene içinde ise herkesin DeepFake'ini yapacak uygulamaların çıkabileceği ve bunun büyük bir tehlikeye neden olacağı öngörülüyor. DeepFake uzmanı, Zemana Bilişim Teknoloji Müdürü Yağızhan Atmaca, merak edilenleri SABAH'a anlattı.
"DeepFake teknolojisi adını 2000'li yılların en gözde dijital platformlarından reddit.com'daki Deepfakes lakaplı bir kullanıcıdan alıyor. Bu kullanıcı, yapay zeka teknolojisinin makine öğrenmesini içeren, genel kullanıma açılmış bir faceswap (yüz değiştirme) uygulamasını geliştirmeye odaklanınca, bu yepyeni teknolojinin de fitilini ateşlemiş oldu. Her ne kadar bu hesap daha sonra kapatılmış olsa da kıvılcım bir yangına dönüşmüştü bir kere..."
"DeepFake video oluşturmak isteyen bir kişi, yüzünü başka bir hedef videoya yapıştırmak istediği kişiye ait birden fazla görüntüye sahip olması gerekiyor. Kaynak görüntüdeki yüz, hedef videodaki kişinin yüzüne yapıştırılıyor. Bu sayede kişinin söylediği şeyleri, kaynak videodaki kişi söylüyormuş algısı oluşturuluyor. Her gün paylaştığımız fotoğraflarımız, bizi de gelecekte DeepFake kurbanı olmaya bir adım daha yaklaştırıyor."
ANLAMAMIZ MÜMKÜN DEĞİL
"Her ne kadar bir-iki günde amatör DeepFake üretilebilse de insan gözünün ayıramayacağı kalitede bir Deep- Fake yapmak haftalar sürebiliyor. Görsel Deepfake'lere göre ses çok daha yıkıcı bir tehlike olmasına rağmen şu an için ses klonlamak teknik olarak çok daha zor ancak yakın gelecekte bunu kolaylaştıracak teknolojilerin geliştirilebileceğini öngörüyoruz."
"Bir haber düşünün: Göz önünde olan bir politikacı, bir suça bulaşmış görünüyor. Ama siz, haber görüntüsünün gerçek mi sahte mi olduğu konusunda emin olamıyorsunuz. Korkunç, öyle değil mi? Peki kendi yüzünüzü uygunsuz bir filimde görseniz tepkiniz ne olurdu? Bu tarz içerikler pek çok kez üretildi ve üretilmeye devam ediliyor. DeepFake videolar henüz yeni olsa da her geçen gün daha da gerçekçi bir hale gelmeye devam ediyor. Daha korkutucu olan tarafı ise çok yakında bu tarz videoların herkes tarafından kolayca üretilebilecek olması. Durum böyle olunca Instagram hesabında kendi halinde fotoğraflarını paylaşan sıradan bir vatandaştan, ülkeyi yöneten bir politikacıya kadar herkes tehdit altında..."
"Görüntülü görüşme esnasında da yüz değişebiliyor ve bu tehlikeden en çok etkilenmesini beklediğimiz sektör finans sektörü çünkü finans sektörünün beklediği müşteri ediniminde yüz yüze olma şartını ortadan kaldıran digital onboarding yani uzaktan müşteri edinimi imkânını sağlayan düzenleme 1 Mayıs 2021'de devreye alındı. Canlı ses değiştirmek çok zor bir konu ancak saldırganların ses değiştirmesine gerek yok çünkü kimlik kartlarımızdaki çiplerde, biyometrik fotoğrafımız olduğu gibi biyometrik sesimiz yok. Bu yüzden bankaların, arayan kişinin sesini karşılaştırma imkânı zaten bulunmuyor."
"Amatör DeepFake'lerde garibimize gidecek çokça anormallik olduğundan sahte olduğunu kolayca anlayabiliriz ancak kaliteli yapılmış DeepFake'leri gözle anlamamız maalesef mümkün değil. Zemana'da son üç yıldan beri Deep- Fake'lerin tespiti üzerine çalışıyoruz ve ciddi yol kat ettik, herkesin ücretsiz kullanabileceği online platformumuz deepware.ai üzerinde şüphelendikleri videoları taratıp, sahte olup olmadığını öğrenebilirler. Online platformumuz tamamen otomatik ve yüzde 70 doğruluk payı ile çalışıyor ancak uzmanlarımızın mercek altına alıp derinlemesine incelediği videolarda yüzde 99 doğruluk payı ile sonuç verebiliyoruz."
"DÜNYA BU YENİ TEKNOLOJİYE HAZIR DEĞİL"
"Dünya bu teknolojiye hazır değil çünkü insanoğlunun daha öncelerden alışmış olduğu; gördüğüne ve duyduğuna yüzde yüz inanmaması gereken, Post Truth (Gerçeklik Ötesi) denilen bir çağa giriyoruz. 30 yıl önce Photoshop ilk çıktığında, insanların, montajlanmış sahte resimlere alışması beş yıl sürmüş olduğu düşünüldüğünde, ses ile birlikte bunun çok ötesinde bir konuya alışmamız çok daha uzun sürecektir ve tespit yöntemleri yerini daha güvenilir olan "authentication" dediğimiz dijital doğrulama sistemlerine bırakacaktır."
HİLELİ REKABET TUZAĞI
"Bir firma, diğer bir firmayı itibarsızlaştırmak veya istikrarını bozmak için onun hakkında yanlış bir algı yayıyor olabilir. Kötü niyetli aktörler, şirketinizin tüketici sahtekârlığı, rüşvet, cinsel taciz veya aklınıza gelebilecek herhangi bir suça karıştığı hakkında sahte haberler üretip yayabilirler."
SİBER ZORBALIK
"DeepFake; siber zorbalık, hakaret ve şantaj için kullanılabilir. 2017 yılında, aktrislerin ve ünlülerin yüzleriyle DeepFake 'ünlü pornografisi' büyük bir trend haline geldi. Benzer şekilde, gerçek suçlular da sahte kanıtlara dayanarak serbest bırakılabilirler ve cezadan kurtulabilirler. DeepFake adalete duyulan güvene karşı da büyük bir tehdit oluşturuyor."
ADALET İÇİN DE TEHDİT!
"Herkesin ihtiyaç duyduğu adalet sistemi de DeepFake tehdidi altında büyük zararlar görebilir. Sahte kanıtlar mahkemelerde kullanılarak, dava süreçleri manipüle edilebilir ve bu şekilde insanlar, işlemedikleri suçlarla suçlanabilir. Bu nedenle masum insanlar, haksız biçimde hapse girebilir."