Türkiye'nin en iyi haber sitesi
FATİH SİNAN ESEN

Dezenformasyonda Yapay Zekâ Etkisi: Bizi Nasıl Bir Dünya Bekliyor?

Günümüz dünyasında bilgi akışının hızı ve yoğunluğu, beraberinde hem fırsatlar hem de tehditler getirmektedir. Bu bağlamda yapay zekâ teknolojilerinin gelişimi, bilgi üretimi ve yayılımı süreçlerinde devrim niteliğinde değişikliklere yol açmıştır. Ancak söz konusu gelişmeler, dezenformasyon gibi toplumsal bir sorunun da yeni boyutlar kazanmasına neden olmuştur. Yapay zekâ bir yandan dezenformasyonla mücadelede güçlü bir araç olarak kullanılabilirken, diğer yandan yanıltıcı içeriklerin üretimini ve yayılımını hızlandırma potansiyeline sahiptir.

Yapay Zekânın Dezenformasyonla Mücadeledeki Rolü

Yapay zekâ, sahip olduğu üstün analiz ve öğrenme kabiliyetleri sayesinde, dezenformasyonla mücadelede etkin bir şekilde kullanılabilmektedir. Örneğin sosyal medya platformları, yapay zekâ algoritmaları aracılığıyla şüpheli içerikleri tespit edip bunları hızla incelemeye alabilmektedir. Önde gelen sosyal medya platformları içerikleri analiz ederek potansiyel yanlış bilgi içeren paylaşımları belirleyebilmektedir. Benzer şekilde bazı bağımsız kuruluşlar da yapay zekâ teknolojilerini kullanarak çevrimiçi ortamdaki nefret söylemi ve dezenformasyonu tespit etmeye çalışmaktadır. Bu kuruluşların ne kadar bağımsız hareket ettikleri elbette bir soru işaretidir. Fakat yapılmak istenen şey zaten şüpheli içeriği tespit etmek olduğu için, gerçek ile sahteyi ayırmak da aslında öznel bir karar olacaktır. O nedenle, verinin, özellikle de büyük verinin bu konuda çok dikkatli ve olabildiğince tarafsız değerlendirilmesi önemlidir. Bu konuda çalışmaları olan bir araştırmacı olarak ne kadar zor bir işle uğraşıldığını belirtmem gerekiyor.

Diğer yandan, GPT, Claude, Gemini, Mistral gibi büyük dil modelleri de dezenformasyonla mücadelede önemli bir rol oynuyor. Bu modeller, geniş veri setleri üzerinde eğitilerek, insan diline yakın bir anlama ve üretme yeteneği kazanmışlardır. Bu sayede şüpheli içeriklerin doğruluğunu hızla kontrol edebilmekte ve güvenilir kaynaklarla karşılaştırma yapabilmektedirler. Örneğin OpenAI'nin GPT modeli, metin içeriklerindeki tutarsızlıkları ve mantık hatalarını tespit etmede kullanılabiliyor. Fakat yine aynı sorular gündeme geliyor: Veriyi kimler etiketledi, veri setindeki (varsa) önyargı giderildi mi, metni kimler hangi amaçla üretti?

Yapay Zekânın Dezenformasyonu Artırma Potansiyeli

Aynı teknolojiler, kötü niyetli kişilerin elinde dezenformasyonun üretimini ve yayılımını hızlandırma potansiyeline de sahiptir. Yapay zekâ destekli içerik üretim araçları, gerçeğe çok benzeyen ancak tamamen uydurma metinler, görseller ve hatta videolar oluşturabiliyor. Bu durum "Derin Sahte" (Deepfake) olarak adlandırılan manipüle edilmiş medya içeriklerinin yaygınlaşmasına neden oluyor. Derin Sahte dediğimiz şey yeri geldiğinde bir fotoğraf veya video olabilirken, yeri geldiğinde gerçeğine çok yakın şekilde hazırlanmış bir metin de olabiliyor.

Dolayısıyla söz konusu olumsuz etkiler de göz ardı edilmemelidir. Çünkü bahsedilen modeller inandırıcı ancak tamamen uydurma metinler üretebilme kapasitesine sahiplerdir. Bu durum, sahte haberler, yanıltıcı makaleler ve hatta sahte akademik çalışmaların üretimini kolaylaştırabilmektedir. Haber metinleri ve medya organları temelde insanlar içindir. Burada önemli olan temel nokta, insanları aldatabilme kabiliyetinin ne derece kuvvetli olduğunun bilinmesidir. Milyarlarca satırlık metin verisinden dilin yapılarını kavrayan, insanlar gibi yazabilen ve insanlar gibi aldatabilen modellerden bahsetmekteyiz.

Toplumsal Olaylarda Yapay Zekânın Etik Kullanımı

Yapay zekânın toplumsal olaylarda kullanımı, büyük bir dikkat ve sorumluluk gerektirmektedir. Özellikle seçim dönemleri, doğal afetler veya küresel krizler gibi hassas zamanlarda yapay zekâ teknolojilerinin etik ve sorumlu kullanımı kritik öneme sahiptir. Peki, dünyanın hâlihazırdaki dengesiz ve kaotik durumu, açlıklar, kıtlıklar, soykırımlar, savaşlar vb. göz önüne alındığında, bu etik ve sorumlu kullanım hedefine nasıl ulaşılacaktır?

Bu bağlamda yapay zekâ sistemlerinin şeffaflığı ve hesap verebilirliği ön plana çıkmaktadır. Algoritmik kararların nasıl alındığının açıklanabilir olması, toplumun bu teknolojilere olan güvenini artıracaktır. Ayrıca yapay zekâ sistemlerinin eğitiminde kullanılan veri setlerinin çeşitliliği ve tarafsızlığı da büyük önem taşımaktadır. Tüm bunların devletlere veya küçük gruplara bırakılmadan, kapsayıcı ve uluslararası otoriteler tarafından şeffaf bir şekilde tartışılarak alınacak kararlarla sabitlenmesi ve herkes tarafından somut uygulama örnekleriyle bilinmesi gerekiyor.

Derin Sahte (Deepfake) Teknolojisi ve Toplumsal Etkileri

Derin Sahte teknolojisine ayrı bir başlık ayırmak daha uygun olacaktır, çünkü yapay zekânın dezenformasyon üretimindeki en çarpıcı örneklerinden biri konumundadır. Bu teknoloji, bir kişinin yüzünü veya sesini başka bir kişininki ile değiştirerek, gerçeğinden ayırt edilmesi zor olan sahte videolar üretebiliyor. Derin Sahte'nin potansiyel zararları oldukça geniş bir yelpazeye yayılıyor. Bireysel düzeyde kişilik hakları ihlalleri, itibar zedelenmesi ve siber zorbalık gibi sorunlara yol açabilirken, toplumsal düzeyde siyasi manipülasyon, kutuplaşma ve güven kaybı gibi ciddi sonuçlar doğurabilme potansiyelini görmekteyiz.

Çarpıcı bir örnek vermek gerekirse, 15 Temmuz 2016 akşamını ve gecesini bir hatırlayalım. Ülkemizin halk tarafından seçilmiş ilk Cumhurbaşkanını devirmek için gerçekleştirilmek istenen hain darbe girişimi sırasında TRT'nin hain darbeciler tarafından basıldığı, Cumhurbaşkanlığı Külliyesi'nin, TBMM'nin, TÜRKSAT'ın ve daha birçok resmî kuruluşun bombalandığı bir gecede Sayın Cumhurbaşkanımızın bir TV kanalı üzerinden yayınladığı bir video ile ilettiği mesajını ve halkımızı direnmeye davet etmesi kritik öneme sahipti. Şimdi de o mesajın çok farklı bir saik ile bir Derin Sahte videosu olarak hazırlanma ihtimalini ve videoda Sayın Cumhurbaşkanımıza bambaşka şeyler söyletildiğini hayal edelim. Böylesine hayatî bir günde, durumda ve konuda devletin en üst kademesinden yapılacak bir açıklamanın ne kadar önemli olduğunu ve kitleleri harekete geçirebileceğini yaşayarak gördük. Bu sayede söz konusu hain darbe girişiminin püskürtüldüğünü de biliyoruz. Fakat o video yerine, şu anki teknoloji ile kolaylıkla hazırlanabilecek bir sahte videonun ne boyutta olumsuz sonuçlarının olabileceğini de tahayyül edebiliyoruz. 252 şehidimizi bu vesileyle rahmetle ve minnetle anıyoruz.

Elbette Derin Sahte olarak adlandırdığımız bu potansiyel tehdidin bertaraf edilmesi için, yani Derin Sahte'nin olası zararlarına tehdidine karşı, teknoloji şirketleri ve araştırmacılar çeşitli önleme ve tespit sistemleri geliştirmek için çalışıyorlar. İrili ufaklı birçok firmanın "Deepfake Detection Challenge" (Derin Sahte Tespit Yarışması) veya benzeri isimlerle bu alanda önemli adımlar attıklarını biliyoruz. Bu tür projeler kapsamında, yapay zekâ araştırmacıları, Derin Sahte videolarını tespit edebilen algoritmalar geliştirmek için yarışıyorlar. Sonunda da milyon dolarların telaffuz edildiği çok büyük ödüller var. Çünkü konu çok stratejik ve her yeni teknolojide olduğu gibi risklerin en aza indirgenmesi gerekiyor. Güncel çalışmalar yüz hareketlerindeki tutarsızlıkları tespit etmek, ses analizleri ile tespit yoluna gitmek ve videonun meta verisini inceleyen algoritmalar üzerine yoğunlaşıyor.

Eleştirel Düşünmenin Önemi ve Toplumsal Sorumluluk

Teknoloji her zaman gelişecek ve gelişmeye de devam edecektir. Riskleri azaltmak içinse çalışmalar devam edecektir. Bu doğal bir seyirdir ve sürecektir. Fakat bu süreçte insanlara hangi görevler düşmektedir? Bizim nasıl davranmamız ve çevremize neyi telkin etmemiz gerekiyor?

Temel olarak, yapay zekânın dezenformasyon üzerindeki çift yönlü etkisi, öyle ya da böyle, bizleri daha dikkatli ve sorgulayıcı olmaya itiyor, itmesi gerekiyor. Teknolojik gelişmeler ışığında bireylerin gördükleri ve okudukları her şeyi mutlaka akıl süzgecinden birkaç defa geçirmeleri, sorgulamaları, resmî ve güvenilir kaynaklardan teyit etmeleri ve eğer çevreleri ile paylaşmak istiyorlarsa tüm bu filtrelerden geçirdikten sonra paylaşmaları gerekiyor. Bu noktada hem dijital okuryazarlığın hem de eleştirel düşünme becerilerinin geliştirilmesinin öncelenmesi faydalı olacaktır. Bu sadece bireysel bir sorumluluk değil, aynı zamanda toplumsal bir zorunluluk haline gelmiştir.

Birey ve toplum olarak eleştirel düşünme, dezenformasyonla mücadelede en etkili silahımızdır. Bu beceri, bilgiyi pasif bir şekilde kabul etmek yerine, aktif bir şekilde analiz etmeyi, değerlendirmeyi ve sorgulamayı içerir. Kaynakların güvenilirliğini kontrol etmek, çoklu kaynaklardan doğrulama yapmak ve şüpheci bir yaklaşım benimsemek, yapay zekâ çağında hayati önem taşıyor. Her dakika bilgi bombardımanına maruz kaldığımız böylesine bir dönemde bilgi kirliliğinin içinden doğru ve güvenilir bilgiyi ancak bu şekilde ayırt edebiliriz. Örneğin medya okuryazarlığı ve dijital okuryazarlık derslerinin müfredata dâhil edilmesi, gelecek nesillerin dezenformasyona karşı daha dirençli olmasını sağlayabilir. Ayrıca yaşam boyu öğrenme programları ve halka açık eğitimler aracılığıyla yetişkinlerin de bu becerileri geliştirmelerine olanak tanınabilir.

Özetle yapay zekâ teknolojileri, dezenformasyonla mücadelede güçlü bir araç olabileceği gibi, yanlış kullanıldığında tehlikeli bir silaha da dönüşebilmektedir. Bu nedenle hem bireysel hem de kurumsal düzeyde, yapay zekânın etik ve sorumlu kullanımı konusunda farkındalık oluşturmak ve gerekli önlemleri almak geleceğimiz için kritik öneme sahiptir. Teknoloji şirketleri, içerik üreticileri ve medya kuruluşları, yapay zekâ teknolojilerini kullanırken şeffaflık ve hesap verebilirlik ilkelerini benimsemelidir. Aynı zamanda eşit temsiliyetle tekrar şekillendirilen güvenilir uluslararası kuruluşlar yapay zekâ ve dezenformasyon konusunda düzenleyici çerçeveler oluşturmalıdır. Bu düzenlemeler, teknolojik gelişmeleri engellemeden ve toplumsal çıkarları koruyacak şekilde tasarlanmalıdır.

Örneğin Derin Sahte içeriklerin üretimini ve yayılımını kontrol altına alacak yasalar çıkarılabilir veya yapay zekâ sistemlerinin kararlarının açıklanabilirliğini zorunlu kılan düzenlemeler yapılabilir (XAI, Explainable AI veya Açıklanabilir YZ). Gerçekten sivil olan sivil toplum kuruluşları ve akademik kurumlar da bu mücadelede önemli bir rol oynamalıdır. Dezenformasyon ve yapay zekâ konusunda kamuoyunu bilinçlendirme kampanyaları düzenlemek, araştırmalar yapmak ve politika önerileri geliştirmek, toplumun bu konudaki farkındalığını mutlaka artıracaktır.

Ne yaparsak yapalım, şunu unutmamalıyız: Doğru bilgiye ulaşmak ve gerçeği savunmak, demokratik bir toplumun ve sağlıklı bir bilgi ekosistemin temel gereksinimidir. Bu nedenle yapay zekâ ve dezenformasyon konusundaki farkındalığımızı sürekli olarak güncel tutmalı ve bu alandaki gelişmeleri yakından takip etmeliyiz.

Yasal Uyarı: Yayınlanan köşe yazısı/haberin tüm hakları Turkuvaz Medya Grubu’na aittir. Kaynak gösterilse veya habere aktif link verilse dahi köşe yazısı/haberin tamamı ya da bir bölümü kesinlikle kullanılamaz.
Ayrıntılar için lütfen tıklayın.
SON DAKİKA