Derin
sahtecilik ve yapay zekâ
Mustafa
Durmuş
23
Mart 2024
Bir önceki yazımızda ele aldığımız dezenformasyonun en somut ve belki de en tehlikeli biçimlerinden biri “derin sahtecilik”(deepfakes) olarak da bilinen uygulamalardır.
Dijital medya kanallarında, dezenformasyon ve yanıltıcı içeriklerin önemli bir boyutunu fotoğraflar üzerinde yapılan dijital görüntü veya ses manipülasyonları oluşturur. Çünkü görüntüler ve fotoğraflar zihinde daha kalıcı ve güçlü bir etki yaratır. Bu güç, dijital görüntü manipülasyonları aracılığı ile dezenformasyon aracına dönüşebilir. Görüntü ve ses manipülasyonları, artık günümüzde kitleleri yanıltarak istenilen şekilde yönlendirmek, belirli bir bakış açısını dayatmak ve bir olayı çarpıtmak gibi farklı amaçlarla ve yapay zekâ teknolojileri ile kolay bir şekilde yapılabiliyor. (1)
Derin
sahtecilik (deepfakes)
Derin sahtecilik olarak da bilinen sentetik medya
alanındaki gelişmeler yüzünden medyadaki haber ve bilginin bir bilgisayar
tarafından mı üretildiğini yoksa gerçekten yaşanmış bir olaya mı dayandığını
bilmek giderek zorlaşıyor. Daha da önemlisi, sentetik medya (kısmen ya da
tamamen bilgisayarlar tarafından üretilen medya) yapay zekâ araçlarının
yaygınlaşmasıyla önem kazandı.
Bu derin sahtecilik gerçek insanların sesini ve
görünüşünü taklit etmek için kullanılabiliyor. Derin sahteci medya etkileyici
derecede gerçekçi ve fazla beceri ya da kaynak gerektirmiyor. Ayrıca derin
sahtecilik ses teknolojisi, tespit edilmesini zorlaştıran bir gelişmişlik
düzeyinde. Bu, birbirini izleyen teknolojilerin yüksek kaliteli içerik
üretimini neredeyse herkes için erişilebilir hale getirdiği daha geniş çaplı
dijital devrimin doruk noktası. (2)
Derin sahteciliğin, bir adayı güçlendirmenin ya da
zayıflatmanın/itibarsızlaştırmanın, bir siyasal partinin altını oymaya yönelik
bariz çabanın yanı sıra, ülkedeki farklı ulusal kimlikleri ve inanç gruplarını günah
keçisi ilan etmeye ve sorumlu gazeteciliği şeytanlaştırmaya ve kadınları ve kız
çocuklarını taciz edip korkutmaya dönük videolarla, onları seçime katılmaktan
vazgeçirmeye dönük çok sayıda kullanım alanı söz konusu olabiliyor.
Bir örnek vermek gerekirse, Ocak ayı sonlarında,
küresel pop ikonu Taylor Swift'in sahte pornografik görüntüleri X’te (eski
adıyla Twitter) 47 milyon görüntülenmeye ulaştı. (3)
Bu tür içeriklerin bir bireyin ruh sağlığına
verebileceği zararı hayal etmek zor değil. Ancak, derin sahteciliklerin genel
ya da yerel seçimler üzerinde ne kadar etkili olduğunu henüz tam olarak
bilemesek de, seçim süreçlerinde daha geniş bir ölçekte uygulandığından tüm toplumu
tehdit edebilir.
Endonezya,
Slovakya, Türkiye
Nitekim Ocak ayında yayımlanan bir makalede genel
seçimlerin 14 Şubat’ta yapılacağı Endonezya’da, sosyal medyada büyük hacimli
paylaşımlar yapmaları için para ödenen “buzzers” sürüsünün tüm hızıyla çalıştığına
vurgu yapılıyordu. Bunların amaçları seçmenleri etkilemekti. Öyle ki dijital
gürültünün ortasında, Monash Üniversitesi’nin Jakarta kampüsündeki sosyal
bilimci Ika Idris ve meslektaşları, nefret söylemindeki değişikliklerin yanı
sıra, bir başkan adayını Çince konuşurken gösteren ve Çin ile yakın bir
ittifakı ima eden yapay zekâ tarafından üretilen 'deepfake' video gibi yanlış
bilgilerin seçmenler üzerindeki etkisini izlemeye çalışıyorlardı. (4)
Keza Endonezya'daki son seçimlerde merhum Başkan
Suharto'yu “dirilten” bir derin sahteci/deepfake video yayınlandı. Bu video
görünüşte insanları oy vermeye teşvik etmek amacıyla hazırlanmıştı ancak
Suharto'nun liderliğini yaptığı siyasi parti tarafından hazırlandığı için
propaganda yapmakla suçlandı.
Derin sahteciliğin daha bariz bir kullanımı siyasi adaylar
hakkında yalanlar yaymaktır. Örneğin, Slovakya'nın Eylül 2023'teki parlamento
seçimlerinden günler önce yayınlanan yapay zekâ tarafından üretilen sahte ses,
İlerici Slovakya Partisi lideri M. Šimečka'yı bir gazeteciyle oylamaya nasıl
hile karıştırılacağını tartışmış gibi göstermeye çalıştı. Bu video seçim
kampanyasının son günlerinde yayınlandı zira bu dönem dezenformasyon ve
manipülasyon saldırıları için en uygun zaman öyle ki buna yanıt verebilmek için
çok az zaman kalıyor.(5)
Aslında bu durum Türkiye için de yabancı değil. 14-21
Mayıs 2023 Genel Seçimleri sırasında muhalefetin Cumhurbaşkanı adayı olan K.
Kılıçtaroğlu’nu Kandil ile aynı videoda gösteren ve sonrasında bunun kurmaca
olduğu Cumhurbaşkanı tarafından dahi kabul edilen bir sahte video (6) bizzat
Erdoğan tarafından kullanılmıştı.
Yapay zeka ve dezenformasyon
Yapay zekâ, insan zekâsı süreçlerinin makineler,
özellikle de bilgisayar sistemleri tarafından simüle edilmesidir. Yapay zekanın
spesifik uygulamaları arasında uzman sistemler, doğal dil işleme, konuşma
tanıma ve makine görüşü gibi uygulamalar yer alır. Aslında çoğu zaman, yapay zekâ
olarak adlandırılan şey makine öğrenimi gibi teknolojinin sadece bir
bileşenidir.
Genel olarak, yapay zekâ sistemleri büyük miktarlarda
etiketli eğitim verisi alarak, korelasyonlar ve örüntüler için verileri analiz
ederek ve gelecekteki durumlar hakkında tahminler yapmak için bu örüntüleri
kullanarak çalışır. Bu şekilde, metin örnekleriyle beslenen bir sohbet robotu
insanlarla gerçekçi iletişim kurmayı öğrenebilir veya bir görüntü tanıma aracı
milyonlarca örneği inceleyerek görüntülerdeki nesneleri tanımlamayı ve
açıklamayı öğrenebilir. Yeni, hızla gelişen üretken yapay zekâ teknikleri
gerçekçi metinler, görüntüler, müzik ve diğer medyayı yaratabilir. Özetle, yapay
zekâ, yaşama ve çalışma tarzımızı değiştirme potansiyeli açısından önemlidir. (7)
Yapay
zekâ: Öğrenen ve zekâsını artıran robot
Yapay zekâ ile sadece önceden programlanmış
talimatları yerine getiren değil, aynı zamanda deneyim ve yeni durumlarla, daha
fazla yeni program ve talimat öğrenen makineler de kastedilir. Yani yapay zekâ, aslında öğrenen ve zekâsını
arttıran robotlar anlamına gelir. Bu,
robotların gelişimi artan zekâya sahip daha fazla robot yapabilecekleri noktaya
kadar sürebilir. Gerçekten de bazı
insanlar yapay zekânın yakında insan zekâsını geçeceğini iddia etmektedirler. (8)
“Otomasyon, önceden programlanmış görevleri çok az
veya hiç insan müdahalesi olmadan tamamlayarak insan emeğinin yerini alan her
türlü teknoloji” olarak tanımlanabilir. Yapay zekâ ise, bir görevi tamamlamak için mevcut verileri
kullanan ve eylemlerini yeni bilgilerin ve programlamanın yorumlarına göre
uyarlayabilen bir otomasyon türü olarak ele alınabilir.
Birçok görev için, ChatGPT veya benzer şekilde
ayarlanmış bir yapay zekâ ideal bir çalışandır. Kodlamadaki temel ve sözdizimi
hatalarını hızlı bir şekilde bulabilir ve bunlar için doğru düzeltmeleri
önerebilir. Büyük veri setlerini analiz edebilir. Okunması kolay birçok içerik
yazabilir. Çocuklara öğretilebilecek veya okullarda öğretmenlere yardımcı
olarak kullanılabilecek temel şablonlar oluşturabilir. Power point slaytları
oluşturabilir, hatta nazik e-postalar bile yazabilir. (9)
Yaratıcı
(jeneratif) yapay zekâ; İyi mi, kötü mü?
Günümüzde, yaratıcı yapay zekâ (gen AI), genel yapay zekânın
ötesinde, inovasyon, büyüme ve üretkenlik alanlarında dönüştürücü etki
potansiyeli ile siyasal örgütler ve siyasal partiler için çok önemli fırsatlar sunuyor.
Öyle ki güvenilir yazılım kodu, metinler, konuşma metinleri, yüksek doğrulukta
görüntüler ve etkileşimli videolar üretebiliyor. (10)
İyiye bir örnek olarak; Varşova'nın 325 kilometre (200
mil) doğusundaki Poznan'da teknoloji araştırmacıları, mühendisler ve çocuk bakıcılarından
oluşan bir ekip küçük bir devrim üzerinde çalışıyor. Ortak projeleri olan
"Insension", ileri derecede zihinsel ve çoklu engelleri olan
çocukların başkalarıyla ve çevreleriyle etkileşime girmelerine ve dünyayla daha
bağlantılı hale gelmelerine yardımcı olmak için yapay zekâ destekli yüz tanıma
özelliğini kullanıyor. Bu, hızla ilerleyen teknolojinin gücünün bir kanıtıdır.
(11)
Diğer taraftan, yaratıcı yapay zekâ ile ilişkili
riskler, temel eğitim verilerinde gömülü olan yanlış çıktılar ve önyargılardan,
büyük ölçekli yanlış bilgilendirme ve siyaset ve kişisel refah üzerinde kötü
niyetli etki potansiyeline kadar uzanıyor. Nörobilimdeki gelişmeler özgür
düşünceye yönelik bu tehdidi daha da artırıyor.
Bu bağlamda, kötüye kullanıma bir örnek olarak; Çin’in
başkenti Pekin’de, yapay zekâ destekli yüz tanıma, hükümet yetkilileri
tarafından vatandaşların günlük hareketlerini izlemek ve tüm nüfusu yakın
gözetim altında tutmak için kullanılıyor. Bu aslında aynı teknolojidir ancak
sonuç temelde farklıdır. Bu iki örnek, daha geniş kapsamlı yapay zekâ sorununu
özetlemektedir: “Temel teknoloji kendi içinde ne iyi ne de kötüdür, her şey onun
nasıl kullanıldığına bağlıdır”. (12)
Yapay zekâ ürünü haber yayınlayan internet sitelerinde
tamamen yanlış bilgileri öne çıkaran içerikler üretilebiliyor. Bunlardan biri
olan CelebritiesDeaths.com, bu yılın Nisan ayında, “Biden öldü. Harris
başkanlığa vekâlet ediyor, konuşma saat 09.00’da” başlıklı haber yayınladı. Haberde 80 yaşındaki ABD Başkanı Joe Biden'ın “uykusunda
huzur içinde” öldüğü iddia ediliyordu. (13)
Yapay zekâ ve emeğin sıradanlaştırılması
Günümüzde yapay zekâ ile ilgili tartışmalar, esas
olarak onun emeği sıradanlaştırması ve işleri işçilerin elinden alıp
almamasıyla sınırlı olarak yürütülüyor.
Nitekim yapay zeka, hamburger yapmak, hastalara
bakmak, makale yazmak (ChatGPT), karmaşık matematik ve bilgisayar kodlaması
yapmak, illüstrasyonlar yapmak, karmaşık yasal belgeleri analiz etmek ve hatta
kimin işe alınacağına ve işten çıkarılacağına karar vermek gibi çok çeşitli
işlere entegre ediliyor. Yapay zekânın insan çalışanların yerini tamamen
almasına ilişkin örnekler de giderek artıyor. (14)
Bu bağlamda, yapay zekâ aracılığıyla sermaye sınıfının
işgücü piyasalarını ve ekonomiyi temelden yeniden şekillendirmeye hazırlandığını
görmek gerekiyor. Bu durum emekçiler aleyhine gelişeceğinden ekonomideki
eşitsizlikler daha da kötüleşebilir.
Nitekim bazı araştırmacıların gerçekleştirdiği bir
araştırmanın sonuçlarına göre, yapay zekâ derin sahtecilik ve yanlış
bilgilendirme gibi daha geleneksel risklerinin dışında, arta yolsuzluklar, popülizm
ve seçkincilik biçiminde demokratik kurumları aşındırarak, demokrasi için de
büyük bir tehdit oluşturuyor. Zayıflayan demokrasi ise eşitsizlikleri
dizginleme konusundaki gücünü kaybedecektir. Bu durum, demokrasinin aşınması ve
eşitsizliğin artması şeklinde kısır bir geri besleme döngüsü yaratabilir ve bu
döngü, işçilerin yapay zekâ tarafından büyük ölçekli olarak yerlerinden
edilmesi gibi ekonomik bir şokun ardından hızla hızlanabilir. Sonuç, gelir
eşitsizliklerinin belirgin bir şekilde arttığı ve sıradan vatandaşların sesinin
iyice zayıfladığı bir durum olabilir. (15)
Ancak, yapay zekânın sınıf perspektifinden analizi,
onu insan emeğini sıradanlaştırmak ve yerini almak üzere tasarlanmış en son
teknoloji türü olarak görürken, onun insan işçileri geçersiz kılıp kılmayacağı,
onların işini kolaylaştırıp kolaylaştırmayacağı ya da daha fazla emek
sömürüsüne neden olup olmayacağı, özetle sermaye sınıfı ile işçi sınıfı
arasındaki sınıf mücadelesine, dolayısıyla da ikili arasındaki güç ilişkisine
ya da dengesine bağlı olacaktır. Nitekim güçlü sendikalar ve örgütlü bir işçi
sınıfı, artan üretkenliğin meyvelerini emekçiler lehine yeniden bölüştürebilir
veya çalışma koşullarını iyileştirebilir.
Propaganda
makinası olarak yapay zekâ
Yapay zekânın bir diğer boyutu etkili bir propaganda
makinası olarak kullanılabilmesidir. Öyle ki dil bilimci Chomsky’nin rıza
ürettiğini düşündüğü propaganda makineleri artık neredeyse yüzde yüz yapay zekâ
güdümlü bir konumdalar. Bu işi yapan bir devlet ya da hükümet değil - daha önce
hiç görmediğimiz bir kültürel ölçekte yapay zekânın dil kapasitesidir. Marksist
gelenekte buna ideoloji denir. Üretim ve kültürün sürekliliği hiç bu kadar
gerçek olmamıştır. (16)
Devam
edecek: Yapay zekânın seçimler üzerindeki olası etkileri
Dip notlar:
(1) https://www.guvenliweb.org.tr/blog-yazdir/dijital-mecralarda-dezenformasyon
(13
Mart 2024).
(2) https://theconversation.com/deepfakes-are-still-new-but-2024-could-be-the-year-they-have-an-impact-on-elections
(19 March 2024).
(3) Margrethe
Vestager , “How to Think About AI Policy”,
https://www.project-syndicate.org/magazine/europe-ai-regulation-focuses-on-uses-not-technology-by-margrethe-vestager
(11 March 2024).
(4) Deepfakes,
trolls and cybertroopers: how social media could sway elections in 2024, https://www.nature.com/articles (31
January 2024).
(5) https://theconversation.com/deepfakes-are-still-new-but-2024-could-be-the-year-they-have-an-impact-on-elections
(19 March 2024).
(6) https://onedio.com/haber/kilicdaroglu-nun-deep-fake-cikisinin-ardindan-o-goruntuler-yeniden-gundemde
( 4 Mayıs 2023).
(7) https://www.techtarget.com/searchenterpriseai/definition/AI-Artificial-Intelligence (18 Mart 2024).
(8) https://thenextrecession.wordpress.com/robots-and-ai-utopia-or-dystopia-part-one (23 August 2015).
(9) https://www.indiatoday.in/opinion-columns/story/chatgpt-must-lead-to-basic-income-for-everyone-and-an-end-to-bullshit-jobs-opinion
(23 December 2022).
(10) https://www.mckinsey.com/capabilities/risk-and-resilience/our-insights/implementing-generative-ai-with-speed-and-safety
(13 March 2024).
(11) Vestager, agç.
(12) Agç.
(13) https://tr.euronews.com/2023/05/02/rapor-yapay-zekayla-kurulan-haber-siteleri-yanlis-bilgilerin-yayilmasina-neden-oluyor
(2 May 2023).
(14) Robert
Ovetz, “AI and the Future of Work”, https://www.dollarsandsense.org
(Kasım/Aralık 2023).
(15) Stephanie A. Bell and Anton Korinek, “AI's Economic Peril”, Journal of
Democracy , Volume 34, Number 4, October 2023, Johns Hopkins University Press, https://muse.jhu.edu
(18 Mart 2024).
(16) https://jacobin.com/2024/01/the-silicon-tongued-devil
(18 Mart 2024).
Hiç yorum yok:
Yorum Gönder