Share

AVUKAT IYAZ ÇİMEN ‘ SEÇİMLERE GİDERKEN DEEPFAKE TEHLİKESİ’Nİ DEĞERLENDİRDİ

Avukat Iyaz Çimen, günümüzde artan ve önemli bir tehdit haline gelen Deepfake teknolojisi hakkında açıklamasında: ‘ Deepfake, İngilizce bir kelimedir. Derin anlamına gelen “Deep” ve sahte anlamına gelen “Fake” kelimelerinin bir araya gelmesiyle oluşmuştur. Bir kişiyi yapay zekadan da faydalanarak hiç bulunmadığı bir video ya da fotoğrafa ekleme işlemidir. Bu durum kişinin izni ve bilgisi olmadığı takdirde birçok açıdan büyük sorunlara sebep olabilir.’ dedi.
Deepfake’in oluşturulmasını sağlayan birçok yöntem olduğunu belirten Çimen, ‘Derin sinir ağlarını ve otomatik kodlayıcıları içeren bu yöntem yapay zekâ ile çalışır. Deepfake için bir video belirlemek gerekir ve bu videoda yer alması istenilen kişinin görüntü ve videolarından oluşan dosyalara ihtiyaç vardır. Hedef video ve kişinin videoları tamamen alakasız olabilir. Bu Deepfake yapmaya engel bir durum değildir. Çünkü otomatik kodlayıcı, hedef kişinin farklı açıdan görüntülerini tespit ederek, hedef videoda benzerlikler gösteren kişi ile eşleştirmek üzerine çalışır.
Deepfake’nin genellikle bir kişiyi bir şey söylerken veya bir eylemde bulunurken göstermek için kullanıldığını, ancak bu kişi gerçekte bu sözleri söylememiş veya bu eylemi gerçekleştirmediği halde manipüle edildiğini, Bu teknolojinin, özellikle politik propaganda, sahte haberlerin yayılması veya kişisel saldırılar için potansiyel bir araç olarak ciddi endişelere yol açtığını belirtiyor.
Deepfake’ler, genellikle bir dizi fotoğrafı veya video kliplerini alır ve bu verileri kullanarak bir yapay sinir ağını (neural network) eğitir. Bu sinir ağı, bir kişinin yüzünün veya sesinin farklı yönlerini öğrenir ve bu bilgileri kullanarak yeni ve genellikle gerçekçi görünen videolar oluşturabilir. Deepfake’lerin potansiyel kötüye kullanımı nedeniyle, bu teknoloji üzerindeki düzenlemeler ve kontrol mekanizmaları üzerine tartışmalar sürmektedir.
Deepfake Nasıl Tespit Edilir?
Deepfake, yapay zekâ ile oluşturulduğundan profesyonel bir sahtecilik yöntemidir. Ancak belirli yöntemlerle Deepfake’i tespit etmek mümkündür. Bu yöntemler:
– Deepfake uygulandığını düşündüğünüz kişinin göz hareketlerine dikkat edebilirsiniz. Gözler, bulunulan video ortamından bağımsız hareket ediyorsa ya da hedef kişi gözlerini hiç kırpmıyorsa bu deepfake uygulandığına dair önemli bir bulgudur.
– Jest ve mimikler video teması ile örtüşmeyebilir.
– Deepfake gelişmiş teknolojinin kullanıldığı bir yöntem olsa da hedef kişinin yüz hatları her zaman başarılı bir şekilde videoya oturtulamaz. Örneğin yüzde orantısızlıklar, cilt tonunda eşitsizlikler oluşabilir. Aynı şekilde vücut şekli de yüz ile tam örtüşmeyebilir.
– Kişilerin videolardaki görüntüleri normal şartlarda video açısına, ışığına göre farklılık gösterir. Deepfake uygulanmış videolarda doğal ışık ve açılara uygun olarak hedef kişinin görüntüsünde değişiklikler oluşmaz.
– Saçlar, deepfake tespit edilmesinde önemli bir etkendir. Doğal akışta saçlar hareketlere uygun olarak dalgalanır ve yön değiştirir. Deepfake uygulandığında saçın hareket yönünde ciddi değişiklikler oluşabilir.
– Bu gözlemlerin dışında videonun sahte olup olmadığını anlamak için geliştirilen araçlardan da faydalanabilirsiniz.
Deepfake Nasıl Bir Tehdit Oluşturuyor?
Deepfake yapay zekâ tabanlı olduğundan gelişmiş bir teknolojidir. Hedef kişinin tüm hareketlerini, mimiklerini, yüz hatlarını en ince ayrıntısına kadar inceleyebilir ve konuşma şeklini öğrenir. Bu da oluşturulan kopyanın uygun özellikler taşıyan kişinin üzerine yerleştirmesini kolaylaştırır. Yani hedef haline gelen kişi daha önce hiç bulunmadığı bir ortamdaymış gibi gösterilebilir. Uygunsuz söylemlerde bulunduğu gerekçesi ile zan altında kalabilir ve birçok grup, kişi tarafından hedef gösterilebilir. Bu da karmaşa, yanlış anlaşılmalar hatta yasal olarak ceza almaya kadar kötü sonuçlar doğurabilir. Özellikle tanınan kişiler bu teknoloji yüzünden halk tarafından dışlanabilir ya da toplum baskısına maruz kalabilir.
Dünya nüfusunun yaklaşık dörtte biri 2024 yılında sandık başına gidecek. Dezenformasyon ve yapay zeka destekli hilelerin seçim sonuçlarını etkilemek için kullanılabileceğine dair endişeler artıyor. Uzmanlar deepfake örneklerinin yaygınlaşmasının sonuçlarından çekiniyor. Dijital güvenlik şirketi ESET deepfake konusunu masaya yatırdı, bunun  kitlesel bir aldatma silahı olup olmadığını inceledi. 
Yaklaşık iki milyar seçmen bu yıl tercih ettikleri temsilcilerine ve siyasi liderlerine oy vermek üzere seçim merkezlerine gidecek. Aralarında ABD, İngiltere ve Hindistan’ın da bulunduğu çok sayıda ülkede ( Avrupa Parlamentosu için de) önemli seçimler yapılacağından, bu durum önümüzdeki birkaç yıl ve sonrasında jeopolitiğin siyasi manzarasını ve yönünü değiştirme potansiyeline sahip. Gerçek insanların sahte görüntüleri, ses ve video klipleri yaygınlaştıkça yapay zeka destekli bir dezenformasyon ihtimali giderek artan bir endişeye neden oluyor.
 
Sahte haberler, 2016’da Beyaz Saray yarışı sırasında büyük bir hikaye haline geldiğinden beri seçim ile ilgili manşetlere hakim oldu. Bundan  sekiz yıl sonra, tartışmasız daha büyük bir tehdit var; uzmanları bile kandırabilecek dezenformasyon ve derin sahteciliklerin bir kombinasyonu. Arjantin’deki seçimler öncesinde dolaşıma sokulan bir dizi resim ve video ile ABD Başkanı Joe Biden’ın üzerinde oynanmış bir ses kaydı da dahil olmak üzere, yapay zeka tarafından üretilen seçim temalı içeriğin son örneklerinin, daha büyük ölçekte olabileceklerin habercisi olma ihtimali yüksek. 
 
Dünya Ekonomik Forumu riske dikkat çekti
Yanlış bilgilendirme ve dezenformasyon Dünya Ekonomik Forumu (WEF) tarafından önümüzdeki dönemin en önemli küresel riski olarak belirlendi. Deepfake’lerle ilgili sorun, yapay zeka destekli teknolojinin artık ucuz, erişilebilir ve büyük ölçekte zarar verebilecek kadar güçlü hale gelmesi olarak tanımlanıyor. Bu da siber suçluların, kötü niyetli siyasi aktörlerin ve hacktivistlerin ikna edici dezenformasyon kampanyaları ve daha geçici, tek seferlik dolandırıcılıklar başlatma becerilerini artırıyor. 
 
WEF’in raporuna göre sentetik içerik önümüzdeki iki yıl içinde bireyleri manipüle edecek, ekonomilere zarar verecek ve toplumları çeşitli şekillerde parçalayacak. ChatGPT ve kolaylıkla erişilebilen üretken yapay zeka (GenAI) gibi araçların, daha geniş bir yelpazedeki bireylerin deepfake teknolojisi tarafından yönlendirilen dezenformasyon kampanyalarının oluşturulmasına katılmasını mümkün kılması önemli bir zorluğu oluşturuyor. 
 
Bir seçim sürecinde deepfake, seçmenlerin belirli bir adaya olan güvenini sarsmak için kullanılabilir. Eğer bir siyasi parti ya da adayın destekçileri sahte ses ya da videolarla uygun bir şekilde yönlendirilebilirse, bu rakip gruplar için bir kazanç olacaktır.  Bu zorluğun temelinde basit bir gerçek yatıyor: İnsanlar bilgiyi işlerken niceliğe ve kolay anlaşılırlığa değer verme eğilimindedir. Benzer bir mesaj içeren ne kadar çok içerik görürsek ve bunları anlamak ne kadar kolay olursa, bunlara inanma şansımız da o kadar yüksek olur. Buna bir de deepfake’lerin gerçek içerikten ayırt edilmesinin giderek zorlaştığı gerçeğini eklediğinizde, elinizde potansiyel bir demokratik felaket reçetesi var demektir.
 
Teknoloji firmaları bu konuda ne yapıyor?
Hem YouTube hem de Facebook’un, yakın zamanda yapılan bir seçimi etkilemeyi amaçlayan bazı deepfake’lere yanıt vermekte yavaş davrandığı söyleniyor. Bu durum, sosyal medya şirketlerinin seçim manipülasyonu girişimlerini engellemelerini gerektiren yeni bir AB yasasına (Dijital Hizmetler Yasası) rağmen gerçekleşti. 
 
OpenAI ise DALL-E 3 tarafından üretilen görüntüler için Coalition for Content Provenance and Authenticity’nin (C2PA) dijital kimlik bilgilerini uygulayacağını açıkladı. Meta ve Google tarafından da denenen kriptografik filigran teknolojisi, sahte görüntü üretmeyi zorlaştırmak için tasarlandı. Ancak bunlar hala bebek adımları ve seçim ateşi tüm dünyayı sararken tehdide karşı teknolojik müdahalenin çok az ve çok geç olacağına dair haklı endişeler var. Özellikle de WhatsApp grupları ya da robocall’lar gibi nispeten kapalı ağlarda yayıldığında, sahte ses ya da videoları hızlı bir şekilde takip etmek ve çürütmek zor olacaktır. 

You may also like...