Mona Lisa’nın “konuşturulduğu” yapa zeka temelli “Deepfake” teknolojisinin, sinema bölümünde işleri kolaylaştırması beklenirken yüksek gerçekliğe sahip uydurma görüntüler üretilmesini sağlamasıyla risk ve tehlikeleri de beraberinde getirdiğine işaret ediliyor.
AA muhabirinin derlediği bilgilere nazaran, son günlerde ismi sıklıkla duyulmaya başlanan “Deepfake” teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz tabirlerini kullanan uydurma görüntüler üretilmesine imkan sağlıyor, bunun yanı sıra rastgele bir görüntüdeki konuşmayı değiştirip düzenleyebiliyor.
Farklı yapay zeka sistemleri kullanılarak görüntüler elde edilen kelam konusu teknoloji, rastgele bir görüntüdeki konuşmacının söylediklerinin çarçabuk değiştirilmesine müsaade veriyor. Konuşmaya yeni kelamlar eklenip çıkarılabilen programla, rastgele bir görüntüdeki konuşmanın değiştirilmesinin, bir yazının ya da sözün kopyalanıp yapıştırılması kadar kolay hale geldiği tez ediliyor.
Sinema ve televizyon kesiminde kullandığında, yanılgı yapılan bir diyaloğun yine çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, makus niyetli bireylerin kullanımı açısından bakıldığında ise kıymetli risk ve tehlikeleri içerisinde barındırdığı kaydediliyor.
“Algı idaresi maksadıyla kullanılabilir”
“Deepfake” teknolojisi hakkında AA muhabirine değerlendirmede bulunan Türkiye Bilişim Derneği (TBD) Genel Lideri Rahmi Aktepe, kelam konusu teknolojinin, görüntülerin manipüle edilmesinde ve düzmece görüntüler üretilmesinde araç olarak kullanıldığını söyledi. Aktepe, “Siber savaşların ve dijital felaketlerin yaşandığı günümüzde, toplumsal olayları tetiklemek ve algı idaresi gayesiyle kullanılabilir.” dedi.
Aktepe, birtakım ülkelerin bu teknolojiyle ilgili çalışmalar yaptığına vurgu yaparak, “ABD, Pentagon, Savunma Gelişmiş Araştırma Projeleri Ajansı (DARPA) aracılığıyla, ülkenin araştırma kurumları ile iş birliği yaparak “Deepfake” teknolojisinde öncü rol üstlenmeye çalışmaktadır.” tabirlerini kullandı.
İnsanların hayatını kolaylaştırmak, iş süreçlerinin uygunlaştırmak maksadıyla geliştirilen yapay zeka teknolojisinin etik dışı kullanılması durumunda ne üzere ziyanlar verebileceğine “Deepfake” teknolojisinin yeterli bir örnek olduğunu savunan Aktepe, “Söz konusu teknik, imaj sürece ve sinema kesimine yönelik geliştirilmiş olmakla birlikte günümüzde siber zorbalar tarafından makûs gayeler için, yani etik dışı olarak yaygın bir biçimde kullanılmaktadır.” değerlendirmesinde bulundu.
Aktepe, bireylere özgün imaj ve ses işleyebilme özelliği sayesinde kelam konusu teknolojinin sinema ve televizyon bölümünde maliyet aktif olarak kullanılmaya başlandığına fakat etik dışı kullanıma yönelik kimi riskleri de barındırdığına da dikkati çekti.
“Deepfake”in siber zorbalık maksadıyla kullanıldığını kaydeden Aktepe, bunun yanı sıra kritik altyapılara yönelik siber akınlarda da bir araç olarak kullanılabilme özelliğine sahip olduğunu ileri sürdü. Aktepe, “Söz konusu teknolojinin toplumlarda algı idaresi ile kaos yaratılması ve toplumsal olayların tetiklenmesi emeliyle da kullanılabileceğini kıymetlendiriyoruz.” sözlerini kullandı.
“Hayata döndürülen” ünlüler
Samsung’un Moskova’daki Yapay Zeka Merkezince, tek bir yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip geçersiz görüntü elde etme teknolojisi geliştirildiği duyurulmuştu.
“Deepfake” teknolojisiyle Mona Lisa’nın mimikleri hareket ettirilirken araştırmacılar, Mona Lisa tablosunun yanı sıra Marilyn Monroe, Fyodor Dostoyevski ve Albert Einstein üzere ünlü isimlerin de fotoğraflarını görüntü haline getirerek YouTube’da yayınlamıştı.