Yalan bilgi/içerik (metin, video, ses ve görüntü) gittikçe dijitalleşen dünyamız için ciddi riskler taşımaktadır. Ülkemiz ise dünya genelinde yapılan bir araştırmaya göre %49’luk oranla yalan içeriklere maruz kalan ilk ülke konumundadır (Oxford Üniversitesi Reuters Enstitüsü, 2018, s. 39). Dünya genelinde birçok insan haberleri Youtube gibi video platformları veya Instagram, Twitter gibi video uyumlu araçlara sahip platformlar vasıtasıyla takip etmektedir. Video popülaritesinde yaşanan bu artış, insanları yeni bir tehditle yüzleşmeye zorlamaktadır.
Deepfake isimle bu tehditle insanlık henüz tanışmaktadır. Deepfake, kişiye ait yüzün ve sesin başka insanın yüzü ve sesiyle değiştirilmesini sağlayan derin öğrenme (deep learning) temelli oldukça gelişmiş bir algoritmadır. Face2Face, Neural Textures ve Face Swap gibi yöntemler, kaynaktan hedefe gerçek zamanlı olarak sahte videolar oluşturmak için kullanılır. Eksiksiz yalan içerik için ayrıca kişiye ait sahte ses verileri de eklenebilmektedir. Bu yöntemler hiç gerçekleşmemiş olayları maksimum inandırıcılıkla gerçekleşmiş gibi göstermek için kullanılır.
Deepfake ile yapılan sahte içerikler, siyasiler, sanatçılar gibi sürekli toplum önünde bulunan insanlara şantaj aracı olarak kullanılabilmektedir. Ayrıca bu içerikler ile mahkeme yanıltılabilmekte, finansal manipülasyon veya terör propagandası yapılabilmektedir. Tehdidin boyutunu görmek için birkaç örnek vermek yeterli olacaktır. 2019 yılında Gabon Cumhurbaşkanı Ali Bongo için hazırlanmış sahte bir içerik, ülkede başarıya ulaşmayan darbe teşebbüsüne sebebiyet verdi.
Ayrıca, Malezya’da popüler siyasilerden Muhammed Azmine ait olduğu ileri sürülen sapkın içerikli bir video yayınlandı. Bu videonun iddia edilen siyasiye ait olmadığını kanıtlayabilecek bulgular ‘The Malay Mail’ Gazetesinde yer almış ve potansiyel suçlu olarak deepfake işaret edilmiştir (Harwell, 2019). Deepfake teknolojisinin ülkelerde ki siyasi süreçleri nasıl istikrarsızlığa sürüklediğini bu iki örnek apaçık ortaya koymaktadır. Eğer bu tehdide karşı bir savunma mekanizması geliştirilemez ise risk büyümeye devam edecektir.
Deepfake ile yapılan sahte içerikler, siyasiler, sanatçılar gibi sürekli toplum önünde bulunan insanlara şantaj aracı olarak kullanılabilmektedir. Ayrıca bu içerikler ile mahkeme yanıltılabilmekte, finansal manipülasyon veya terör propagandası yapılabilmektedir. Tehdidin boyutunu görmek için birkaç örnek vermek yeterli olacaktır. 2019 yılında Gabon Cumhurbaşkanı Ali Bongo için hazırlanmış sahte bir içerik, ülkede başarıya ulaşmayan darbe teşebbüsüne sebebiyet verdi.
Ayrıca, Malezya’da popüler siyasilerden Muhammed Azmine ait olduğu ileri sürülen sapkın içerikli bir video yayınlandı. Bu videonun iddia edilen siyasiye ait olmadığını kanıtlayabilecek bulgular ‘The Malay Mail’ Gazetesinde yer almış ve potansiyel suçlu olarak deepfake işaret edilmiştir (Harwell, 2019). Deepfake teknolojisinin ülkelerde ki siyasi süreçleri nasıl istikrarsızlığa sürüklediğini bu iki örnek apaçık ortaya koymaktadır. Eğer bu tehdide karşı bir savunma mekanizması geliştirilemez ise risk büyümeye devam edecektir.
Sözü edilen yöntemlerle hazırlanmış sahte içeriklerin insanlar tarafından ayırt edilmesi günümüz şartlarında oldukça zordur. Bundan ötürü, bu teknolojiyle oluşturulmuş videoların tespitinde yapay zeka temelli algoritmaların çözüm olabileceği düşünülmektedir. Bu bağlamda, Facebook, Microsoft ve Google gibi global şirketler MIT, UC Berkeley, Oxford Üniversitesi gibi akademik kurumlar önderliğinde yapay zeka kullanılarak deepfake tehdidiyle mücadele amacıyla ödüllü bir yarışma düzenlenecektir. Katılımcılardan kaynak bir gerçek video veri seti ve bununla beraber eşlenebilecek bir video veri seti oluşturarak sahte içerikleri tespit etmesi istenecek. Ayrıca, Ragavan Thurairatnam’a göre yeterli veriye sahip olunduğu sürece tek başına yapay zeka bu tehditle baş etmeyi öğrenecektir (Thomas, 2019).
Son olarak, bu teknolojiyi kötü amaçları için kullanan insanların/organizasyonların bulunup caydırıcı ceza verilmesi, toplumların huzuru için son derece büyük önem arz etmektedir.