Prof. Dr. Eraslan'dan kritik deepfake açıklaması

Sosyal Medya ve Dijital Güvenlik Eğitim Araştırma Merkezi (SODİMER) Başkanı Prof. Dr. Levent Eraslan, 'Deepfake teknolojileri cep telefonlarına kadar inmiş durumda. Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir' şeklinde konuştu.

Prof. Dr. Eraslan'dan kritik deepfake açıklaması
TAKİP ET Google News ile Takip Et

Son günlerde adı sıklıkla duyulmaya başlanan Deepfake teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine olanak sağlıyor. Bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor. Sinema ve televizyon sektöründe kullandığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde bulundurduğu söyleniyor.

SODİMER Başkanı Prof. Dr. Levent Eraslan, Deepfake teknolojisinin avantajları ve dezavantajları hakkında İhlas Haber Ajansına özel açıklamalarda bulundu. Prof. Dr. Eraslan, Deepfake teknolojisinin iyi kullanıldığı zaman olumlu fakat tehlikesinin de çok fazla olduğu bir dünya olduğunu vurgulayarak, “Derin sahtecilik Türkçesi. Reddit’te bir kullanıcının bulduğu uygulama. Yapay zeka uygulamaları ve desteğiyle beraber insanları olmadığı yerlere montajlandığı ya da onların görüntüsünü ortaya koyduğu bir sistem."

Eraslan, Deepfake teknolojisinin bireyselleştirilmiş eğlencede çok önemli olduğunu söyleyerek, “Film ve endüstri içinde çok önemli bir teknoloji” şeklinde konuştu.

“SIRADAN İNSANLAR DA YAPABİLİYOR”
Deepfake teknolojisinin algı yönetiminde ve itibar suikastlarında kullanıldığını belirten Prof. Dr. Eraslan, şunları kaydetti:
“İnsanların olmadığı yerlerde onların aleyhlerine kullanılabilecek bir video oluşturma süreci bu. Anlaşılması çok zor fakat püf noktaları var. Öncelikle dudak ses senkronizasyonu, boyun yerleştirmeler, uzuv yerleştirmeler. Hemen hemen her ünlünün başına gelebiliyor. Türkiye’de siyasi kimi aktörlerde böylesi tehditlerle yüz yüze geldi. Süreç içerisinde kullanılan ses, dudak senkronizasyonu, vücut hatta objelerle Deepfake’in olup olmadığı anlaşılabilir. Şu büyük bir sıkıntı artık sıradan insanlar da Deepfake yapmaya başladı. Sentetik bilgi diyoruz buna. Sentetik bilgiyi üretme süreçlerin daha profesyonel süreçlerden olurken şimdi sıradan insanlar telefonlarıyla Deepfake yapabiliyor. Asıl problemde burada karşımıza çıkabiliyor.”

Deepfake teknolojilerinin cep telefonlarıyla bile basit bir şekilde yapıldığını vurgulayan Levent Eraslan, “Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir. Bu bir suç. Türk Ceza Kanununun en az beş vurgusunda bunun bir suç olduğu ifade ediliyor. Bir yıl ila üç yıl hapisten başlayan ve çeşitli yaptırımları olan bir boyut. Önümüze gelen her videonun gerçek olup olmadığını araştırmamız lazım. Profesyonel yapılmış, büyük stüdyolarda yapılmış çalışmaları tespit etmek çok güç oluyor” dedi.

Bakmadan Geçme