Adli Bilişimde Yeni Tehdit: Deepfake ve Yapay Zeka Tabanlı Dijital Sahtecilik
- Uğur Demirel

- 30 Ara 2024
- 3 dakikada okunur
Güncelleme tarihi: 23 Tem

Dijital dünyada sahte içerik üretmek artık dakikalar sürüyor. Yapay zeka destekli sahte ses, video ve görüntüler yani “deepfake” teknolojileri; sadece sosyal medya kullanıcıları için değil, hukuk, siyaset, finans ve adli bilişim alanları için ciddi bir güvenlik tehdidi oluşturuyor.
Gelişen Generative Adversarial Network (GAN) mimarileri sayesinde artık bir kişinin ağzından çıkmamış bir cümleyi sesli ve görsel olarak inandırıcı şekilde oluşturmak mümkün. Bu teknolojiler, dolandırıcılık ve itibar suikastı gibi suçlara zemin hazırlarken, adli bilişim uzmanlarının sorumluluğunu da katbekat artırıyor.
Bu yazıda, deepfake kavramını detaylıca ele alarak adli bilişimde yarattığı riskleri, tespit yöntemlerini ve hukuki boyutunu değerlendireceğiz.
Deepfake Nedir? Nasıl Çalışır?
“Deepfake”, “deep learning” ve “fake” kelimelerinin birleşiminden türetilmiştir. Temelinde generative adversarial networks (GANs) yer alır. GAN’lar iki sinir ağının (üreten ve ayırt eden) karşılıklı rekabetiyle sahte veriler oluşturur.
Deepfake teknolojileri ile;
Bir kişinin yüzü başka birine aktarılabilir (face swap)
Gerçek olmayan konuşmalar seslendirilmiş gibi gösterilebilir
Tarihi görüntüler manipüle edilerek yeni anlamlar yüklenebilir
Adli Bilişim Açısından Neden Tehlikeli?
1. Dijital Delil Güvenliğini Tehdit Ediyor
Adli bilişim uzmanları, suçluların dijital cihazlardaki izlerini analiz eder. Ancak bir video ya da ses kaydının sahte olup olmadığını tespit etmek artık daha karmaşık hale geldi. Çünkü deepfake içerikler gerçek insan hareketlerini ve ses titreşimlerini birebir taklit edebiliyor.
“Gerçeği sahteden ayırmak için artık göz yeterli değil; yapay zekayla sahteyi yapan, yine yapay zekayla analiz edilmeli.”(Agarwal et al., 2020)
2. Kimlik Sahteciliği ve Dolandırıcılıklar
2020 yılında Birleşik Arap Emirlikleri'nde bir şirketin CEO’sunun sesi taklit edilerek 35 milyon dolarlık uluslararası banka dolandırıcılığı gerçekleştirildi. Bu olay, yapay zeka temelli ses klonlamanın dolandırıcılık amaçlı kullanılabileceğinin somut bir örneğiydi (Forbes, 2021).
3. İtibar Suikastı ve Manipülasyon
Deepfake videolarla ünlü kişilerin veya siyasi liderlerin sözde açıklamaları dolaşıma sokularak kamuoyu yönlendirilebiliyor. Bu, bireylerin ve kurumların itibarını hedef alan dijital şiddet biçimidir.
Tespit Yöntemleri: Deepfake ile Savaşta Yeni Cephanelikler
Adli bilişim alanında deepfake tespiti için çeşitli yöntemler geliştirilmektedir:
A. Görüntü Bazlı Analizler
Mikro ifadelere dayalı tespit: Göz kırpma sıklığı, dudak hareketleri gibi doğrudan fark edilemeyen mikro detaylar analiz edilir.
Kare kare video analizi: Video içerisindeki kareler arasında tutarsızlıklar incelenir (ışık yansıması, gölge, yüz oranları vb.).
B. Ses Analizi
Frekans aralıkları, tonlama yapısı, nefes sesleri gibi detaylar; sesin yapay mı doğal mı olduğunu ortaya koyabilir.
OpenAI ve Google gibi kuruluşlar, yapay ses tespiti için “watermark” teknolojileri üzerinde çalışıyor.
C. Derin Öğrenme Tabanlı Algoritmalar
Agarwal ve arkadaşlarının (2020) önerdiği yöntem, phoneme-viseme uyumsuzluklarına (ses-harf uyuşmazlığına) odaklanarak %90’ın üzerinde doğrulukla deepfake tespiti sağlamıştır.
D. Blockchain Tabanlı Medya Doğrulama
Görüntülerin orijinalliğini doğrulamak için medya üretim zamanında oluşturulan hash değerleri zincire kaydedilir. Daha sonra dağıtılmış sistemlerde bu hash kontrol edilerek müdahale olup olmadığı tespit edilir.
Sektörel Örnekler
Microsoft Project Origin: Doğrulanmış içeriğe dijital imza ekleyerek medyanın güvenli şekilde paylaşımını amaçlar.
Adobe Content Authenticity Initiative (CAI): Fotoğraf ve videoların üretim geçmişini kayıt altına alır.
DARPA MediFor Projesi: ABD Savunma Bakanlığı’nın medya sahteciliğine karşı geliştirdiği algoritmik tespit sistemi.
Hukuki ve Etik Boyut
Deepfake içeriklerin üretilmesi ve paylaşılması birçok ülkede doğrudan suç kapsamına alınmamış olsa da, dolandırıcılık, kişilik haklarına saldırı, sahte belge düzenleme gibi suçlara dayanak olabilir.
Türkiye’de Türk Ceza Kanunu kapsamında, bilişim sistemine girme (TCK 243), kişisel verileri ele geçirme (TCK 136) ve özel hayatın gizliliğini ihlal (TCK 134) gibi suçlarla ilişkilendirilebilir.
Hukukun teknolojiye yetişebilmesi için sadece kanun değil, adli bilişim bilgisi olan karar vericilere de ihtiyaç var.
Sonuç
Deepfake teknolojileri, sunduğu yaratıcı imkanlar kadar taşıdığı risklerle de gündemden düşmüyor. Adli bilişim uzmanlarının bu tür içerikleri tespit edebilmesi için klasik yöntemlerin ötesine geçmesi, yeni nesil yapay zeka tabanlı analiz araçlarını benimsemesi gerekiyor.
Gelecekte, yapay zekaya karşı yine yapay zekayla mücadele eden adli uzmanlar daha da önemli bir role sahip olacak.
🔗 Kaynakça (APA 7)
Agarwal, S., Farid, H., Fried, O., & Agrawala, M. (2020). Detecting deep-fake videos from phoneme-viseme mismatches. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition workshops (pp. 660-661).
Forbes. (2021). Scammers use cloned voice to steal USD 35m from Dubai company. https://www.aiaaic.org/aiaaic-repository/ai-algorithmic-and-automation-incidents/dubai-usd-35m-voice-cloning-fraud
Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11), 39–52. https://timreview.ca/article/1282




Yorumlar