top of page

Adli Bilişimde Yeni Tehdit: Deepfake ve Yapay Zeka Tabanlı Dijital Sahtecilik

  • Yazarın fotoğrafı: Uğur Demirel
    Uğur Demirel
  • 30 Ara 2024
  • 3 dakikada okunur

Güncelleme tarihi: 23 Tem

ree


Dijital dünyada sahte içerik üretmek artık dakikalar sürüyor. Yapay zeka destekli sahte ses, video ve görüntüler yani “deepfake” teknolojileri; sadece sosyal medya kullanıcıları için değil, hukuk, siyaset, finans ve adli bilişim alanları için ciddi bir güvenlik tehdidi oluşturuyor.


Gelişen Generative Adversarial Network (GAN) mimarileri sayesinde artık bir kişinin ağzından çıkmamış bir cümleyi sesli ve görsel olarak inandırıcı şekilde oluşturmak mümkün. Bu teknolojiler, dolandırıcılık ve itibar suikastı gibi suçlara zemin hazırlarken, adli bilişim uzmanlarının sorumluluğunu da katbekat artırıyor.

Bu yazıda, deepfake kavramını detaylıca ele alarak adli bilişimde yarattığı riskleri, tespit yöntemlerini ve hukuki boyutunu değerlendireceğiz.

 

Deepfake Nedir? Nasıl Çalışır?

“Deepfake”, “deep learning” ve “fake” kelimelerinin birleşiminden türetilmiştir. Temelinde generative adversarial networks (GANs) yer alır. GAN’lar iki sinir ağının (üreten ve ayırt eden) karşılıklı rekabetiyle sahte veriler oluşturur.

Deepfake teknolojileri ile;

  • Bir kişinin yüzü başka birine aktarılabilir (face swap)

  • Gerçek olmayan konuşmalar seslendirilmiş gibi gösterilebilir

  • Tarihi görüntüler manipüle edilerek yeni anlamlar yüklenebilir

 

Adli Bilişim Açısından Neden Tehlikeli?


1. Dijital Delil Güvenliğini Tehdit Ediyor

Adli bilişim uzmanları, suçluların dijital cihazlardaki izlerini analiz eder. Ancak bir video ya da ses kaydının sahte olup olmadığını tespit etmek artık daha karmaşık hale geldi. Çünkü deepfake içerikler gerçek insan hareketlerini ve ses titreşimlerini birebir taklit edebiliyor.

“Gerçeği sahteden ayırmak için artık göz yeterli değil; yapay zekayla sahteyi yapan, yine yapay zekayla analiz edilmeli.”(Agarwal et al., 2020)


2. Kimlik Sahteciliği ve Dolandırıcılıklar

2020 yılında Birleşik Arap Emirlikleri'nde bir şirketin CEO’sunun sesi taklit edilerek 35 milyon dolarlık uluslararası banka dolandırıcılığı gerçekleştirildi. Bu olay, yapay zeka temelli ses klonlamanın dolandırıcılık amaçlı kullanılabileceğinin somut bir örneğiydi (Forbes, 2021).


3. İtibar Suikastı ve Manipülasyon

Deepfake videolarla ünlü kişilerin veya siyasi liderlerin sözde açıklamaları dolaşıma sokularak kamuoyu yönlendirilebiliyor. Bu, bireylerin ve kurumların itibarını hedef alan dijital şiddet biçimidir.

 

Tespit Yöntemleri: Deepfake ile Savaşta Yeni Cephanelikler

Adli bilişim alanında deepfake tespiti için çeşitli yöntemler geliştirilmektedir:


A. Görüntü Bazlı Analizler

  • Mikro ifadelere dayalı tespit: Göz kırpma sıklığı, dudak hareketleri gibi doğrudan fark edilemeyen mikro detaylar analiz edilir.

  • Kare kare video analizi: Video içerisindeki kareler arasında tutarsızlıklar incelenir (ışık yansıması, gölge, yüz oranları vb.).


B. Ses Analizi

  • Frekans aralıkları, tonlama yapısı, nefes sesleri gibi detaylar; sesin yapay mı doğal mı olduğunu ortaya koyabilir.

  • OpenAI ve Google gibi kuruluşlar, yapay ses tespiti için “watermark” teknolojileri üzerinde çalışıyor.


C. Derin Öğrenme Tabanlı Algoritmalar

Agarwal ve arkadaşlarının (2020) önerdiği yöntem, phoneme-viseme uyumsuzluklarına (ses-harf uyuşmazlığına) odaklanarak %90’ın üzerinde doğrulukla deepfake tespiti sağlamıştır.


D. Blockchain Tabanlı Medya Doğrulama

Görüntülerin orijinalliğini doğrulamak için medya üretim zamanında oluşturulan hash değerleri zincire kaydedilir. Daha sonra dağıtılmış sistemlerde bu hash kontrol edilerek müdahale olup olmadığı tespit edilir.

 

Sektörel Örnekler

  • Microsoft Project Origin: Doğrulanmış içeriğe dijital imza ekleyerek medyanın güvenli şekilde paylaşımını amaçlar.

  • Adobe Content Authenticity Initiative (CAI): Fotoğraf ve videoların üretim geçmişini kayıt altına alır.

  • DARPA MediFor Projesi: ABD Savunma Bakanlığı’nın medya sahteciliğine karşı geliştirdiği algoritmik tespit sistemi.

 

Hukuki ve Etik Boyut

Deepfake içeriklerin üretilmesi ve paylaşılması birçok ülkede doğrudan suç kapsamına alınmamış olsa da, dolandırıcılık, kişilik haklarına saldırı, sahte belge düzenleme gibi suçlara dayanak olabilir.

Türkiye’de Türk Ceza Kanunu kapsamında, bilişim sistemine girme (TCK 243), kişisel verileri ele geçirme (TCK 136) ve özel hayatın gizliliğini ihlal (TCK 134) gibi suçlarla ilişkilendirilebilir.

Hukukun teknolojiye yetişebilmesi için sadece kanun değil, adli bilişim bilgisi olan karar vericilere de ihtiyaç var.

 

Sonuç

Deepfake teknolojileri, sunduğu yaratıcı imkanlar kadar taşıdığı risklerle de gündemden düşmüyor. Adli bilişim uzmanlarının bu tür içerikleri tespit edebilmesi için klasik yöntemlerin ötesine geçmesi, yeni nesil yapay zeka tabanlı analiz araçlarını benimsemesi gerekiyor.

Gelecekte, yapay zekaya karşı yine yapay zekayla mücadele eden adli uzmanlar daha da önemli bir role sahip olacak.

 

🔗 Kaynakça (APA 7)

 
 
 

Yorumlar


Bu gönderiye yorum yapmak artık mümkün değil. Daha fazla bilgi için site sahibiyle iletişime geçin.

©2019, Uğur Demirel tarafından kurulmuştur.

bottom of page