'Bizim geliştirdiğimiz yapay zekayı bile kandırdılar'
Yapay zeka teknolojisinin gelişimiyle birlikte deepfake videoların artışı, gerçek ile sahtenin ayrımını zorlaştırıyor.

Yapay zeka teknolojisinin hızla gelişmesiyle birlikte, özellikle "deepfake" videoların yaygınlaşması, gerçeği sahteden ayırt etmeyi zorlaştırıyor.
Bu teknoloji, başlangıçta ünlüleri taklit etmek veya politikacıları kötülemek amacıyla kullanılırken, artık günlük yaşamın bir parçası haline geldi. ABD'deki Los Angeles yangınları sırasında üretilen videolar, sosyal medyada geniş bir kitleye ulaşarak paylaşım rekorları kırarken, sahte görüntülerle sokak eylemlerinde kitleler manipüle edilebiliyor. Ayrıca, sanal influencer'ların gerçeğini aratmayan sokak röportajları, yüz binlerce izlenme oranına ulaşabiliyor.
TPAO ve Baykar firmaları üzerinden yapılan yatırım çağrıları veya ünlü ekonomistlerin görüntüleriyle oluşturulan videolar sayesinde sosyal medyada her gün hisse tavsiyelerine rastlamak mümkün.Deepfake dolandırıcılığı, özellikle suç örgütleri tarafından kullanılarak organize bir yapıya bürünüyor.
Türkiye Gazetesinden Ömer Temür'ün haberine göre; Bunun son kurbanı ise Ankaralı bir yazılım şirketi oldu. Şirket, yapay zeka destekli sahte bir müşteri tarafından dolandırıldı; Zoom üzerinden yapılan görüntülü görüşmelerde şirket tescil belgeleri paylaşıldı, sözleşmeler imzalandı ve proje teslim edildi. Ancak kodlar gittikten sonra 5 milyon liralık hizmet bedeli ödenmedi. Dolandırılan firmanın yöneticisi, "Bizim geliştirdiğimiz yapay zekayı bile kandırdılar" şeklinde konuştu.
Deepfake sadece dolandırıcılık amaçlı değil, aynı zamanda suçluların karmaşık telefon dolandırıcılıkları için sesli deepfake'leri kullanmasıyla daha da tehlikeli hale geliyor. Geçtiğimiz sonbaharda bir şirket, suçu keşfedilmeden önce tam dört ay boyunca maaş alan bir Kuzey Koreli siber suçlu tarafından bu şekilde hacklendi. Ayrıca, deepfake ile aşk dolandırıcılığı da hızla artıyor; ABD'li ünlü oyuncu Brad Pitt gibi davranan bir dolandırıcı, bir Fransız kadını 18 ay boyunca kandırarak 830.000 avro transfer ettirdi. Benzer şekilde, Hong Kong'da dolandırıcılar kandırdığı erkeklerden 46 milyon dolar alarak kayıplara karıştı.
Yapay Zeka Hukuku
Araştırmalara göre, 2024 yılında şirketler her beş dakikada bir deepfake saldırısına maruz kalacak. 2023 yılında 562,8 milyon dolar olan küresel deepfake pazar büyüklüğünün 2032 yılına kadar 6 milyar doları aşması bekleniyor. Ülkeler ise deepfake tehdidine karşı yeni tedbirler almaya başladı. AB ülkelerinde zeka yasası ile "deepfake" adı verilen yapay veya değiştirilmiş görsellerin, ses veya video içeriklerinin açıkça belirtilmesi zorunlu hale gelirken, ABD'de 20 eyalet yapay zeka ile yapılmış aldatıcı paylaşımları suç kapsamına aldı. Türkiye'de de yapay zeka hukuku için çalışmalar sürüyor. Önümüzdeki aylarda yasalaşması beklenen düzenleme ile sahteciliğin önüne geçilmesi ve kişisel veriler ile mahremiyetin korunması hedefleniyor.
Deepfake Nasıl Tehdit Edebilir?
- Yüz hareketleri: Doğal olmayan göz kırpma desenleri veya doğal olmayan şekilde statik görünen gözler arayın. Olaylara tepki olarak ince gecikmeler veya uyumsuz ifadeler de bir ipucu olabilir.
- Aydınlatma ve gölgeler: Konunun yüzündeki aydınlatmanın çevredeki ortamla uyumlu olup olmadığını kontrol edin. Tutarsızlıklar (değişen ışık veya düzensiz gölgeler ve yansımalar gibi) manipülasyon olduğunu gösterebilir.
- Ses-görüntü senkronizasyonu: Ağız hareketlerinin sesle doğal olarak hizalandığından emin olun. Dudak senkronizasyonu kapalı görünüyorsa veya seste hafif bozulmalar varsa, bu bir düzenleme işareti olabilir.
- Görsel eserler: Yüzün saçla veya arka planla birleştiği kenarları inceleyin. Olağan dışı bulanıklık, çarpık kenarlar, pikselleşme veya gölgelenme efektleri videonun değiştirildiğini gösterebilir.
- Deepfake tespit araçlarını ve yazılımlarını kullanın: Deepfake'leri tespit etmek için tasarlanmış özel araçlardan ve AI destekli yazılımlardan yararlanın. Bu araçlar dijital içerikleri anormallikler açısından analiz edebilir ve gerçekliğini doğrulamaya yardımcı olabilir.