TEKNOLOJİ

Deepfake'ten korunmak mümkün mü?

Artık herkes, ses ve görüntülerinin rıza dışında kötü amaçlarla kullanılmasının hedefi haline gelebiliyor. Peki kullanıcıların potansiyel saldırılardan korunması mümkün mü?

Abone Ol

Ses ve görüntüleri kullanarak yeni içerikler üretken yapay zeka (Generative AI) dolandırıcılık için de yeni bir çağı başlatmış gibi görünüyor.

Şüpheli görünen e-postaların yerini yakınlarınızın ses ve görüntüsüyle sizi arayıp para isteyen yazılımlar alırken, rıza dışında üretilen videolardan kazanç sağlama vakalarının sayısı gün geçtikçe artıyor.

İnsan ses ve görüntüsünü taklit eden deepfake dolandırıcılıklarına karşı araçlar geliştirilse de teknolojideki hızlı ilerlemeler, "ebedi bir kedi-fare oyunu çağını" başlatmış olabilir.

DEEPFAKE NEDİR, NASIL KULLANILIYOR?

Deepfake kullanım alanları gün geçtikçe çeşitlenen ve gelişen bir teknoloji. Yapay zeka ile gerçeğe yakın görüntü ya da seslerin üretilmesini sağlıyor.

Deepfake'in günümüzde ufuk açıcı iyi kullanımları geliştirilmeye devam ediyor.

Örneğin Amerika Birleşik Devletleri'ndeki (ABD) University of California San Francisco ve Berkeley'den araştırmacılar bu yaz 18 yıldır felçli olan bir hastanın, beyin implantı ve yapay zeka yardımıyla ilk kez "konuşmasını" sağlamıştı.

Ekip, hastanın 2005 yılındaki düğününde kaydedilen bir videosunu kullanarak sesini yeniden sentezlemişti.

Umut veren çalışmaların karşısında deepfake, kötü amaçlı kullanımlar için de yeni bir dönemi başlatıyor gibi görünüyor.

Mayıs ayında Çin'in kuzeyinde gerçekleşen bir dolandırıcılık vakasında Baotou şehri polisi, deepfake kullanan bir saldırganın, kurbanın arkadaşının kimliğine bürünerek sahte video görüşmesiyle 622 bin dolar tutarında para transferi yapmasını sağladığını açıklamıştı.

Kurban, arkadaşının ihale sürecinde depozito yatırması gerektiğine inandığı için parayı transfer ettiğini söylemişti.

Deepfake'in finansal suçlarda kullanımı, saldırıların hedef kitlesinin sadece dijital okur yazar nüfus olmadığını göstermesi açısından önemli bulunuyor.

KİMLER HEDEF OLABİLİR?

Bugün bir deepfake yazılımı indirip saatler içinde sahte bir video ya da ses üretmek mümkün.

İnternette görselleri ya da sesleri erişilebilir olan ünlüler, sosyal medya fenomenleri ya da ürettiği içerikle para kazananlar deepfake saldırılarının ilk akla gelen hedefi olabiliyor.

Ancak kötü niyetli kullanımlar bundan çok daha geniş bir kitleyi ilgilendiriyor ve herkesi eşit etkilemiyor.

Örneğin rıza dışı özel görüntülerin üretimi açısından kadınlar daha büyük risk altında görünüyor.

BBC Türkçe'nin sorularını yanıtlayan Oxford Üniversitesi İnternet Enstitüsü'nde yapay zeka etiği ve yasaları alanında uzman Prof. Sandra Wachter, deepfake'in kötü niyetli kullanımının toplumsal cinsiyet boyutuna dikkat çekiyor:

"Teknoloji çoğu zaman kadınlarla ilgili rıza dışı mahrem görüntüleri dağıtmak ve itibarlarını zedeleyecek karalama kampanyaları için kötüye kullanılıyor."

Saldırılar küçük çocukları ve okul çağındaki kız çocuklarını da etkiliyor.

Bu hafta başında ABD'nin doğu ve batı yakısındaki iki farklı okulda kız çocuklarının deepfake ile çıplak görüntülerinin üretilip dolaşıma sokulmasından mağdur olan aileler, yapay zekanın zararları karşısında daha sıkı yasal önlemler istediklerini söylüyor.

Sahte görüntülerle birlikte sahte ses üretimindeki gelişmeler de yeni güvenlik açıklarıyla ilgili soru işaretleri doğuruyor. (Cumhuriyet)