Askeriyede 'cinsel içerikli' sahte video alarmı

Güney Kore'de "deepfake ile üretilen sahte cinsel içerikli görüntüler" gündem olmaya devam ediyor. Ülke bu skandalla çalkalanıyor. Güney Kore ordusu bu konuda bazı önlemler aldı.

Kaynak: A.A

Güney Kore'de, manipüle edilen ses ve görüntüleri içeren "deepfake" adı verilen yöntem aracılığıyla "sahte cinsel içerikli görüntülerin" üretilmesi tehlikesiyle, askeri personelin fotoğrafları kurum içi iletişim ağından kaldırıldı.

Yonhap'ın haberine göre, Güney Kore'de yapay zekayla oluşturulan "sahte cinsel içerikli görüntülerin" ülkede infial yaratmasının ardından Savunma Bakanlığından bir yetkili konuya ilişkin açıklama yaptı. Açıklamada, askerlerin yanı sıra ordu ve bakanlık yetkililerinin fotoğraflarının, "sahte cinsel içerikli görüntü" üretmek için kullanılması tehlikesi nedeniyle kurum içi iletişim ağından kaldırıldığı belirtildi.

Bu fotoğraflara yalnızca yetkili kişiler tarafında erişilebileceği kaydedildi.

BİRÇOK ÇOCUK MAĞDUR OLDU

Ülkede, okul ve üniversitelerle bağlantılı bazı sohbet gruplarından, çoğunluğunu kadın ve kız çocuklarının oluşturduğu birçok mağdurun "deepfake" adlı yöntem aracılığıyla manipüle edilen ses ve görüntülerini içeren "cinsel içerikli görüntülerinin" yayıldığı tespit edilmişti.

Ulusal Soruşturma Ofisi Başkanı Woo Jong-soo ise bu görüntülerin yayıldığı Telegram'a "suça yataklık etme" gerekçesiyle ön soruşturma açıldığını bildirmişti.

Bunun üzerine Telegram'ın platformdaki sakıncalı 25 içeriği kaldırdığı belirtilmişti.

İslam Memiş Uyardı: Uzak Durun Fethullah Gülen Öldü Yüzde 25 İndirim Geldi İşte iddianamedeki bir numaralı sanık Fethullah Gülen'in Yerine Geçecek Sürpriz İsim Dilan Polat ve Sıla Doğu hakkında yeni gelişme Emekliye 2 maaş - 2 tazminat düzenlemesi!