Yapay Zeka Çocuk İstismarında Kullanılıyor

ŞERİF ERDİKİCİ/Gerçek kurbanların görüntüleri son derece gerçekçi “derin sahte” yapay zeka destekli filmlerde kullanılıyor.

İngiltere’nin çevrimiçi çocuk istismarına karşı mücadelesinin öncü kuruluşlarından Internet Watch Foundation (IFW) (İnternet İzleme Vakfı)  22 Temmuz 2024’te açıkladığı raporunda yapay zeka destekli çocuk cinsel istismarı videolarının tespit edildiğini vurgulayarak önlem alınmasını istedi.

 

Vakfın CEO’su Susie Hargreaves OBE, “Gelecekteki bir Hükümet için en önemli önceliklerimizden biri, yeni teknolojilerin daha da kötüleştirdiği, yaklaşmakta olan çevrimiçi çocuk cinsel istismarı krizine karşı önlem almaktır” diye konuştu.

Raporda IWF’nin çocukların “masum” (müstehcen olmayan) görüntülerinin alındığına ve “çıplaklaştırıldığına” dair kanıtlar gördüğü belirtiliyor.

“Bu ‘çıplaklaştırma’ hizmetleri kullanılarak oluşturulan sahte ve deepfake (Gerçek bir görüntü veya videoya dayanan ancak yapay zeka teknolojisi kullanılarak değiştirilmiş, düzenlenmiş sahte içerik) görüntüler, ‘seks şantajı’ için kullanılıyor.

Bu sayede, faillerin artık çocuklardan mahrem görüntüler elde etmelerine gerek kalmıyor. IWF tarafından tanımlanan bir ‘sübyancı rehberi’ndeki kişi yapay zeka kullanarak 13 yaşındaki kızlara samimi resimler göndermeleri için şantaj yaptığını iddia etti.

İLK KEZ YAPAY ZEKA DESTEKLİ ÇOCUK İSTİSMARI VİDEOLARINA RASTLANDI

IWF (İnternet İzleme Vakfı) geçen yıl yapay zeka (AI) tarafından üretilen çocuk istismarı görüntülerinin ne kadar gerçekçi hale geldiği ve bu teknolojinin kötüye kullanılmasının yeni mağdurlar için oluşturduğu tehdit konusunda uyarıda bulunan ilk kuruluşlardan biriydi. Rapor, yapay zeka araçları ve suçluların yetenekleri geliştikçe, IWF’nin artık gerçek kurbanların görüntülerini kullanan çok gerçekçi ‘deep fake’ veya kısmen sentetik, yapay zeka tarafından oluşturulmuş videolar görüldüğünün altını çiziyor. Ayrıca clear web (şeffaf web) üzerinde ilk ‘tamamen yapay zeka’ çocuk cinsel istismarı videosu da bulundu.

IWF bu yılın Mart ve Nisan aylarında yaptığı bir anlık çalışmada yalnızca çocuklara yönelik cinsel istismar içeren materyallere ayrılmış bir karanlık ağ (darkweb) forumunda dokuz adet deepfake sahte video tespit etti. Analistlerin geçen Ekim ayında forumu incelediği sırada daha önce böyle bir videoya rastlanmamıştı.

Ne Yapılmalı?

Çocukların internetteki tehlikeden korunması için IWF’nin önerileri şu şekilde sıralanıyor:

  • Çocuğunuzla internetteki cinsel istismar hakkında konuşun.
  • Aile olarak teknolojiyi kullanma şeklinize ilişkin temel kurallar üzerinde anlaşın.
  • Çocuğunuzun sevdiği platformlar ve uygulamalar hakkında bilgi edinin. Çevrimiçi yaşamlarıyla ilgilenin.
  • Çocuğunuzun çevrimiçi güvenliğini sağlamaya yardımcı olabilecek araçları, uygulamaları ve ayarları nasıl kullanacağınızı öğrenin.