Şok edici rapora göre sübyancılar yapay zekayı kullanarak 2025’te 3.440 çocuk istismarı videosu oluşturdu; uzmanlar “korkutucu” teknolojinin yasaklanması için acil eylem çağrısında bulundu



Şok edici rapora göre sübyancılar yapay zekayı kullanarak 2025’te 3.440 çocuk istismarı videosu oluşturdu; uzmanlar “korkutucu” teknolojinin yasaklanması için acil eylem çağrısında bulundu

Pedofililer yapay zekayı kullandıyapay zekaŞok edici bir rapor, 2025 yılında 3.000’den fazla çocuk istismarı videosu oluşturulacağını ortaya çıkardı.

Tarafından yürütülen analiz İnternet İzleme Vakfı (IWF), geçen yılın yapay zeka tarafından üretilen çocuklara yönelik cinsel istismar materyalleri açısından kaydedilen en kötü yıl olduğunu tespit etti.

Yardım kuruluşu, çocukların cinsel istismarına ilişkin fotogerçekçi yapay zeka videolarında yüzde 26.362’lik ‘korkutucu’ bir artış tespit etti.

IWF, 2025 yılında çocuklara yönelik cinsel istismara ilişkin 3.440 AI videosu keşfetti; bu rakam 2024’te yalnızca 13’tü.

Endişe verici bir şekilde, bu videoların yüzde 65’i, cinsel istismar, hayvanlarla cinsel ilişki ve cinsel işkenceyi içerebilen en aşırı istismar sınıfı olan Kategori A olarak sınıflandırıldı.

IWF İcra Kurulu Başkanı Kerry Smith şunları söylüyor: ‘Analistlerimiz mağdurlara biraz umut vermek için bu görüntülerin kaldırılması için yorulmadan çalışıyor.

‘Fakat artık yapay zeka o kadar ilerledi ki, suçlular aslında kendi çocuklara yönelik cinsel istismar makinelerine sahip olarak görmek istedikleri her şeyi yapabiliyorlar.’

Bulgulara dayanarak IWF, teknolojinin yasaklanması için derhal harekete geçilmesi çağrısında bulunuyor.

Şok edici bir rapor, pedofililerin 2025 yılında 3.440 çocuk istismarı videosu oluşturmak için yapay zekayı (AI) kullandığını ortaya çıkardı (stok görsel)

Yapay zeka tarafından üretilen çocuk istismarı materyalindeki ‘korkutucu’ artış, IWF’nin çevrimiçi istismar materyali açısından bugüne kadarki en kötü yılını rapor etmesiyle ortaya çıktı.

2025 yılında IWF analistleri, analistlerin çocuklara yönelik cinsel istismar materyallerinin varlığını doğruladığı 312.030 rapor üzerinde harekete geçti.

Bu rekor kıran yüksek seviye, 2024’teki 291.730 onaylanmış rapora göre yüzde yedilik bir artışa işaret ediyor.

Bu artışın büyük bir kısmı yapay zeka tarafından oluşturulan içerikteki patlayıcı büyümeden kaynaklandı.

Cinsel istismar materyalleri oluşturmaya yönelik yapay zeka araçları yeni değil, ancak geçen yıl suçluların daha aşırı içerikleri önemli ölçüde daha hızlı bir şekilde oluşturmak için teknolojiyi geliştirdiğine tanık olduk.

IWF şimdi bu malzemenin minimum teknolojik bilgiye sahip suçlular tarafından geniş ölçekte üretilebileceği konusunda uyarıyor.

Bayan Smith şöyle açıkladı: ‘Yapay zeka tarafından oluşturulan çocuklara yönelik cinsel istismara ilişkin aşırı Kategori A videolarındaki korkutucu artış, suçluların ne tür şeyler istediğini gösteriyor. Ve bu tehlikelidir.

‘Bu materyalin kolay erişilebilir olması yalnızca çocuklara cinsel ilgi duyanları cesaretlendirecek, ticarileşmesini hızlandıracak ve çocukları hem çevrimiçi hem de çevrimdışı olarak daha da tehlikeye atacaktır.’

Internet Watch Foundation tarafından yürütülen analiz, yapay zekanın suçlulara ‘kendi çocuklarına yönelik cinsel istismar makinelerine’ erişim hakkı verdiği konusunda uyarıyor (stok görsel)

2024 yılında, o zamanlar 27 yaşında olan Hugh Nelson, internetteki sübyancılar tarafından kendisine gönderilen cinsel istismar görüntülerini oluşturmak amacıyla gerçek çocukların fotoğraflarını değiştirmek için yapay zekayı kullandığı için 18 yıl hapis cezasına çarptırıldı.

Bu materyalin yapay zeka tarafından üretilmiş olması, üretiminde hiçbir çocuğun zarar görmediği anlamına da gelmez.

AI çocuklara yönelik cinsel istismar materyalleri, videoların temeli olarak genellikle istismarcının bildiği gerçek çocukların benzerlerini kullanır.

2024 yılında, o zamanlar 27 yaşında olan Hugh Nelson, 18 yıl hapis cezasına çarptırıldı. Gerçek çocukların fotoğraflarını değiştirmek için yapay zekayı kullanma cinsel istismar görüntüleri oluşturmak.

Mahkeme, Bay Nelson’ın fotoğrafları sağlayan müşterilerinin ağırlıklı olarak kurbanların babaları, amcaları, aile dostları veya komşuları olduğunu tespit etti.

Ek olarak, kimliği belirlenebilen mağdurların benzerleri ya istismar materyalinde gösterilebilir ya da görüntü üreten yapay zekayı ‘eğitmek’ için kullanılabilir.

Payne Hicks Beach firmasının Çevrimiçi Güvenlik Yasası uzmanı ve anlaşmazlık çözümü avukatı Jamie Hurworth şunları söylüyor: ‘Çocuklara yönelik cinsel istismar materyalleri oluşturmak için üretken yapay zekanın kullanılması yasal olarak gri bir alan olmamalıdır. Görsellerin “sentetik” olup olmadığına bakılmaksızın cinsel istismardır.

‘Bu haberin gösterdiği şey, etkili güvenlik önlemlerinin oluşturulmaması ve uygulanmaması durumunda yapay zekanın zararı ne kadar artırabileceğidir.’

Bu haber, Elon Musk’un baskıya boyun eğmesi ve Grok AI’sının faaliyete geçmesini engellemek için harekete geçmesiyle geldi.gerçek kişilerin cinselleştirilmiş resimlerini canlandırmak.

Bu, X’in, Elon Musk’un Grok AI’sı için görüntü oluşturmayı kısıtlamak zorunda kalmasından sonra geldi; çünkü bot, sürekli olarak çocuk veya yetişkinlerin çocuklara benzeyecek şekilde değiştirilmiş cinselleştirilmiş görüntülerini üretiyordu.

Eski adıyla Twitter olan sosyal medya sitesi X, kullanıcıların akınına uğradı Kadınların rızası olmadan cinselleştirilmiş görüntülerini oluşturmak için AI görüntü oluşturucuyu manipüle etmek.

Bu görüntüler, çocuklara benzeyecek şekilde dijital olarak manipüle edilen çocukların ve yetişkinlerin cinselleştirilmiş görüntülerini içeriyordu.

Elon Musk’un oğullarından birinin annesi Ashley St Clair, şimdi X’e, mahkeme dosyalarına göre içlerinden birinin 14 yaşında olduğunu gösteren yapay zeka tarafından oluşturulmuş görüntüler nedeniyle dava açıyor. string bikiniyle soyundum.

Elon Musk daha önce eleştirmenlerin “sadece ifade özgürlüğünü bastırmak istediklerini” söyleyerek X’i savunmuş ve Başbakan Sir Keir Starmer’ın bikinili yapay zeka tarafından oluşturulmuş iki fotoğrafını yayınlamıştı.

Çarşamba günü X, ‘teknolojik önlemleri’ uygulamaya koyduğunu duyurdu. Grok hesabının gerçek kişilerin görsellerinin düzenlenmesine izin vermesini engellemek kıyafetleri açığa çıkarmakta’.

Ofcom bunun ‘hoş karşılanan bir gelişme’ olduğunu söylerken gözlemci, X’in Birleşik Krallık yasalarını çiğneyip çiğnemediğine ilişkin soruşturmanın ‘devam ettiğini’ ekledi.

Ancak bağımsız Grok uygulaması Grok Imagine, hala üretim kapasitesine sahip olduğu bildiriliyor X’e gönderilebilecek çıplak resimler.

IWF’nin işaret ettiği gibi, mevcut mevzuat uyarınca, süreçte yanlışlıkla herhangi bir görüntü oluşturulması durumunda yetkililerin bir yapay zeka aracının suç teşkil etmeden kötüye kullanılıp kullanılamayacağını test etmesi son derece zordur.

Bayan St Claire, Grok yapay zekasının kendisini dört yaşında bir kız çocuğu olarak tasvir eden çocuklara yönelik cinsel istismar materyali (CSAM) oluşturmak için kullanıldığını iddia ediyor

Kasım ayında önerilen yeni kurallar uyarınca, IWF ve AI geliştiricileri gibi belirlenmiş kurumlara, AI modellerini, çocukların çıplak veya cinsel görüntülerini oluşturmak için kullanılamayacaklarından emin olmak amacıyla inceleme yetkisi verilecek.

Ayrıca Aralık ayında hükümet, fotoğraflardan kıyafetleri dijital olarak çıkaran yapay zeka ‘çıplaklaştırma’ uygulamalarını yasaklama planlarını duyurdu.

Teknoloji sekreteri Liz Kendall şunları söyledi: ‘Yapay zekanın kadınları ve kız çocuklarını bu şekilde hedef almak için kullanılması son derece iğrenç.

‘Bu teknolojinin zarar verecek şekilde silah haline getirilmesine tolerans göstermeyeceğiz, bu nedenle rıza dışı yapay zeka tarafından oluşturulan mahrem görüntülerin oluşturulmasını yasaklamak için eylemimizi hızlandırdım.’

YAPAY ZEKALAR SİNİR AĞLARINI KULLANARAK NASIL ÖĞRENİR?

Yapay zeka sistemleri, öğrenmek için beynin çalışma şeklini simüle etmeye çalışan yapay sinir ağlarına (YSA) dayanır.

YSA’lar, konuşma, metin verileri veya görsel görüntüler de dahil olmak üzere bilgideki kalıpları tanımak üzere eğitilebilir ve son yıllarda yapay zekadaki çok sayıda gelişmenin temelini oluşturur.

Geleneksel yapay zeka, belirli bir konu hakkında bir algoritmayı büyük miktarda bilgiyle besleyerek ‘öğretmek’ için girdiyi kullanır.

Yapay zeka sistemleri, öğrenmek için beynin çalışma şeklini simüle etmeye çalışan yapay sinir ağlarına (YSA) dayanır. YSA’lar, konuşma, metin verileri veya görsel görüntüler de dahil olmak üzere bilgideki kalıpları tanıyacak şekilde eğitilebilir

Pratik uygulamalar arasında Google’ın dil çeviri hizmetleri, Facebook’un yüz tanıma yazılımı ve Snapchat’in görüntü değiştiren canlı filtreleri yer alır.

Bu verileri girme süreci son derece zaman alıcı olabilir ve tek tür bilgiyle sınırlıdır.

Adversarial Neural Networks adı verilen yeni bir YSA türü, iki yapay zeka botunun zekasını birbirine düşürüyor ve bu da onların birbirlerinden öğrenmesine olanak tanıyor.

Bu yaklaşım, öğrenme sürecini hızlandırmanın yanı sıra yapay zeka sistemleri tarafından oluşturulan çıktıyı iyileştirmek için tasarlanmıştır.



Kaynak bağlantısı