Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri

Çocuklara Yönelik Cinsel İstismar İçerikleri ve Çocuklara Yönelik Çevrimiçi Riskler Artıyor - Dünyadan Güncel Teknoloji Haberleri
Yalnızca 2022’de NCMEC 88,3 milyondan fazla CSAM dosyası aldı Doğru araçlarla internet daha güvenli olabilir

Bilinen CSAM külliyatının genişletilmesi

Karma ve eşleştirme, CSAM tespitinin temelidir


10 Ekim 2023Hacker HaberleriSiber Güvenlik / Çevrimiçi Güvenlik

Yakın zamanda yayınlanan bir rapora göre çocuklara yönelik bazı çevrimiçi riskler artıyor Dikenmisyonu çocukları cinsel istismardan korumak için teknoloji geliştirmek olan, kâr amacı gütmeyen bir teknoloji kuruluşudur Internet Watch Foundation, yalnızca 2021’den 2022’ye kadar SG-CSAM’de %9’luk bir artış kaydetti Dijital topluluk yenilikçi platformlar oluşturdukça, yırtıcılar bu alanları çocukları sömürmek ve bu korkunç içeriği paylaşmak için kullanıyor İçerik bilindiğinden ve daha önce bir STK karma listesine eklendiğinden, kullanılarak tespit edilebilir 000 bilinen CSAM dosyasının bulunmasıyla sonuçlandı hash değeri Starr, “İçerik barındırma platformları kilit ortaklardır ve Thorn, teknoloji endüstrisini çocuklara yönelik cinsel istismarla geniş ölçekte mücadele edecek araçlar ve kaynaklarla güçlendirmeye kararlıdır” diye ekledi karma ve eşleştirme

Bu sorunun boyutunu yalnızca teknoloji çözebilir

Karma ve eşleştirme teknoloji şirketlerinin yardımcı olmak için kullanabileceği en önemli teknoloji parçalarından biridir

Raporlardaki artışa çeşitli faktörler katkıda bulunuyor olabilir:

  1. Daha fazla platform, karma ve eşleştirme kullanarak bilinen CSAM’yi tespit etmek için Thorn’un Safer ürünü gibi araçları kullanıyor

    Karma ve eşleştirme nedir?

    Basitçe söylemek gerekirse, karma oluşturma ve eşleştirme, CSAM’yi tespit etmenin ve çevrimiçi yayılmasını engellemenin programlı bir yoludur Bu, platformlarında 520 Daha önce bildirilen ve doğrulanan içeriğin karma listeleriyle eşleştirmeye dayandığından, bir şirketin veritabanında eşleştiği bilinen CSAM karma değerlerinin sayısı kritik öneme sahiptir Bu metodoloji, teknoloji şirketlerinin bu yasa dışı içeriği platformlarından tanımlamasına, engellemesine veya kaldırmasına olanak tanır Sanki bir dijital parmak izi her içerik parçası için ”

    Bu eğilimler ve Yükselen Çevrimiçi Eğilimler raporunda paylaşılan diğerleri, diğer çocuk güvenliği kuruluşlarının rapor ettikleriyle uyumludur

    Thorn’un Stratejik Etkiden Sorumlu Başkan Yardımcısı John Starr, “Dijital olarak birbirine bağlı dünyamızda, çocuklara yönelik cinsel istismar materyalleri, günlük yaşamlarımızda kullandığımız platformlarda kolayca ve giderek daha fazla paylaşılıyor” dedi Her iki teknoloji de bir dosyayı benzersiz bir sayı dizisine dönüştürür “Bu, çocuklarımızı korumakla ilgili

  2. Çevrimiçi avcılar daha küstah ve cazibelerini arttırmak için chatbotlar gibi yeni teknolojiler kullanıyorlar kullanıcıları ve platformları bu içeriği barındırmanın risklerinden koruyun aynı zamanda CSAM’nin viral yayılımını ve yeniden mağduriyet döngülerini bozmaya da yardımcı oluyor Safer bugüne kadar müşterilerinin platformlarında iki milyondan fazla CSAM parçasını tanımlamasına yardımcı oldu Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi (NCMEC)’nin CyberTipline’ı, son beş yılda bildirilen çocuk cinsel istismarı materyalleri (CSAM) dosyalarında %329’luk bir artış gördü Gençler yetişkinlerle olan riskli çevrimiçi etkileşimlerde de artış bildirdiğinden, bu etkinlik rızaya dayalı veya baskı yoluyla gerçekleşebilir

    CSAM tespit araçlarını kullanan platform sayısı arttıkça, çevrimiçi ortamda çocuklara yönelik cinsel istismar materyallerinin endişe verici yükselişinin tersine çevrilme şansı da artar “Gençler ve yetişkinler arasındaki zararlı etkileşimler sadece internetin karanlık köşeleriyle sınırlı değil

    CSAM’yi tespit etmek için içeriğe karma işlemi uygulanır ve elde edilen karma değerleri, bilinen CSAM’in karma listeleriyle karşılaştırılır

    CSAM’yi internetten kaldırma

    CSAM’yi internetten kaldırmak için teknoloji şirketlerinin ve STK’ların her birinin oynayacağı bir rol var

    Thorn tarafından geliştirilen proaktif CSAM tespitine yönelik bir araç olan Safer, bilinen 29 milyondan fazla CSAM karma değerini toplayan büyük bir veritabanına erişim sunar

    Her yıl milyonlarca CSAM dosyası çevrimiçi olarak paylaşılmaktadır

Bu içerik, ister profil resmi ister geniş bulut depolama alanı olsun, kullanıcı tarafından oluşturulan içeriği barındıran her platform için potansiyel bir risktir Bu dosyaların büyük bir kısmı daha önce raporlanmış ve doğrulanmış CSAM

  • Kendi kendine oluşturulan CSAM (SG-CSAM) yükselişte ”

    2022 yılında Safer, müşterileri için 42,1 milyardan fazla görsel ve videoyu hashledi NCMEC, 2021’den 2022’ye kadar çocukların çevrimiçi ortamda cinsel eylemlere teşvik edildiğine ilişkin raporlarda %82’lik bir artış gördü






    siber-2

    Yaygın olarak iki tür karma kullanılır: algısal ve kriptografik karma Safer ayrıca teknoloji şirketlerinin hash listelerini birbirleriyle (adlı veya anonim olarak) paylaşmalarına olanak tanıyarak bilinen CSAM’in külliyatını daha da genişleterek viral yayılımını engellemeye yardımcı olur Aynı zamanda teknoloji platformlarının, kullanıcılarını ve kendilerini bu içeriği barındırmanın risklerinden korumasına yardımcı olmakla da ilgili Araştırma paylaşıldı Çocuklara Yönelik Cinsel İstismarda Ortaya Çıkan Çevrimiçi Eğilimler 2023 raporu, reşit olmayanların giderek daha fazla kendilerinin cinsel fotoğraflarını çekip paylaştıklarını gösteriyor