reklamı kapat

POPÜLER

Apple CSAM

Apple, tepki çeken “CSAM” sistemini tamamen iptal etmiş olabilir

 - Güncelleme: 15 Aralık 2021 15:04

Teknoloji devi Apple, çocuk güvenliği konusunda başlatacağı yeni dönem için erteleme kararı almıştı. Bu fikir tamamen rafa kalkmış olabilir.

Apple, çocuk güvenliğini artırmak adına hazırladığı yenilikler ile geçtiğimiz aylarda gerçekten çok büyük ses getirmişti. Kısaca hatırlamak adına uzmanlar ile ortaklaşa geliştirilen üç yeni özellik karşımıza çıkarıldı.

Burada ilk olarak iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey ile birlikte artık yerleşik mesajlar uygulaması makine öğrenmeyi kullanarak çocuklara gelen kötü (Çıplak fotoğraflar vb.) medya içeriklerini gizleyebilecek denildi.

Yeni altyapıda en önemli detay ise Child Sexual Abuse Material (CSAM) olarak geçen, çocuğu bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltma planı oldu. Çünkü teknoloji devi bunun için iOS 15 ve iPadOS 15 ile beraber cihaz temelli fotoğraf taraması yapmaya başlayacaklarını duyurdu.

Bu fotoğraf taraması, özel bir “hash” veri tabanı ile eğitilen algoritma temelinde işleyecek ve çocuk istismarı içeren fotoğraflar direkt olarak iPhone ve iPad’ler içerisinde ya da iCloud yedeklerinde tespit edilecek bilgisi verildi.

Bu fotoğrafları barındıran veya yayan kişiler daha sonra yetkili birimlere bildirilecek ve yakalanması için gerekli adımlar atılacak. Bir kişi suçlanmadan önce sistemin tespit ettiği fotoğraflar insan gözetmenler tarafından kontrol edilecek.

Resmi açıklamaya göre bu özellik kapatılabilecek. Apple’a göre fotoğraflar için iCloud yedeğini kapatmak, tarama sistemini cihaz özelinde de kapatacak.

İLGİNİZİ ÇEKEBİLİR

Apple, çocuk güvenliği konusundaki yöntemi nedeniyle çok fazla tepki çekti

Tam da bu yüzden yeni altyapı çıkmadan önce bir süre verilmeden ertelendi. Apple o zaman süreci iptal etmemiş, gelen bildirimler doğrultusunda inceleme ve düzeltmeler yapılacağını açıklamıştı.

Ancak yeni gelen bilgilere göre Apple sistemi gerçek anlamda iptal etmiş olabilir. Çünkü bugün firmanın çocuk güvenliği sayfasından Child Sexual Abuse Material (CSAM) ile alakalı tüm ibareleri kaldırdığı tespit edildi.

Apple ya Child Sexual Abuse Material (CSAM) sistemiyle alakalı özel bir sayfa açacak, ya da sistemi tamamen iptal edecek. Bunun yakında net olarak belli olması bekleniyor. Apple’ın çocukları koruması isteniyor ancak daha farklı bir yöntem bulunması isteniyor. Çünkü mevcut yöntem çok da güvenli durmuyor. Birçok uzman bunu kanıtlarıyla gözler önüne seriyor.

İlginizi Çekebilir