reklamı kapat

POPÜLER

iPhone 11 akıllı telefon apple

Apple, fotoğraf temelli CSAM üzerinden eleştirilmeye devam ediliyor

Teknoloji devi Apple, fotoğraf temelli CSAM taraması üzerinden eleştirilmeye devam ediliyor. Bu sefer Almanya merkezli bir açıklama var.

Apple, halen bilmeyeler için kısaca hatırlamak adına uzmanlar ile ortaklaşa geliştirilen üç yeni özellik karşımıza çıkardı. Bunlar direkt olarak çocuk güvenliğine odaklanıyordu.

Yeni altyapıda en önemli detay Child Sexual Abuse Material (CSAM) olarak geçen, çocuğu bir cinsel obje olarak gösteren içeriklerin yayılmasını azaltma / engelleme planı oldu.

Teknoloji devi bunun için iOS 15 ve iPadOS 15 ile beraber cihaz temelli fotoğraf taraması yapmaya başlayacaklarını duyurdu.

Bu fotoğraf taraması, özel bir “hash” veri tabanı ile eğitilen algoritma temelinde işleyecek ve çocuk istismarı içeren fotoğraflar direkt olarak iPhone ve iPad’ler içerisinde ya da iCloud yedeklerinde tespit edilecek.

İşte bu durum Alman politikacı Manuel Höferlin’in de hoşuna gitmemiş durumda. Höferlin, amacın harika olduğu ancak yöntemin hatalı olduğunu belirtiyor. Bu sistemin güvenli ve gizli iletişime bir darbe vuracağını belirten politikacı, sürecin iptal edilmesini istiyor.

Höferlin’in sistem hakkındaki düşüncelerini direkt olarak Apple CEO’su Tim Cook’a aktardığı da gelen bilgiler arasında yer alıyor. Apple’ın bu süreçten şimdilik vazgeçme gibi bir planı bulunmuyor.

Burada ek bilgi olarak belirtelim. Kullanıcılar isterlerse CSAM taramasını kapatabilecek. Ancak bunun için iCloud yedeğinin kapatılması gerekecek. Yedek açık tutulursa tüm fotoğraflar çocuk istismarına yönelik olarak taranacak.

İLGİNİZİ ÇEKEBİLİR

Apple, CSAM araması hakkında sürekli açıklama yapıyor

Sistem Alman politikacı gibi başka kişileri de endişelendiriyor ve kişilerin devletlerin CSAM harici içerikler için de gizli fotoğraf taraması isteyeceğini düşünüyor. Apple ise harici istekleri kesinlikle kabul etmeyeceğini aktarıyor.

Teknoloji devi hatta artan tepkiler nedeniyle bu konuda ek bir açıklama da yaptı. Apple, yeni sistemde CSAM için birden fazla ülkeden gelen ortak hash verilerinin kullanılacağını belirtti. Bu sayede bir devletin CSAM veritabanına “siyasi casusluk gibi başka amaçlar için” özel veri eklemesi zorlaşacak denildi.

Buna ek olarak sistemin “inceleme başlatılması” özelinde 30 fotoğraf üzerinde çalışacağını da aktardı. Yani bir kişi incelemeye alınmadan önce cihazında çocuk istismarıyla alakalı en az 30 adet fotoğrafın olması gerekecek.

İlginizi Çekebilir