TEKNOLOJİ 11 Ağustos 2021
15,1b OKUNMA     455 PAYLAŞIM

Apple, Çocuk İstismarını Engellemek İçin iCloud Fotoğraflarını Nasıl Tarayacak?

Apple, çocuk istismarı içeriklerini engellemek amacıyla yakın zaman içinde iCloud'daki fotoğrafları tarayacağını açıkladı. Peki bu sistem nasıl işleyecek?

apple'ın, çocuk istismarı içeriklerinin taranmasına yönelik çalışmasında kamuoyu yanlış bilgilendiriliyor. apple, kendi sitesinde konu hakkında soru - cevap yayımlamış durumda. merak eden, detayların hepsine hakim olabilir. ben özet geçeceğim:

bu sistem, cep telefonlarındaki fotoğraf albümlerini tarıyor mu?

hayır. sistem, sadece icloud'a yüklenen/yüklenecek fotoğrafları tarayacak. yani siz icloud kullanmıyorsanız herhangi bir şekilde içerikleriniz taranmayacak.

peki niye icloud fotoğrafları taranıyor?

çünkü icloud içeriklerini bir başkasıyla paylaşmak oldukça kolay. e-mail göndermeden ya da başka bir iletişim aracına gerek kalmadan herhangi bir içeriği icloud'da paylaşabiliyorsunuz. tek yapmanız gereken albümü paylaş butonuna basıp herhangi bir apple id e-postasını ya da imessage kullanıyorsa telefon numarasını girmek. bu kadar. bu tür içeriklerin paylaşılmasının önüne geçmek için bu sistem sadece icloud üzerindeki içeriklere uygulanıyor.

icloud'a yüklenen her içerik taranıyor mu?

apple'ın cevabına bakarsak hayır. bu sistemde, abd kayıp ve istismara uğramış çocuklar için ulusal merkez (national center for missing & exploited children) ve diğer çocuk güvenlik kuruluşlarının veri tabanında bulunan içerikler taranacak. bunlar da içeriklerin gerçek hallerini içermiyor. bu kurumlar, içerikleri hash'leyerek onları bir çeşit veriye dönüştürüyor. apple, bu hash kodların listesine sahip. ve sizin cihazınızdaki bir içerik icloud'a aktarılırken sistem, bir eşleşme olup olmadığını kontrol ediyor. eşleşme durumunda sistem uyarı veriyor ve apple'da bu konuda çalışan bir kişi içeriği inceliyor. eğer bu içerik gerçekten çocuk istismarına giriyorsa ilgili yasal birimlere bilgi veriliyor.

bunun etrafından dolanmak için içerikler küçültülse ya da üzerinde değişiklik yapılsa? videolar kısaltılsa? 

sistem, bu tür düzeltmeleri de algılıyor ve bunlar için de uyarı verebiliyor.

bir devlet, apple'ın bu kontrol listesine terör ya da başka bir gerekçeyle incelenmek üzere farklı kapsamdaki içerikleri ekleyebilir mi?

apple'ın açıklamasına göre; apple, devletlerden gelecek bu tür talepleri kabul etmeyecek.

sistem çocuk istismarına girmeyen bir içerik için yanlış bir şekilde uyarı verebilir mi? (false positive - yanlış pozitif)

apple'a göre, yılda 1 trilyonda 1 hata payı bulunuyor.  ancak ilgili yasal birimlere haber verilmeden önce bir insan bu içeriği kontrol edeceği için bu yanlış pozitiflik de devre dışı kalabilecek.
...

not: bu yazıyı apple'ı savunmak için yazmadım. sadece biraz daha doğru bilgi vermek amacıyla yazdım. eğer bu sistemin kapsamı genişletilir ve devletler özelinde işletilirse (özellikle de apple'ın yumuşak karnı çin'de) o zaman oturur, hep birlikte eleştiririz.