Teknoloji:
Apple, iPhone ve iPad'lerde çocuk istismarı görsellerini tespit edecek
banner26

Apple, ABD'deki kullanıcılarının cihazlarında çocuklara yönelik cinsel istismar içeriklerini tespit edecek yeni bir sistem geliştirdiğini açıkladı.
Bir görsel iCloud'da yedeklenmeden önce bu teknoloji kısaca CSAM (Child Sexual Abuse Material) olarak anılan çocuk taciz ve istismarıyla ilgili malzemeleri tarayacak.
Apple, geliştirilen program ile böyle bir malzeme tespit edilirse, bunun bir de insan gözüyle değerlendirmesinin yapılacağını ve kullanıcının polise bildirileceğini söylüyor.
Fakat kişisel bilgilerin mahremiyeti kuralını zorlayan bu teknolojinin gelecekte başka yasaklı içerikleri, hatta siyasi görüşleri kapsayacak şekilde genişletilebileceği yönünde kaygılar var.
Uzmanlar bu teknolojinin otoriter hükümetler tarafından vatandaşlarını izlemek amacıyla kullanılabileceği endişelerini dile getiriyor.

Hangi cihazlarda, nasıl işleyecek?
Apple, iOS ve iPadOS'in bu yıl piyasaya sürülecek olan yeni versiyonlarında "bir yandan kullanıcının mahremiyeti korunurken diğer yandan CSAM içeriklerinin internette yayılmasını sınırlamaya katkıda bulunacak yeni şifreleme uygulamalarının" bulunacağını açıkladı.
Sistem, fotoğrafların, ABD Kaybolan ve İstismara Uğrayan Çocuklar Ulusal Merkezi (NCMEC) ve diğer çocuk güvenliği kuruluşları tarafından derlenen çocuk cinsel istismarı görsellerini bir veri tabanıyla karşılaştırmasını yapacak.
Bu veri tabanlarındaki görseller sayısal kodlara çevirilerek saklanıyor ve Apple cihazındaki görselle eşleştirilebiliyor.
Apple bu teknolojinin ayrıca orijinal görsellerin edit edilmiş versiyonlarını da yakalayacağını bildirdi.

'Çok güvenilir sonuçlar veriyor'
Apple, "Bir görsel iCloud'daki fotoğraf dosyasında yedeklenmeden önce, cihazın içinde, çocuk istismarı veri tabanındaki görsellerin sayısal kodlarıyla eşleştirme işleminden geçirilecek" diyor.
Şirket sistemin son derece güvenilir sonuçlar verdiğini ve bir hesap hakkında yanlış alarm vermesi şansının bir yıl içinde trilyonda birden bile küçük olduğunu söylüyor.
Apple ayrıca sistemde eşleşme tespit edilen her bir durumun bir insan tarafından yeniden gözden geçirileceğini de söylüyor ve kullanıcının hesabının ancak bundan sonra polise bildirilip kapatılabileceğini vurguluyor.
Şirket yeni teknolojinin, yalnızca iCloud hesabında çocuk istismarı içerikli bir dizi fotoğraf bulunduran kullanıcıları tespit edebildiğine işaret ederek, bunun, mevcut teknolojilere kıyasla kişisel bilgilerin korunması açısından önemli avantajlar sunduğunu da söylüyor.
Ancak bütün bu açıklamalar, bazı uzmanların kişisel bilgilerin mahremiyeti bakımından duyduğu endişeleri gidermiş değil.
ABD'deki Johns Hopkins Üniversitesi'nde güvenlik araştırmaları yapan Matthew Green, "Apple'ın uzun vadeli planları ne olursa olsun, bu sistemi kullanacaklarını açıklamakla çok net bir işaret vermiş oldular: Yasaklı içerikleri izlemek için kullanıcıların telefonlarına sistem yerleştirmek serbest olacak" diyor ve ekliyor:
"Bu konuda haklı çıkıp çıkmamalarının hiç bir önemi yok. Bu bir eşiğin aşılması demek ve hükümetler bunu herkesten talep edecek."

(BBC)

Misafir Avatar
İsim
Yorum Gönder
Kalan Karakter:
Yorumunuz onaylanmak üzere yöneticiye iletilmiştir.×
Dikkat! Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, pornografik, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen Üye/Üyeler’e aittir.

banner13

Boeing'den uçan taksi için yeni yatırım
ABD'li havacılık devi Boeing, pilotsuz uçan taksi geliştirilmesine yönelik çalışmaların desteklenmesi...

Haberi Oku