Apple tartışma yaratan ‘iPhone’ları tarama’ planını askıya aldı
Apple, internet sitesinden yaptığı açıklamada, çocukların irtibat araçları ile cinsel istismarını ve bu çeşit materyallerin yayılmasını önlemek …
Apple, internet sitesinden yaptığı açıklamada, çocukların irtibat araçları ile cinsel istismarını ve bu çeşit materyallerin yayılmasını önlemek için geliştirdikleri özelliklerin kullanıma girmesini, müşterilerden, araştırmacılardan ve hak savunucusu kuruluşlardan gelen yorumlar üzerine ertelediklerini belirtti.
Açıklamada, sistemin büsbütün masadan kaldırılmadığı, lakin tenkitler doğrultusunda geliştirebilmek için lansmanın ertelendiği vurgulandı. Lakin özelliklerin ne vakit devreye girebileceğine ait bilgi paylaşılmadı.
APPLE DAHA EVVEL ALDIKLARI TEDBİRİ ÜÇ KADEMELİ OLARAK AÇIKLAMIŞTI
Apple’ın geçen ay kullanıcıların iCloud içeriklerini çocuk istismarı içeren imaj ve görüntülere karşı tarayacağını açıklaması, şirketin şahsî zımnilik siyasetleriyle çeliştiği için tartışmalara neden olmuştu.
Apple çocuk istismarına karşı aldıkları üç evreli tedbirlerin birinci kademesinde, yapay zeka teknolojileri sayesinde özel yazışmaları görüntülemeden, sadece CSAM (Child Sexual Abuse Material) olarak anılan hassas içerik taraması yapacağını açıklamıştı.
Kelam konusu sistem, çocuk istismarı ile ilgili kuşkulu görselleri, gerçek şahısların incelemesine sunarak gerektiğinde güvenlik güçlerinin uyarılmasını sağlayacaktı.
Bir önceki yazımız olan Verdiği tepkilerle dikkat çeken fenomen TikTok'ta 100 milyonu geçti başlıklı makalemizde Taki̇p ve Ti̇ktok hakkında bilgiler verilmektedir.