扫描图片争议大,苹果宣布延迟推出 CSAM 儿童保护功能,全国各地梳理细化落实疫情防控措施

据报道,苹果公司上个月宣布了几项新的儿童安全功能,但其中一些存在争议,包括在 iCloud Photos 中扫描 CSAM(儿童性虐待照片)内容。苹果今日表示,在面向公众推迟之前,将投入更多时间来完善这些功能。

苹果在一份声明中称:“上个月,我们宣布了一些功能的计划,旨在帮助保护儿童免受‘利用通讯工具招募和剥削他们的掠夺者’的伤害,并限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”


按照原计划,苹果这些新的儿童安全功能将于今年晚些时候发布,作为 iOS 15、iPadOS 15 和 macOS Monterey 更新的一部分。如今,这些功能何时推出还是个未知数。至于如何进一步完善这些功能,苹果在今天的声明中也没有提供任何细节。

上个月,在宣布新的 CSAM 检测技术后,苹果受到了隐私倡导者的强烈抵制和批评。即使苹果的内部员工也担心,政府可能会通过寻找 CSAM 以外的内容,迫使苹果使用这项技术进行审查。还有一些员工担心,苹果正在损害其业界领先的隐私声誉。

但苹果却十分看好这一功能的前景,并表示,如果真正实施起来,要比谷歌和 Facebook 等其他公司使用的技术更能保护隐私。此外,苹果还证实,事实上自 2019 年以来,苹果已经在扫描 iCloud 邮件中的儿童性虐待材料(CSAM),只不过尚未扫描 iCloud 照片或 iCloud 备份。

特别声明:本文版权归文章作者所有,仅代表作者观点,不代表爱思助手观点和立场。本文为第三方用户上传,仅用于学习和交流,不用于商业用途,如文中的内容、图片、音频、视频等存在第三方的知识产权,请及时联系我们删除。

本文内容由用户注册发布,仅代表作者或来源网站个人观点,不代表本网站的观点和立场,与本网站无关。本网系信息发布平台,仅提供信息存储空间服务,其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。如因作品内容侵权需删除与其他问题需要同本网联系的,请尽快通过本网的邮箱或电话联系。 
THE END
分享
二维码
< <上一篇
下一篇>>