广受争议,苹果推迟iOS 15新功能

果粉之家 , 专业苹果手机技术研究十年!您身边的苹果专家~
早在上个月出的时候 , 苹果就对外官宣 , 将在iOS15系统将通过Messages信息应用中敏感图像筛查、iCloud中儿童性虐待内容的检测 , 以及Siri和搜索功能的相关内容等三项新功能来保护儿童免受色情/暴力图片的伤害 。
广受争议,苹果推迟iOS 15新功能
文章图片
简单点说 , 苹果将对用户保存到iPhone上的照片、通过iMessage发布的照片以及上传到iCloud的图片进行审核 , 从而识别儿童色情和虐待内容(CSAM) , 打击其传播 。
虽然苹果出发点是好的 , 但苹果的儿童安全功能却引起了广泛的争议和批评 。 一向最注重用户个人隐私的苹果 , 竟然要主动扫描用户保存及发送到照片?
广受争议,苹果推迟iOS 15新功能
文章图片
关于扫描用户照片库的问题 , 引起了不少果粉甚至安全研究人员的抵触 , 担心苹果会不经意间侵犯到自己的隐私 。 比如 , 前漂亮国国家安全局就有相关人士表示:“如果他们(指苹果)今天可以扫描儿童不良图像 , 那么明天他们就可以扫描任何照片 。 ”
针对CSAM(儿童性虐待照片)检测新功能引起的争议 , 苹果也明确表示称:这个新功能并不会留下任何后门 , 包括苹果也不会扫描iPhone的整个相册来寻找虐童图片 , 而是使用密码学把图片与美国国家失踪与受虐儿童中心提供的已知数据库进行比对 。
广受争议,苹果推迟iOS 15新功能】尽管苹果一再解释 , 但广大用户们似乎不太愿意接受这些新功能 。 在受到广泛的批评后 , 苹果已经宣布将推迟上线其CSAM儿童保护功能 , 并且"花更多时间"征询更多iPhone用户意见 。
广受争议,苹果推迟iOS 15新功能
文章图片
苹果在最新声明中表示:“上个月 , 我们宣布了一些功能的计划 , 旨在帮助保护儿童免受利用通讯工具招募和剥削他们的掠夺者的伤害 , 并限制儿童性虐待材料的传播 。 根据客户、倡导团体、研究人员和其他方面的反馈 , 我们决定在未来几个月花更多时间收集意见并进行改进 , 然后再发布这些至关重要的儿童安全功能 。 ”
在此之前 , 这套儿童安全功能原定于今年晚些时候在iOS15、iPadOS15、watchOS8和macOSMonterey的推出在美国首次亮相 。
需要注意的是 , 新的CSAM(儿童性虐待照片)检测技术只在美国地区提供 , 并且只有用户打开iCloud照片后才能启用 。
因此 , 我们国内用户也无需担心苹果会扫描相册图片 , 与我们无关 。 除非你用的是美区的AppleID , 并且还是在打开iCloud照片功能后才会启用 。
有果粉的地方就有果粉之家 , 学习苹果使用技巧 , 了解最新苹果资讯请关注:果粉之家!