天天看点

iOS 15下线防色情功能!

果粉之家,专业苹果手机技术研究十年!您身边的苹果专家~

早在今年8月份,苹果就对外官宣,将在iOS 15系统将通过Messages信息应用中敏感图像筛查、iCloud中儿童性虐待内容的检测,以及Siri和搜索功能的相关内容等三项新功能来保护儿童免受色情/暴力图片的伤害。

iOS 15下线防色情功能!

简单点说,苹果将对用户保存到iPhone上的照片、通过 iMessage 发布的照片以及上传到 iCloud的图片进行审核,从而识别儿童色情和虐待内容 (CSAM),打击其传播。

比如在iCloud家庭中,如果孩子在iMessages信息上收到色情图片时,图片会隐藏起来,并且Messages会警告用户该图片是“少儿不宜”的敏感图片。如果孩子执意查看这张图片,那么iCloud家庭中的父母将受到通知,弹出窗口还将包含一个含有帮助信息的链接。

iOS 15下线防色情功能!

虽然苹果出发点是好的,但苹果的儿童安全功能却引起了广泛的争议和批评。一向最注重用户个人隐私的苹果,竟然要主动扫描用户保存及发送到照片?

针对CSAM(儿童性虐待照片)检测新功能引起的争议,苹果也明确表示称:这个新功能并不会留下任何后门,包括苹果也不会扫描iPhone的整个相册来寻找虐童图片,而是使用密码学把图片与美国国家失踪与受虐儿童中心提供的已知数据库进行比对。

iOS 15下线防色情功能!

但随后在9月份,苹果宣布将推迟上线其CSAM儿童保护功能,并且决定在未来几个月花更多时间收集iPhone用户意见并进行改进,然后再发布这些至关重要的儿童安全功能。

转眼已经到了12月份,日前有用户发现,苹果在官网上已经删除了CSAM儿童保护这个功能的介绍。由此可见,在征求了用户的意见之后,大部分用户对这个功能还是比较不认可的,因此苹果已经从iOS 15系统中移除的这一功能。

iOS 15下线防色情功能!

这也意味着苹果短之间内,至少在iOS 15系统中将不会再加入这个新功能,用户也无需担心苹果会扫描相册导致隐私泄露了。

有果粉的地方就有果粉之家,学习苹果使用技巧,了解最新苹果资讯请关注:果粉之家!

继续阅读