苹果禁止搞黄色,iOS 17 自动屏蔽裸照 您所在的位置:网站首页 屏蔽声音的黑科技 苹果禁止搞黄色,iOS 17 自动屏蔽裸照

苹果禁止搞黄色,iOS 17 自动屏蔽裸照

#苹果禁止搞黄色,iOS 17 自动屏蔽裸照| 来源: 网络整理| 查看: 265

0 分享至

用微信扫码二维码

分享至好友和朋友圈

众所周知,由于 iOS 独特的封闭式系统,iPhone 在安全性和隐私性方面,受到用户的一致好评。

不过大家也都知道,近两年 iPhone 也没少沾染「桃色」新闻。

比如上个月,就有用户反映收到很多莫名其妙的短信,内容为涉黄或者涉赌。

再往前,还有女子在地铁上收到了陌生人的「隔空投送」,内容为不雅图片,已经涉嫌性骚扰。

而 App Store 中,也经常会出现伪装套壳的色情 App,曾遭到大量网友的吐槽。

看来一向主打封闭和安全的 iOS,也并非「滴水不漏」,因为只要是系统,总会存在漏洞。

不过苹果并没有「袖手旁观」,也给出了解决办法。

针对不法分子利用 AirDrop 性骚扰的行为,苹果已经在 iOS 16.2 正式版中关闭了「所有人」选项,仅提供为所有人开启十分钟的权限。

开启该功能十分钟后,隔空投送会自动切回「仅限联系人」模式。

6 月 6 日,苹果发布了全新的 iOS 17 系统,带来了包括横屏待机、个性来电、NameDrop 等一系列新特性。

除此之外,苹果还新增了一项「自动屏蔽敏感信息」功能。

通过这项功能,iOS 可以自动识别和屏蔽一些敏感信息,比如裸照和色情内容。

用户可以选择开启该功能,以避免不小心收到辣眼睛的图片。

换句话说,以前有 FBI warning ,现在 iPhone 上也有「Apple warning」了。

开启后,如果用户收到了敏感照片,系统就会自动对其进行模糊处理。

如果用户想要查看的话,需要再次手动点击右下角的「显示」,才可查看完整图片。

多了一道保险,就能防止在公共场合突然社死,毕竟不小心打开涩图还有挽回的余地。

这项功能,其实和 Twitter 的审核机制差不多,在 Twitter 上浏览到大尺度图片时,系统也会做出类似的处理。

不过两者还是有所区别的,一个是在设备端处理,一个是在服务器端处理。

苹果表示,这项功能所用到的所有检测是在设备上完成的,苹果公司无法查看用户之间分享的内容。

如此一来,苹果这边则显得更为安全。

据悉,iOS 17 上的这项功能,是苹果公司去年为儿童推出的通信安全功能的一项扩展。

早在 2021 年,苹果就曾发布了一份新的「儿童保护扩展」白皮书。

其中有一项功能,就是系统会扫描 13 岁以下儿童手机中的照片,然后将检测到的儿童敏感内容发送给执法部门。

与此同时,未成年人账户的 iMessage,也会被受到重点监测。

一方面,该功能可以阻止未成年人账户收到裸照之类的敏感照片,保护未成年人的身心健康。

另一方面,如果未成年人试图通过 iMessage 发送露骨照片,也会被系统警告。

如今,这项功能的适用场景以及针对人群,迎来了更大范围的测试。

截至目前,这项功能已适用于信息、AirDrop、电话应用的联系人海报(Contact Poster)、FaceTime 信息和第三方应用。

说到这里,上面适用场景里的「第三方应用」,就有点耐人寻味了。

难不成,以后用户自己私下用 iPhone 观看「学习资料」,也要被「Apple warning」了 ?

总感觉有点怪怪的,你认为呢?

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

/阅读下一篇/ 返回网易首页 下载网易新闻客户端


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有