- 48小时新闻排行
- 7天新闻排行
英国的iPhone手机将上线一项确保儿童安全的新功能,允许家长对孩子的手机进行设置,当孩子收到包含裸体的图片时会自动进行模糊处理。 英国《卫报》报道,这项新功能允许父母在iPhone手机上设置一种警报,利用人工智能技术扫描儿童收发的信息,当警报开启时,一旦儿童收到的图片中含有裸体内容,将进行模糊处理,同时儿童将被警告可能包含敏感信息,可疑图片将被推动到儿童安全组织的资源库。 如果在儿童自己发送的图片中发现裸体内容,类似的保护措施同样会生效,同时儿童将被鼓励不要发送此类图片。 对于这项功能涉及到的隐私问题,苹果公司表示,所有扫描都是在“设备上”进行的,这意味着图像是由iPhone手机自己分析,苹果公司并不会看到被分析的图片和分析的结果。 该公司还表示,该功能的设计目的就是让检测裸体的过程局限在设备上。苹果公司无法访问这些信息,也不会向家长或其他任何人发送通知。 在新功能发布之前,苹果公司还删除了几项有争议的功能。在最初宣布的方案中,该公司表示,如果13岁以下的儿童发送或收到此类图片,父母将会收到自动提醒,但在最终版本中,提醒功能被删除。 同时,该公司还推出了一项搜索干预措施,对在Spotlight、Siri或Safari中搜索与虐待儿童有关的内容时进行干预。 去年夏季,苹果公司宣布将在今年推出三项新功能,除了上述儿童通信安全和搜索干预功能之外,第三项功能是在图片上传到iCloud之前进行扫描,并报告任何与已知的儿童性虐待图像匹配的图片,但这项功能因极具争议被推迟。 (欧洲时报/ 刘涛编译报道) |
中国 昨天 22:04
美国 昨天 21:56
国际 昨天 21:48
国际 昨天 21:30
体育 昨天 21:22
国际 昨天 21:05
关注获得及时、准确、全方位的新闻消息