18910140161

苹果推迟推出有争议的儿童安全功能CSAM

顺晟科技

2021-09-06 08:50:41

287

()9月6日消息:苹果公司近日宣布,在收到负面反馈后,公司决定推迟发布CSAM上个月宣布的一项儿童安全功能。

苹果

苹果推出了这一计划,包括扫描用户的iCloud照片库,寻找儿童性虐待材料(CSAM),在接收或发送色情照片时警告儿童及其父母,以及在Siri和搜索中扩展CSAM指南。

苹果证实,客户、非营利组织和倡导团体、研究人员和其他人对这些计划的反馈促使公司推迟了改进。苹果就其决定发表了以下声明。

上个月,我们宣布了一些功能性计划,以帮助保护儿童免受利用通信工具招募和剥削他们的捕食者的侵害,并限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月花更多时间收集意见并进行改进,然后再发布这些重要的儿童安全功能。

在他们宣布这些功能后,遭到了大量个人和组织的批评,其中包括安全研究人员、电子前沿基金会(EFF)、前脸书安全总监、美国政客、政策团体、大学研究人员,甚至还有一些苹果员工。从那以后,苹果一直试图通过发布详细信息、分享常见问题、各种新文档以及采访公司高管来消除误解和安抚用户。

儿童安全功能套件原计划在美国,计划在iOS15、iPadOS15、watchOS8、macOS Monterey率先推出。目前还不清楚苹果计划何时推出这一功能,但该公司似乎仍在计划发布这些功能。

相关文章
随机推荐
我们已经准备好了,你呢?
2024我们与您携手共赢,为您的企业形象保驾护航