跳到主要内容

Apple确认它将开始扫描iCloud和消息以检测儿童滥用图像

Apple iCloud.
(图片来源:在上面)

Apple将开始使用一个系统,该系统将在消息,照片和iCloud中检测性明细照片,将其与已知儿童性滥用材料(CSAM)的数据库进行比较,以帮助执法到潜在的捕食者。

公告(通过路透社)说,这些新的儿童安全措施将释放iOS 15.守望者8.macOS蒙特利今年晚些时候。在谷歌,Facebook和Microsoft在谷歌和Microsoft进行了类似的系统来实现这一举措。谷歌实施了一个“PhotoDNA”系统回到2008年2009年,微软也紧随其后。Facebook和Twitter分别在2011年和2013年就有了类似的系统。

更新(8/14):自初步公告以来,Apple已澄清其新的照片扫描策略,陈述,除其他内容中,它只会扫描多个国家/地区清除露观的CSAM图像。

当对性出生泄露的照片发送或接收时,邮件应用程序将开始警告子女以及父母。该应用程序将模糊图像并说:“这不是您的错,但敏感的照片和视频可用于伤害您。”

系统将使用设备上的机器学习来分析图像。如果被视为性明确,照片将被模糊。

IOS 15消息警告性明确的照片。

(图片信用:Apple)

“iOS和iPadoS将使用加密应用程序来帮助限制CSAM在线的传播,同时为用户隐私设计,”每个苹果公司儿童安全网页。“CSAM检测将有助于Apple向Icloud照片中CSAM收集提供有价值的信息。”

该系统将允许苹果检测存储在iCloud照片中的CSAM。然后,它将向国家失踪和受剥削儿童中心(NCMEC)发送一份报告。

根据大规模,Apple使用了一个“神经清洁”系统,它将在上传到iCloud之前比较用户的iPhone或iPad上的照片。如果系统发现CSAM正在上传,则将升级为人类审核。

苹果还将允许Siri和Search帮助儿童和家长报告CSAM。基本上,当用户搜索与CSAM相关的内容时,就会出现一个弹出窗口来帮助用户。

Siri资源,帮助报告CSAM

(图片信用:Apple)

当然,有了这样的系统,必然会有隐私问题。苹果也打算解决这个问题。

“苹果检测已知CSAM的方法是考虑到用户隐私而设计的。该系统使用NCMEC和其他儿童安全组织提供的已知CSAM图像哈希数据库进行设备匹配,而不是扫描云中的图像。”“苹果进一步将这个数据库转换为一组不可读的哈希值,并安全存储在用户的设备上。”

根据Apple的说法,“每年不正确的占据给定账户的1万亿的机会不到一个。”

即使有据称的虚假指控率低,有些人担心这种类型的技术可以以其他方式使用,例如追求上传图像批评主管部门的反政府抗议者。

查看更多

无论潜在的隐私问题,国家失踪和剥削儿童国家中心的首席执行官John Clark相信苹果所做的事情比有害更有益。

“对于使用苹果产品的许多人来说,这些新的安全措施对在网上诱惑的儿童具有救生潜力,其可怕的图像在儿童性虐待材料中被流传,”克拉克在一份声明中。“现实是,隐私和儿童保护可以共存。”

Imad Khan.

伊马德·汗(Imad Khan)是《汤姆指南》(Tom 's Guide)的新闻编辑,帮助指导当天的重大报道。在加入该网站之前,Imad是一名全职自由职业者,在《纽约时报》、《华盛顿邮报》和ESPN都有署名。在工作之余,你会发现他坐在一个Word文档前,头脑一片空白,拼命地写一本新书的前几页。

暂时没有评论 论坛评论