Apple将开始使用一个系统,该系统将在消息,照片和iCloud中检测性明细照片,将其与已知儿童性滥用材料(CSAM)的数据库进行比较,以帮助执法到潜在的捕食者。
这公告(通过路透社)说,这些新的儿童安全措施将释放iOS 15.那守望者8.和macOS蒙特利今年晚些时候。在谷歌,Facebook和Microsoft在谷歌和Microsoft进行了类似的系统来实现这一举措。谷歌实施了一个“PhotoDNA”系统回到2008年2009年,微软也紧随其后。Facebook和Twitter分别在2011年和2013年就有了类似的系统。
更新(8/14):自初步公告以来,Apple已澄清其新的照片扫描策略,陈述,除其他内容中,它只会扫描多个国家/地区清除露观的CSAM图像。
- 云存储VS云备份与云同步:有什么区别?
- 如何使用Dropbox、OneDrive、谷歌Drive或iCloud作为您的主要云存储
- 加:ZOOM定居8500万美元的类动作诉讼 - 如何获得您的资金
当对性出生泄露的照片发送或接收时,邮件应用程序将开始警告子女以及父母。该应用程序将模糊图像并说:“这不是您的错,但敏感的照片和视频可用于伤害您。”
系统将使用设备上的机器学习来分析图像。如果被视为性明确,照片将被模糊。
“iOS和iPadoS将使用加密应用程序来帮助限制CSAM在线的传播,同时为用户隐私设计,”每个苹果公司儿童安全网页。“CSAM检测将有助于Apple向Icloud照片中CSAM收集提供有价值的信息。”
该系统将允许苹果检测存储在iCloud照片中的CSAM。然后,它将向国家失踪和受剥削儿童中心(NCMEC)发送一份报告。
根据大规模,Apple使用了一个“神经清洁”系统,它将在上传到iCloud之前比较用户的iPhone或iPad上的照片。如果系统发现CSAM正在上传,则将升级为人类审核。
苹果还将允许Siri和Search帮助儿童和家长报告CSAM。基本上,当用户搜索与CSAM相关的内容时,就会出现一个弹出窗口来帮助用户。
当然,有了这样的系统,必然会有隐私问题。苹果也打算解决这个问题。
“苹果检测已知CSAM的方法是考虑到用户隐私而设计的。该系统使用NCMEC和其他儿童安全组织提供的已知CSAM图像哈希数据库进行设备匹配,而不是扫描云中的图像。”“苹果进一步将这个数据库转换为一组不可读的哈希值,并安全存储在用户的设备上。”
根据Apple的说法,“每年不正确的占据给定账户的1万亿的机会不到一个。”
即使有据称的虚假指控率低,有些人担心这种类型的技术可以以其他方式使用,例如追求上传图像批评主管部门的反政府抗议者。
这些都是不好的事情。我不是特别想站在儿童色情的一边,我也不是恐怖分子。但问题是,加密是一种提供隐私的强大工具,你不可能在监视任何人发送的每一张图像的同时,真正拥有强大的隐私。8月5日,2021年
无论潜在的隐私问题,国家失踪和剥削儿童国家中心的首席执行官John Clark相信苹果所做的事情比有害更有益。
“对于使用苹果产品的许多人来说,这些新的安全措施对在网上诱惑的儿童具有救生潜力,其可怕的图像在儿童性虐待材料中被流传,”克拉克在一份声明中。“现实是,隐私和儿童保护可以共存。”