最近,伦敦帝国理工学院的研究小组提出了一种新的算法,它可以很容易地欺骗图像内容扫描算法,而不改变图像内容,使相同的照片在算法面前看起来不同。这包括苹果CSAM扫描算法。
什么是CSAM扫描算法?
CSAM(儿童虐待材料)是苹果今年早些时候推出的提案。具体内容是防止非法图像的传播。苹果专门开发了一种算法,私下与用户分享和保存 iCloud 云照片,用算法比较哈希值。一旦与第三方相比CSAM数据库中的照片比对成功,苹果将选择屏蔽这张照片,甚至报警。
由于未经授权访问用户图片信息严重侵犯了用户隐私,该提案很快就遭到了用户和媒体的强烈反对,最终导致该提案于今年9月被撤回。然而,苹果并没有放弃CSAM,将推广时间推迟到2022年,并承诺进一步完善算法。
图像扫描算法能准确检测非法图像吗?
针对苹果提出的CSAM研究人员在一开始就质疑扫描算法是否能准确检测到非法图像并拦截它。实际研究结果表明,无论是苹果的CSAM或者任何其他图像扫描算法都无法实现非法图像的准确检测。
研究人员解释说,论文研究提出了两个白盒攻击和一个黑盒攻击,成功地改变了图像的独特性,并帮助它避免了算法扫描。
简单来说,在算法检测面前,两个人眼看起来相同的图像只需要在图像上使用一个特殊的哈希过滤器。
图片来源:伦敦帝国理工学院
如何防止图像扫描算法?”上当受骗“?
确保图像扫描算法”有效“研究人员提出了两种方法:一是扩大检测阈值;二是图像ID在标记用户之前,匹配达到一定阈值。
但这两种方法都不能从根本上使图像扫描结果更可靠,反而会造成更多的问题,比如不可避免地侵犯更多的用户隐私。
参考来源:
https://www.bleepingcomputer.com/news/technology/researchers-show-that-apple-s-csam-scanning-can-be-fooled-easily/