据MacRumors 8月18日报导,苹果早期公布的用以检验iCloud照影片中是不是存有少年儿童色情图片(CSAM)的NeuralHash算法存有系统漏洞,很有可能被利用开展原像进攻。
开发人员Asuhariet Yvgar 在Reddit上表明,他发现了iOS 14.3中CSAM检验应用的苹果NeuralHash算法的一个版本,非常容易产生哈希碰撞,造成原像进攻。该攻击很有可能造成一般用户被污蔑拥有少年儿童色情图片并招致苹果调研审批。
同一天,苹果回复新闻媒体Motherboard称,在 iOS 14.3 中发现的 NeuralHash 版本并非与 iOS 15 一起公布的最后版本。苹果还表明,它已经将该算法公布以供安全性科研工作人员认证,但也有第二个非公布算法将在用户超30张配对阀值后打开查验及其人力认证。
据统计,该算法是在掩藏的API中发现的,NeuralHash的器皿被称作MobileNetV3。Asuhariet Yvgar对编码完成了反向工程,并在Python中复建了一个工作中实体模型,可以提交图象检测。现阶段,该编码和脚本制作已发送至GitHub供大伙儿核实。
利用这一工作的Python脚本制作,GitHub用户早已进行科学研究这一算法是怎样作业的,及其它是不是可以被乱用。
一位名字叫做dxoigmn的用户发现,假如了解CSAM数据库查询中发现的結果哈希值,大家可以构建一个造成同样哈希值的假图象。理论上,一个用户可以将这种照片发给任意的苹果用户,以开启该算法。
现阶段还没人发现iOS 15公测版中存有CSAM数据库查询或配对算法。苹果也都还没给予CSAM检验作用的准确公布时刻表。