苹果调整 CSAM 系统以保持万亿分之一的误报停用阈值
该公司重申会拒绝将非 CSAM 图像添加到数据集的请求
最近更新时间 2021-08-16 16:21:16
当苹果上周宣布计划解决其操作系统上的虐待儿童材料时,它表示它为误报账户禁用设定的阈值将是每年万亿分之一。
苹果计划中最具争议的部分是其设备上的儿童性虐待材料 (CSAM) 检测系统。在苹果设备的用户将图像存储在 iCloud 之前,将设备上的图像与美国国家失踪与受虐儿童中心 (NCMEC) 和其他儿童安全组织提供的已知 CSAM 图像哈希列表进行匹配。
当达到报告阈值时,苹果将检查与 iCloud 中加密图像一起上传的元数据,如果公司确定它是 CSAM,则用户的账户将被禁用,并将内容交给美国的 NCMEC。
该文件指出,苹果使用的 CSAM 哈希将是来自在不同国家/地区运营的两个儿童安全组织的两个集合的交集。
在对 1 亿个非 CSAM 图像运行哈希后,苹果发现了三个误报,在对成人色情集合运行时为零。
为确保苹果的 iCloud 服务器不会对用户拥有的正面 CSAM 图像数量进行计数,他们的设备还将生成虚假元数据,苹果将其称为安全凭证。苹果表示,在达到阈值之前,其服务器将无法区分真的有问题的图片。
苹果还确认元数据将包含用于人工检查的低分辨率图像副本,并且这些副本也针对 CSAM 哈希运行。苹果表示,该系统的设计使用户无需相信苹果就能知道该系统“像宣传的那样运行”。
该公司坚持认为,人工检查过程将确保如果将非 CSAM 哈希值添加到报告集中,则该材料不会被传递出苹果。该公司重申将拒绝将非 CSAM 图像添加到数据集的请求。