蘋果調整 CSAM 系統以保持萬億分之一的誤報停用閾值

該公司重申會拒絕將非 CSAM 圖像添加到數據集的請求

最近更新時間 2021-08-16 16:21:16

CSAM system

當蘋果上週宣佈計劃解決其操作系統上的虐待兒童材料時,它表示它為誤報賬戶禁用設定的閾值將是每年萬億分之一。

蘋果計劃中最具爭議的部分是其設備上的兒童性虐待材料 (CSAM) 檢測系統。在蘋果設備的用戶將圖像存儲在 iCloud 之前,將設備上的圖像與美國國家失蹤與受虐兒童中心 (NCMEC) 和其他兒童安全組織提供的已知 CSAM 圖像哈希列表進行匹配。

當達到報告閾值時,蘋果將檢查與 iCloud 中加密圖像一起上傳的元數據,如果公司確定它是 CSAM,則用戶的賬戶將被禁用,並將內容交給美國的 NCMEC。

該文件指出,蘋果使用的 CSAM 哈希將是來自在不同國家/地區運營的兩個兒童安全組織的兩個集合的交集。

在對 1 億個非 CSAM 圖像運行哈希後,蘋果發現了三個誤報,在對成人色情集合運行時為零。

為確保蘋果的 iCloud 服務器不會對用戶擁有的正面 CSAM 圖像數量進行計數,他們的設備還將生成虛假元數據,蘋果將其稱為安全憑證。蘋果表示,在達到閾值之前,其服務器將無法區分真的有問題的圖片。

蘋果還確認元數據將包含用於人工檢查的低分辨率圖像副本,並且這些副本也針對 CSAM 哈希運行。蘋果表示,該系統的設計使用戶無需相信蘋果就能知道該系統“像宣傳的那樣運行”。

該公司堅持認為,人工檢查過程將確保如果將非 CSAM 哈希值添加到報告集中,則該材料不會被傳遞出蘋果。該公司重申將拒絕將非 CSAM 圖像添加到數據集的請求。

rss_feed