蘋果疑似在其平台上盡量減少對 CSAM 的懷疑

據英國監管機構稱,蘋果在解決這一問題方面落後於許多競爭對手。

長話短說

  • 蘋果被指控少報其平台上的兒童色情內容。
  • 蘋果的數據與Google、Meta 和其他平台的數據形成鮮明對比。
  • 由於隱私爭議,蘋果放棄了 CSAM 檢測項目。

蘋果面臨嚴重指控

蘋果科技業的主要參與者,被指控低估了其平台上存在的兒童色情內容 (CSAM) 的程度。這項指控來自英國專門致力於兒童保護的協會 NSPCC。

壓倒性的數字

請記住,任何總部位於美國被要求向 NCMEC 報告在其平台上檢測到的任何潛在 CSAM,NCMEC 將案件轉給全球相關執法機構。 2023 年,蘋果在全球僅報告了 267 例 CSAM 病例,與 2023 年報告的 147 萬例潛在病例相比,存在一定的陰影Google以及 3,060 萬份報告。其他平台,包括抖音、Snapchat 和 PlayStation/Sony Interactive Entertainment 報告的可疑情況也比蘋果更多。

值得懷疑的防守

蘋果在辯護中辯稱,iMessage、FaceTime 和 iCloud 等服務都使用端對端加密,阻止它們看到用戶共享的內容。然而,這一點是有爭議的:“WhatsApp 也有這種類型的加密,但 2023 年仍向 NCMEC 報告了近 140 萬個可疑案例,”專家反駁。

加強防護措施?

在這場爭議爆發之前,2021 年,蘋果宣布希望部署一套系統,以便在影像發布前進行掃描。下載在 iCloud 上並將它們與已知 CSAM 影像的資料庫進行比較。然而,面對隱私和數位權利捍衛者的敵意反應,這家加州公司推遲了該項目,並最終在 2022 年放棄了該項目。「無需公司深入挖掘,兒童就可以得到保護個人資料, »該公司隨後於 2022 年 8 月告訴《連線》雜誌。

目前,蘋果尚未對 NSPCC 的指控發表評論,只是重申其希望優先考慮用戶的「安全和保密」。