蘋果取消 iCloud 濫用內容偵測後面臨法庭

針對 Apple 的法律挑戰引發了有關 CSAM 受害者保護和線上安全的問題。

太;博士

  • 蘋果被起訴正義取消了其 CSAM 檢測項目iCloud
  • 受害者提出的投訴指責蘋果公司忽視安全孩子上網。
  • 此案引發了有關保護隱私和打擊濫用內容之間平衡的問題。

廢棄的偵測系統

2021年,蘋果自豪地宣布計劃實施一個系統,使用國家失踪和受虐兒童中心 (NCMEC) 和其他組織的數位簽名來檢測 iCloud 照片中的兒童性虐待圖像 (CSAM)。該技術用於分析儲存在iCloud識別已知的兒童性虐待圖像並向當局報告。然而,出於對用戶安全和隱私的擔憂,特別是政府監控的風險,蘋果放棄了這個項目,引發了嚴厲批評。

凸顯受害者痛苦的投訴

該投訴由一名 27 歲女性提出,為了保護自己的身份,她使用了化名。她在嬰兒時期就遭受性虐待,虐待的照片在網路上流傳。如今,她仍然收到執法部門關於這些影像被利用的通知。這位女士認為,由於沒有實施有效的檢測技術,蘋果公司正在迫使受害者不斷重溫他們的創傷。她說,蘋果決定不部署所宣布的系統對她的生活產生了巨大的影響,因為她必須定期處理與這些圖像相關的法律行動通知。

對其他受害者的影響以及集體訴訟的可能性

原告律師詹姆斯馬什認為,大量受害者可能會受到此案的影響。他提出了集體訴訟的可能性,並提到如果投訴成功,大約 2,680 名受害者可能有資格獲得賠償。這種情況不僅凸顯了圍繞打擊 CSAM 的法律問題,還凸顯了在 iCloud 等平台上保護兒童和保護使用者隱私之間的平衡問題。

蘋果的回應與安全問題

蘋果對此投訴作出回應,澄清公司將繼續積極創新,打擊濫用行為,同時不損害用戶的安全和隱私。這家加州公司解釋說,其保護線上性虐待受害者的努力仍在繼續,但形式與最初宣布的不同。這項回應凸顯了打擊網路非法內容和保護用戶私人資料之間複雜的緊張關係,這一困境仍然是數位安全和個人權利辯論的核心。