英國監管機構指責 Apple 未能有效監控未成年人性圖片

英國國家防止虐待兒童協會(NSPCC)表示,Apple 在其平台上對兒童性虐待材料的出現次數進行了低估。根據《衛報》的報導,庫比蒂諾並未報告其產品上實際檢測到的兒童性虐待材料(CSAM)數量。

由於科技公司有義務向政府分享其平台上可能存在的兒童性虐待材料,Apple 在 2022 年 4 月至 2023 年 3 月期間向全國失踪與被剝削兒童中心(National Center for Missing & Exploited Children)報告了 267 起疑似 CSAM 的案件。然而,NSPCC 發現,在此期間,Apple 涉及 337 起記錄在案的兒童虐待圖像案件。

值得注意的是,庫比蒂諾報告的數量少於英格蘭和威爾士所發生的案件數量。相比之下,其他大型科技公司報告的數字更高。Meta 報告其平台上有超過 3060 萬起疑似 CSAM 材料,其中 WhatsApp 的數量達到 140 萬。Google 也報告了超過 147 萬起材料。

目前尚不清楚為何 Apple 會低估可能的 CSAM 案件。然而,在 2022 年底,該公司因計劃推出 iCloud 照片掃描工具而遭到反對,最終放棄了該計劃,因為這被認為會監控用戶,而不僅僅是尋找可能的兒童性虐待材料。

該公司隨後表示,優先考慮用戶的安全和隱私,並將推出其他功能以保護兒童。儘管 WhatsApp 與 iMessage 一樣具有端對端加密,但英國監管機構指出,該平台報告的案件數量遠超過 Apple。

洛杉磯專注於兒童保護的非營利組織 Heat Initiative 的首席執行官 Sarah Gardner 在接受《衛報》訪問時表示:「Apple 在其大多數環境中根本無法大規模檢測 CSAM。他們顯然在低報數據,並未對信任和安全團隊進行投資以處理此問題。」

儘管庫比蒂諾未對該報導作出評論,但尚不清楚 Apple 是否需要對英國監管機構作出回應,或是否計劃改變其對待 CSAM 的方式。

此文章發佈於 TechRitual 香港 - 日本電話卡
Henderson
Henderson
Henderson 主要擔任「炒稿記者」的職責,以翻譯最新科技,手機 電動車等消息為每天的工作。