天天看點

蘋果公司從其兒童安全網頁上删除了對有争議的CSAM掃描功能的

蘋果公司已經悄悄地從其兒童安全網頁上删除了所有提及CSAM的内容,這表明在對其方法提出重大批評後,其檢測iPhone和iPad上兒童性虐待圖像的有争議的計劃可能懸而未決甚至可能中途夭折。

蘋果公司在8月宣布了一套計劃中的新的兒童安全功能,包括掃描使用者的iCloud照片庫中的兒童性虐待材料(CSAM),在接收或發送色情照片時警告兒童及其父母的通信安全,以及擴大Siri和搜尋中的CSAM指導。

蘋果公司從其兒童安全網頁上删除了對有争議的CSAM掃描功能的

這些功能公布後,受到廣泛的個人群組織的批評,包括安全研究人員、隐私吹哨人愛德華·斯諾登、電子前沿基金會(EFF)、Facebook的前安全主管、政治家、政策團體、大學研究人員,甚至一些蘋果員工都對此表示明确反對。

大多數批評都是針對蘋果公司計劃的裝置上CSAM檢測,研究人員抨擊其依賴無效和危險的技術,近乎于實施大規模監視,并嘲笑其實際上在識别兒童性虐待圖像方面沒有效果。

蘋果繼續為"資訊"功能推出通信安全特性,本周早些時候随着iOS 15.2的釋出而上線,但在批評的洪流中,蘋果決定推遲CSAM的推出,這顯然是它沒有想到的。

9月,該公司表示,"根據客戶、宣傳團體、研究人員和其他方面的回報,我們決定在未來幾個月花更多時間收集意見,并在釋出這些極其重要的兒童安全功能之前進行改進。"

上述聲明之前被添加到蘋果公司的兒童安全頁面,但它現在已經消失了,這就提出了一種可能性,即蘋果公司可能已經把擱置,甚至完全放棄了這個計劃。

繼續閱讀