天天看點

iOS 15下線防色情功能!

果粉之家,專業蘋果手機技術研究十年!您身邊的蘋果專家~

早在今年8月份,蘋果就對外官宣,将在iOS 15系統将通過Messages資訊應用中敏感圖像篩查、iCloud中兒童性虐待内容的檢測,以及Siri和搜尋功能的相關内容等三項新功能來保護兒童免受色情/暴力圖檔的傷害。

iOS 15下線防色情功能!

簡單點說,蘋果将對使用者儲存到iPhone上的照片、通過 iMessage 釋出的照片以及上傳到 iCloud的圖檔進行稽核,進而識别兒童色情和虐待内容 (CSAM),打擊其傳播。

比如在iCloud家庭中,如果孩子在iMessages資訊上收到色情圖檔時,圖檔會隐藏起來,并且Messages會警告使用者該圖檔是“少兒不宜”的敏感圖檔。如果孩子執意檢視這張圖檔,那麼iCloud家庭中的父母将受到通知,彈出視窗還将包含一個含有幫助資訊的連結。

iOS 15下線防色情功能!

雖然蘋果出發點是好的,但蘋果的兒童安全功能卻引起了廣泛的争議和批評。一向最注重使用者個人隐私的蘋果,竟然要主動掃描使用者儲存及發送到照片?

針對CSAM(兒童性虐待照片)檢測新功能引起的争議,蘋果也明确表示稱:這個新功能并不會留下任何後門,包括蘋果也不會掃描iPhone的整個相冊來尋找虐童圖檔,而是使用密碼學把圖檔與美國國家失蹤與受虐兒童中心提供的已知資料庫進行比對。

iOS 15下線防色情功能!

但随後在9月份,蘋果宣布将推遲上線其CSAM兒童保護功能,并且決定在未來幾個月花更多時間收集iPhone使用者意見并進行改進,然後再釋出這些至關重要的兒童安全功能。

轉眼已經到了12月份,日前有使用者發現,蘋果在官網上已經删除了CSAM兒童保護這個功能的介紹。由此可見,在征求了使用者的意見之後,大部分使用者對這個功能還是比較不認可的,是以蘋果已經從iOS 15系統中移除的這一功能。

iOS 15下線防色情功能!

這也意味着蘋果短之間内,至少在iOS 15系統中将不會再加入這個新功能,使用者也無需擔心蘋果會掃描相冊導緻隐私洩露了。

有果粉的地方就有果粉之家,學習蘋果使用技巧,了解最新蘋果資訊請關注:果粉之家!

繼續閱讀