iOS 18.2 推出兒童安全新功能:模糊裸體並報告

在 iOS 18.2 中,蘋果正在 添加 一項新功能,該功能恢復了其已停止的 CSAM 掃描計劃背後的部分意圖——這一次,沒有破壞端到端加密或爲政府提供後門。該功能首先在澳大利亞上線,公司擴展的通信安全功能利用設備上的機器學習來檢測和模糊裸體內容,添加警告,並要求用戶確認後才能繼續。如果孩子未滿 13 歲,他們不輸入設備的“屏幕使用時間”密碼就無法繼續。

如果設備的內置機器學習檢測到裸體內容,該功能會自動模糊照片或視頻,顯示該內容可能敏感的警告,並提供獲取幫助的方式。選擇包括離開對話或羣組線程、屏蔽此人以及訪問在線安全資源。

該功能還會顯示一條消息,讓孩子放心,不查看內容或者離開聊天沒問題。還有一個給父母或監護人發送消息的選項。如果孩子年滿 13 歲,在收到這些警告後,他們仍然能夠確認想要繼續——同時再次提醒能夠選擇退出,並且還有進一步的幫助可用。 據《衛報》報道 《衛報》稱,它還包括向蘋果報告圖像和視頻的選項。

該功能會解析 iPhone 和 iPad 上“信息”、“隔空投送”、聯繫人海報(即“電話”或“聯繫人”應用中的)以及“FaceTime 視頻消息”中的照片和視頻。此外,如果孩子選擇一張照片或一段視頻與某些第三方應用分享,它也會對其進行掃描。

其他設備所支持的應用程序存在細微差別。在 Mac 上,若用戶選擇通過其共享內容,它就會掃描消息及部分第三方應用程序。在 Apple Watch 上,其涵蓋了消息、聯繫人海報以及 FaceTime 視頻消息。最後,在Vision Pro上,此功能會掃描消息、AirDrop 以及部分第三方應用程序(處於上述相同條件下)。

該功能要求具備 iOS 18、iPadOS 18、macOS 紅杉或者 visionOS 2 。

《衛報》報道稱,蘋果計劃在澳大利亞試驗後在全球拓展。該公司選擇澳大利亞可能出於一個具體原因:該國即將推出新的規定,要求大型科技公司監管涉及兒童虐待和恐怖的內容。作爲新規則的一部分,澳大利亞同意增加這樣的條款,即只有在技術可行的情況下才強制要求,省略了打破端到端加密以及損害安全性的要求。各公司需要在年底前遵守。

用戶隱私和安全處於蘋果因試圖監管 CSAM 而引發的那場聲名狼藉的爭議的核心位置。2021 年,蘋果準備採用一個能夠 掃描網絡性虐待圖像 的系統,之後將其發送給人工審覈員。(鑑於蘋果此前曾因 聯邦調查局試圖解鎖屬於一名恐怖分子的 iPhone 而與之對抗,這多少令人感到震驚。)隱私和安全專家認爲,該功能會在不存在任何剝削性材料的情況下,爲專制政權監視其公民打開後門。次年,蘋果 放棄了該功能 ,(間接地)促成了如今所宣佈的更平衡的兒童安全功能。

一旦它在全球範圍內推出,您可以在設置 > 屏幕使用時間 > 通信安全下啓用該功能,並將該選項開啓。自 iOS 17 以來,該部分已默認激活。