新功能允許兒童直接向蘋果公司報告不當內容
作爲 iOS 18.2 測試版的一部分推出的一項新功能允許澳大利亞的兒童直接向蘋果公司報告不當內容。該功能是 iOS 17 中包含的安全措施的延伸。 這些功能可自動檢測 iMessage、AirDrop、FaceTime 和照片中包含裸露內容的圖片和視頻。
最初的設定是,CSAM警告一旦觸發,就會出現一對干預彈窗。 這些彈窗會解釋如何與當局聯繫,並指示兒童提醒家長或監護人。
現在,當檢測到裸體等不適當內容時,會出現一個新的彈出窗口。 用戶可以直接向蘋果公司報告圖片和視頻,而蘋果公司則可以將信息發送給有關部門。
當警告出現時,用戶的設備會準備一份報告,其中包括任何攻擊性材料、材料前後發送的信息以及兩個賬戶的聯繫信息。 用戶可以選擇填寫一份表格,說明發生了什麼。
蘋果公司收到報告後,將對內容進行審查。 隨後,該公司將對該帳戶採取行動,包括禁用用戶通過iMessage發送信息的功能,以及將該問題報告給執法部門。
該功能目前作爲 iOS 18.2 測試版的一部分在澳大利亞推出,但稍後將在全球推出。
正如《衛報》所指出的,蘋果很可能選擇澳大利亞,因爲該國將要求公司在 2024 年底之前對雲消息服務中的虐待兒童和恐怖內容進行監管。
蘋果公司警告說,該代碼草案不會保護端到端加密,從而使用戶的通信容易受到大規模監控。 自 2018 年末以來,蘋果公司一直公開反對此類努力。
蘋果公司在其平臺上處理兒童性虐待材料(CSAM)的方式受到了抨擊。 起初,該公司被指責沒有認真對待 CSAM 保護問題,這激怒了許多監督團體。
2021 年,蘋果計劃推出 CSAM 保護措施,該措施將掃描用戶iCloud照片中已知的 CSAM 圖像。 如果發現,蘋果公司將對圖像進行審查,然後將報告發送至國家失蹤與被剝削兒童中心 (NCMEC)。
許多用戶對蘋果掃描其私人圖像和視頻的想法表示憤怒,並擔心會被錯誤檢測到。 蘋果公司最終放棄了這一想法,理由是擔心掃描數據"會爲數據竊賊發現和利用新的威脅載體"。
2024 年,英國國家防止虐待兒童協會 (NSPCC) 表示,在英國的蘋果平臺上發現的虐待圖片案例比蘋果在全球範圍內報告的案例還要多。