蘋果早前宣佈即將在下一個iOS版本,推出新的CSAM偵測功能,掃描用戶的相片,與資料庫作出配對,蘋果聲稱是為了防止兒童色情。唯不少專家擔心,當中的資料庫可能會被極權政府濫用,強逼蘋果加入「坦克人」當兒童色情,令蘋果配合極權政府,查看用戶手機相片等內容。而且,根據蘋果過往慣例,蘋果常以聲稱為了配合當地法例作出行動,例如配合中國政府移除App Store的apps。
根據9to5mac報道,他們最近收到蘋果通知將延遲推防兒童色情功能。蘋果稱基於近日用戶、組織、研究員和不同人士的意見,他們決定在未來數月,收集大家意見,並會作出改進後才會推出這個重要的防兒童色情的功能。
除了掃描相片功能暫緩外,訊息app的防止兒童色情功能也會暫緩。