红蜻蜓文案网-你身边的文案专家

红蜻蜓文案网-你身边的文案专家

csam是哪个软件

59

CSAM(Child Sexual Abuse Material)是苹果公司推出的儿童保护功能,旨在通过技术手段检测和预防儿童性虐待内容。该功能主要应用于iOS、iPadOS、watchOS和macOS系统中,具体特点包括:

iCloud照片扫描

CSAM技术会扫描用户iCloud存储的照片库,利用机器学习算法识别疑似儿童性虐待内容。若检测到相关图像,系统会向用户发出警报,并提供删除或报告给执法部门的选项。

邮件内容过滤

该功能还扩展到iCloud邮件,检测邮件附件或正文中可能包含的儿童性虐待内容,并向用户发出警告。

Siri和搜索功能限制

在Siri对话和苹果搜索结果中,CSAM检测结果会被过滤,防止相关内容被轻易检索到。

争议与进展

该功能原计划于2021年9-10月通过iOS 15等系统更新推出,但因隐私保护争议被推迟。苹果在2021年9月宣布暂停开发,后续在2022年继续推进,但未发布新版本。

部分用户担心该功能会侵犯隐私或破坏端到端加密,苹果回应称将使用NeuralHash等加密技术保护用户数据。

截至2024年,苹果仍未在iCloud照片中全面实施CSAM检测,但有报道称相关算法已混入iOS 14.3系统。

总结

CSAM是苹果为保护儿童安全推出的综合性技术,目前仅在邮件过滤和部分系统功能中启用,照片检测功能仍在开发中。用户可根据自身需求选择是否启用该功能。