“人脸认证记得穿好衣服”登上热搜背后:影像采集边界与隐私提示亟待补课

技术认知鸿沟引发隐私担忧 3月8日,有关人脸识别技术实际采集范围的讨论在社交媒体持续发酵。

复旦大学计算与智能创新学院张军平教授的科普视频被重新关注,其指出人脸认证过程中,系统实际采集的是摄像头全部覆盖区域,而非仅限屏幕显示的圆形框内画面。

这一技术特性导致部分用户在非着装完整状态下完成认证的行为,存在隐私泄露隐患。

技术原理与监管盲区并存 业内专家分析,人脸识别系统采用全画面采集主要基于两个技术考量:一是需通过环境特征辅助活体检测,防止静态照片欺骗;二是保留原始数据便于算法优化。

然而现行《个人信息保护法》虽规定"最小必要原则",但对具体采集范围尚未形成细化的技术标准。

记者查询发现,目前主流支付平台的人脸认证页面,约76%未对采集范围作出明确提示。

公众权益保护面临三重挑战 这种现象暴露出技术快速发展期的典型矛盾:首先,企业技术透明度不足,2023年第三方测评显示,仅29%的APP在隐私政策中详述影像采集范围;其次,用户技术素养存在代际差异,中老年群体对新兴技术认知更为有限;再者,行业自律规范滞后,中国电子技术标准化研究院2022年发布的《人脸识别系统应用规范》未强制要求采集范围告知。

构建多维防护体系迫在眉睫 针对这一现状,专家建议采取分级治理方案:在技术层面,企业应开发"隐私区域马赛克"功能,中国信通院已在牵头制定相关技术标准;在监管层面,需明确采集范围提示的强制性要求,上海市人大常委会2023年修订的《上海市数据条例》已作出先行探索;在用户端,有必要将数字素养教育纳入社区普法体系,北京部分街道已试点开展"智能手机安全使用"培训课程。

技术伦理建设需同步跟进 值得注意的是,这轮讨论还延伸至更深远的技术伦理议题。

张军平教授在相关研究中强调,人工智能发展必须建立"技术谦抑"原则,即在追求算法精度的同时,需充分考虑人文关怀。

这种观点与欧盟《人工智能法案》中"人类监督权"的立法理念形成呼应,为我国正在制定的《人工智能示范法》提供了重要参考。

人脸识别技术的发展是社会进步的体现,但技术进步与隐私保护并非对立关系。

这一科普话题的持续热度说明,公众既渴望享受技术带来的便利,也日益关注个人信息的安全。

相关部门、企业和个人都应当在这一过程中承担相应责任:监管部门应完善相关法规,企业应提升透明度和用户提示,而用户则需要增强自我保护意识。

唯有各方协力,才能在技术创新与隐私保护之间找到平衡点,让科技更好地服务于社会。