问题浮现: 近期,部分提供AI写真服务的互联网平台因数据采集条款引发争议。记者调查发现,多家平台用户协议中加入“全球性、永久性、不可撤销”等授权表述,用户上传的个人肖像可能被用于商业开发,后续维权和追责难度较大。2026年4月9日,杭州互联网法院受理的首例对应的案件中,消费者因误把AI生成的“模特”照片当作真实图片而遭受经济损失,深入暴露了问题的现实风险。 深层原因: 行业专家认为,这类现象主要由三上因素叠加造成:一是立法与监管节奏跟不上技术迭代,现有《个人信息保护法》对生成式AI场景的针对性仍不足;二是部分平台出于商业考量,将用户数据视为重要资产进行二次开发;三是公众风险意识不强,面对冗长协议往往未细读关键条款。中国政法大学数据法治研究院教授李明指出:“部分企业正利用技术优势与信息不对称,形成新的数据剥削模式。” 多重影响: 数据滥用已带来若干连锁影响。其一,用户肖像权存在长期、持续被侵害的风险,可能被用于虚假广告、合成影像等用途;其二——扰乱市场秩序——电商领域已出现用AI生成虚假模特图片实施欺诈的案例;其三,削弱公众对新技术的信任,不利于行业可持续发展。中国消费者协会统计显示,2026年一季度涉及AI服务的投诉量同比增长240%。 应对措施: 针对相关乱象,监管部门正推进多项治理措施。网信办在新规中要求平台对数据使用范围作出“显著提示”,并禁止以默认勾选方式获取授权。北京市律协知识产权专委会建议建立“数字肖像权”的特殊保护机制,对商业用途实行单独授权。此外,部分头部平台已启动整改,新增“数据使用透明度查询”等功能,便于用户了解和管理数据流向。 发展前瞻: 业内人士预计,随着《数据安全法》配套细则健全,2026年下半年行业或将迎来新一轮调整。如何在技术创新与伦理约束之间取得平衡,将成为竞争焦点。未来可能出现三类趋势:一是探索“数据信托”等更清晰的管理模式;二是区块链等技术在授权记录与追溯上加速落地;三是逐步形成分级分类的生物信息使用标准。清华大学人工智能研究院专家表示:“未来的竞争,很大程度上是隐私保护能力的竞争。”
面部图像等生物识别信息一旦被过度收集并扩散使用,个人往往很难“重新来过”。在生成式技术加速进入日常生活的当下,平台应把合规作为底线,把用户视为权利主体而非数据来源;公众也需要提高对条款的敏感度和维权意识。让技术更好服务于人,前提是权利边界清晰、责任可追溯、治理措施能落地。只有在法治与规则框架内推进创新,技术红利才能真正惠及社会与每个人。