别再把锅全甩给“技术作恶”了

大家都知道这是一件很尴尬的事,3月16日工信部发了通告,说要打击AI生成的色情内容。但是就在同一天,有个叫NudeNow的工具把一个姑娘的生活照给扒光了。这个女孩发现后报警并找平台客服,想把这张假图从网上删除。但是平台客服却一直要求她提供原始链接和侵权证明。更让人愤怒的是,那些转发这张假图的人却一点都不觉得对不起这个女孩,他们只是为了满足自己的猎奇心理。 其实这个女孩起诉了开发NudeNow工具的团队,还要求他们公开训练这个AI的数据里有没有偷她的脸。这次她真的给了那些平台一记响亮耳光。不过最让人失望的不是开发团队而是那些“平台”们,每次一出事他们总是说些漂亮话:我们深感痛心、我们坚决反对……可转头那些内容还在他们的社交App上到处都是。 你们有没有注意到这些平台总是对明星八卦、商业导流特别敏感,一到真正作恶的角落就变得“选择性失明”。有数据显示今年一季度某平台自动抓取的疑似AI伪造色情内容举报量暴涨了450%,可是这些举报在人工审核那里的优先级依然被标为“中低”。 这些平台天天把“科技向善”挂在嘴边,产品经理们为了“用户痛点”也费劲心思。可是他们真的关心普通用户上传照片时的安全感吗?他们给每个用户一张过期的“用户协议”创可贴就完事了。 技术当然有难度,但态度有没有难度?清华大学最新检测模型对最新骗术还有三成误报率呢。可当一套算法能把用户时长、广告点击算计到毫秒时却算不出保护一个用户最基本尊严的优先级时,这根本不是技术问题而是价值观的破产。 别再把锅全甩给“技术作恶”了。技术是刀握刀的是人而给握刀人提供舞台的是那些揣着明白装糊涂的超级平台。它们构筑了我们的生活却拒绝为这片数字领土上最基本的治安负责。 当“一键脱衣”比“一键举报”反馈更快时我们骂开发者是人渣那这些纵容人渣在自家广场上开“影像屠宰场”的房东又该叫什么? 我们能不能不要再假装没事发生了?把北京互联网法院的门槛踩出裂痕的是一张AI生成的裸照而给整个互联网时代“假装无事”的脸一记响亮耳光呢?