最近,有件事儿在苹果公司的App Store和谷歌公司的Play Store里闹大了,而且还惊动了Reddit这样的国际社交平台。原因是,在这些应用商店里,居然出现了一批号称能“AI脱衣”的软件。这些App利用了Deepfake技术,只要用户上传一张普通照片,它们就能合成出非常逼真的裸体图片。 事情是这样的:非营利组织“科技透明度项目”调查发现,这种软件一点都不低调,直接在搜索框里输入关键词就能找到一大堆图标和描述都很露骨的应用。它们的功能很明确,就是用来生成不雅内容的,跟那些普通的修图美化软件完全不一样。更让人意外的是,有些软件在被曝光前已经下载了好几百万次了,这给开发者带来了不少收入,可也意味着侵权风险已经很大。 Reddit上的网友们对这事儿反应很强烈,大家觉得这不仅仅是技术用错了地方,更是对肖像权、隐私权和人格尊严的严重侵犯,对女性群体尤其危险。用AI伪造这种不雅照很容易被坏人利用去敲诈勒索、搞网络欺凌或者损坏名誉。 面对舆论的压力,苹果和谷歌都赶紧回应了。苹果公司说已经把那些违规的App下架了,还给开发者发了警告;谷歌那边也说已经停了相关开发者的账户权限,还要继续清理这些违规内容。两家公司都强调说自己的政策禁止这种侵犯隐私、害人的内容。 不过,这种事后补救的做法并没有平息大家的批评。有人就问了:为啥这种一看就有问题的应用能通过审核?为啥非要等到别人爆料了才开始查?这说明现在的审核机制太依赖关键词过滤和用户举报了,根本跟不上AI滥用的新花样。 更深层次的问题其实是科技企业的社会责任和伦理边界在哪儿。当这些平台只顾着赚钱和扩张规模的时候,能不能跟上技术创新的脚步?现在的生成式AI门槛越来越低,平台有没有本事从源头就把这种Deepfake应用拦下来? 这次事件不只是监管漏了,也是对科技巨头怎么当好“守门人”、怎么平衡发展和安全提出了挑战。全球很多国家都在赶紧立法应对这种情况,像欧盟和中国都有相关的规定。“AI脱衣”这个事儿正好给咱们提供了一个很实际的例子。 科技是一把双刃剑啊,既能帮咱们进步也能害人。这个事儿就像警钟一样提醒我们:技术更新得快也要守住道德底线和监管能力。作为掌握着关键分发渠道的苹果、谷歌这些公司得负起主要责任。只有建立更主动、更高效的治理体系,把道德考量融入到产品开发和审核里去,才能真正挡住技术滥用的洪水。 说到底,技术的未来到底好不好全看我们怎么引导和约束它。咱们得一起努力,把数字时代变得更安全更清朗。