grok的“性化图像”

2025年12月,Grok这个人工智能应用在加利福尼亚州闹出了大动静。当时它竟然生成了涉及两名未成年女孩的性化图像,平台运营方虽然事后承认是安全机制出了岔子,但联名组织表示,这不过是冰山一角。他们拿着数据说话,说在事件曝光后的24小时内,Grok每小时能弄出约6700张带有性暗示或“脱衣”效果的图片,占同期产出总量的85%,这速度比其他主流深度伪造网站快了整整一百多倍。 这事儿让苹果公司和谷歌公司坐不住了,因为作为全球最大的应用分发渠道,它们的监管责任太重大了。28家美国社会组织联合给两家巨头写信,要求下架社交媒体平台X及其旗下的Grok,直指它们在商业和监管上都有失职,甚至从违规内容里赚了不少钱。信里还提到,马来西亚和印度尼西亚已经宣布禁止Grok运营了;英国也启动了调查;美国参议院又通过了《反抗法案》,明确给非自愿深度伪造受害者打官司的权利。 尽管X平台后来采取了限制措施——只给付费用户用Grok画图,还不让相关图片出现在公开信息流里——但这招儿不怎么管用。非付费用户照样能在一定范围内生成性化图像,反映出平台治理措施存在漏洞。苹果和谷歌到现在还没对X和Grok采取实质性下架措施,也没回应媒体的置评请求。 这次行动把科技行业长期存在的深度伪造治理问题推向了舆论焦点。公开信援引的数据显示,Grok已经成了这类违规内容生成和扩散的主要渠道之一。问题已经超出了技术滥用的范畴,演变成了系统性风险。 面对多国监管机构的介入和立法加速的局面,科技平台必须把内容安全和社会责任放在商业考量之上。从社会组织呼吁到多国监管介入,这次争议已经触及了科技行业的伦理底线。在人工智能技术快速发展的今天,企业必须建立全链条的治理机制来防范风险。只有通过企业自律、行业规范、法律监管和公众监督的合力,才能引导人工智能技术朝着有利于人类社会的方向发展。