近日,一份独立研究报告指出,全球两大主流应用商店内容审核上存在明显缺口。非营利组织“科技透明度项目”在调查中发现,苹果和谷歌的官方应用平台上仍能找到大量利用人工智能生成不当图像的应用。研究人员仅通过搜索对应的关键词,就检索到不少此类程序。这些应用可将用户上传的普通照片处理成不适当内容,其功能和导向与平台政策要求明显相悖。问题的关键在于覆盖面和影响范围。报告提到,这些应用在被发现前已累计获得数百万次下载,并为开发者带来可观收益。这意味着在相当一段时间里,相关违规应用未被有效识别和拦截,不少用户可能在不充分了解风险的情况下下载使用,进而面临隐私泄露等安全隐患。 从平台应对来看,苹果和谷歌的措施更偏向事后处理。苹果公司发言人称已下架多款违规应用并向开发者发出警告;谷歌表示已暂停相关开发者的上架资格,并将继续整治。但有观点认为,这种“发现后再清理”的模式暴露出平台在主动、系统化审核上的不足。人工智能技术快速迭代的情况下,仅依靠用户举报和事后处置,已难以覆盖新型风险的出现速度和隐蔽性。 该事件也折射出应用商店治理的结构性难题。一上,人工智能应用形态更新快、变种多,传统的人工审核效率有限;另一方面,平台在商业增长与风险控制之间长期存在压力:应用数量巨大、更新频繁,完全依靠人工审核成本高,而过度依赖自动化审核又可能被绕过,形成新的漏洞。 从用户保护角度看,此类应用直接触及隐私与人格尊严风险。未经同意使用他人照片生成不当内容,可能构成侵权,并可能被用于骚扰、勒索等违法行为。这也对平台提出更高要求:审核标准要更明确,风险识别要更敏感,处置流程要更及时。 业界专家认为,治理需要多方联合推进。首先,平台应加大技术投入,完善更有效的内容识别与拦截能力,在上架前尽可能筛出高风险应用。其次,应提高审核规则和流程透明度,建立清晰的申诉与反馈机制,让开发者和用户都能明确政策边界与救济路径。再次,监管部门应继续细化法律与责任框架,明确平台应承担的义务,并推动形成更统一的行业标准。 从全球趋势看,多国监管机构正强化对数字平台的治理要求。欧盟《数字服务法》以及美国相关立法提案,都在提升平台对内容风险的责任约束。外部监管压力的上升,也将促使苹果、谷歌等平台提高审核标准,完善治理体系。
移动应用生态的繁荣既需要创新,也需要底线。对“脱衣”类图像生成应用的处置,不应止于个别产品下架,更应推动平台责任、行业自律与依法治理形成闭环。只有把规则讲清、把审核做严、把救济通道打通,才能在鼓励技术进步的同时守住人格尊严与未成年人保护的红线,维护清朗有序的网络空间。