2015年,“模型蒸馏”这项技术被提出来,它是个很好的工具,能让小型模型像学生一样,通过阅读教材、提炼精华来快速掌握大型模型的能力。剑桥颐华律师事务所的杨卫薪认为,这种方法就像学生读课本,属于正常的技术迭代,跟偷东西完全没关系。但这次Anthropic却把DeepSeek、Moonshot还有MiniMax这三家中国公司告了,指控它们用了一种叫“工业规模蒸馏攻击”的招数来获取自己的Claude模型核心技术。这事儿把全球AI行业搞得沸沸扬扬,大家开始讨论技术伦理和商业竞争到底怎么平衡。 北京理工大学的博士生王明打了个比方,“蒸馏”其实就是让小型模型去学习大型模型的推理过程,最后形成自己的一套独立知识体系。跟那种直接调用API接口的“套壳”行为不一样,“蒸馏”需要一套完整的训练流程,最后生成的模型得是有自主性的。自2015年提出以来,“蒸馏”已经成了行业降本增效的重要手段,就连国外的大公司也在相互学习对方的长处。 但这次Anthropic指控的是一种“黑盒蒸馏”,也就是通过公开的API接口来获取模型输出。剑桥颐华的杨卫薪说,这种做法在学术界和产业界都挺普遍的。不过Anthropic在报告里还提到了他们监控API调用的技术,这反而让大家开始担心企业会不会对用户行为进行过度审查了。 从法律角度看也挺复杂的。北京星也律师事务所的于泽辉分析说,版权侵权得证明输出内容是受保护的作品才行,可美国那边通常不承认纯AI生成的东西有版权。更何况Anthropic的用户协议已经把内容所有权给了用户,他们现在再来主张知识产权侵害好像有点说不通。至于不正当竞争方面,违反协议属于合同纠纷,跟直接偷代码的侵权行为还是有本质区别的。 技术中立性也碰到了现实问题。前大厂AI工程师Frank说过一个情况:“蒸馏”虽然能让后发企业快速赶上头部企业的水平,但瓶颈也很明显——它的能力上限被限制在了“老师”模型上,处理复杂任务时表现不稳定,还会把原模型的偏见和错误给继承下来。这路子顶多算是追赶阶段的过渡方案,长期依赖肯定不行,容易让企业陷入被动跟着跑的局面。 这事儿其实也反映了全球AI产业的结构性矛盾。开源派觉得闭源模式通过技术封锁来维持优势,会阻碍行业进步;而商业公司觉得研发投入那么大,必须得有法律保护才行。随着中国AI企业的崛起,这种路线之争变得越来越激烈。Anthropic之前因为数据合规问题也惹上过不少官司,这次高调指控也让人怀疑是不是想转移矛盾焦点。 有个叫Jojo的AI创业者说得好:“蒸馏”就像登山者的绳索,能帮后发企业快速爬上去到达特定高度,但最后想突破还得靠自己爬。企业得在合规框架内平衡好技术借鉴和原始创新的关系,靠差异化优势赢市场认可才行。千万别想着靠限制技术传播来维持领先地位。