业余棋手的逆袭,给ai圈提了个醒:深度学习模型太容易被人搞破坏了

今年01月份,一个业余四段棋手 Kellin Pelrine 把自己的名字刻进了历史。他在没有计算机帮忙的情况下,硬是凭着一把围棋把顶尖的人工智能 KataGo 给赢了14局输1局。这事儿来得突然,就像把时间线撕开一道口子,把沉寂了七年的“人类围棋到底不行了”的结论给推翻了。 你知道2016年AlphaGo赢了李世石以后,大家都在说“人类围棋到头了”吧?现在倒好,这帮业余棋手把AI给围起来了。Pelrine 能赢其实也没什么高深招数,就是让AI先布局落子,等人家注意力全在边上的时候,他偷偷把人马全都调到一边去包抄。结果KataGo到了快结束的时候都没反应过来包围圈早就收紧了。 加州大学伯克利分校的 Stuart Russell 教授就说过,“最先进的系统只知道自己以前见过的招法”。说白了,AI就是通过海量的自我对练变强的,只要遇到了没见过的“新花样”,马上就露馅。 研究团队把KataGo关起来试了试。在没让它用搜索树的时候,攻击方赢了一千盘;把树全打开之后,胜率还是被压到了不到3%。他们发现只要让AI犯点低级错误就能赢。所以他们就训练出了两种专门对付AI的蒙特卡洛树搜索:一个是简单采样(A-MCTS-S),另一个是更精确但算得更多的递归搜索(A-MCTS-R)。最后发现递归版本更厉害,能直接把KataGo的胜率锁死在个位数。 其实这里面的逻辑挺简单:咱们让攻击者用A-MCTS去引诱KataGo出错。虽然KataGo搜得越深、棋下得越厉害,但这就像是把猎物赶进了陷阱里。等到业余爱好者知道了这些坑在哪之后,再面对常规的下法,他们就知道怎么模仿这种套路来诱导AI犯错误。 这场业余棋手的“逆袭”给AI圈提了个醒:深度学习模型太容易被人搞破坏了;AI自己对练出来的招数可能会被另一种AI破解;人类那点直觉和经验优势还是有的。也许下一次AlphaZero、KataGo或者Leela Zero不再是只知道计算的怪兽了,而是变成了人类策略的陪练。 等到算法不仅能进化自己还能攻击自己、并且教会我们怎么打败它的时候,围棋真正的决赛圈才算是开始了。