搞科研的在北京那边弄出了个新型神经网络,想着让人工智能的思维方式更接近人脑。咱们都知道,人类大脑有个特别的本事,就是能从具体的感官体验中抽取出抽象的概念,不用看实物直接在概念里捣鼓。跟人脑相比,现在的AI系统最大的不同就在这儿了。这次中国科学院自动化研究所脑图谱与类脑智能实验室的团队,跟北京大学心理与认知科学学院的科研队伍联手,搞出来了个新架构,成功让AI能像人一样形成概念、理解概念,还能进行交流。论文最近发出来了。其实这个过程就是把那些高维的感官数据压缩成低维的概念,再用这个概念去还原感官感知。这套双向的机制就是咱们符号化思维的根基。可现在的深度网络往往把知识缠在一大堆参数里,很难理出单独的概念;而那些火得不行的AI大模型又太依赖人类现有的语言符号来训练,根本做不到真正的“无中生有”,也就是没法从感觉经验里自己蹦出新概念。为了解决这个难题,中国科学院自动化研究所的余山研究员带着他的团队,还有北京大学的毕彦超教授那一边,合作搞起了研究,最后拿出了一套新的神经网络框架。这套系统里面有个专门负责抽象的模块,它能自己把高维度的视觉信号压扁成短小精悍的“概念向量”。接下来就像开锁似的,这些概念向量能给神经网络发出开关信号。这个开关的动作就能让处理任务的模块活动起来,又快又灵活地解决特定的视觉问题。 更厉害的是,这个系统还能在跟环境打交道的时候自己生出一堆新概念,建立起属于自己的概念库。等到不同网络的概念库对上号了,大家就不用再从外面学了。只要通过概念向量在网络间传递消息就能实现交流。数据分析显示,这套东西不光在功能上模仿了人类的认知模式,在机制上也解释了人脑是怎么生成和理解概念的。不过现在的大语言模型能力其实还是被人类语言限定住了。搞研究的人也说了,要是能让AI自己生出新概念来,就能让它们在更大的范围里干活儿,比如搞全新的科学探索。这项研究为以后的智能系统奠定了很好的基础。当然了,以后怎么保证这些系统和人类的价值观合拍也是个大事儿。