最近咱们中国的科研团队在汉语脑机接口这个领域可算是干了件大事,让失语的患者说话有了新指望。这事儿是在科技部重点研发计划和国家自然科学基金等项目一直支持下搞出来的。团队花了好多年,联合攻关,最后在国际前沿搞出了一套有自主知识产权的技术。这项成果最近发在《自然》的子刊上,引起了外国同行的高度关注。 说到临床需求,这就是要给那几百万因脑中风、渐冻症或者严重脑外伤丧失语言能力的人解燃眉之急。在中国,这个群体接近800万。这些人脑子清醒,就是说话困难,生活质量和社会参与度都受影响。过去大家研究脑机接口,主要是拿英语这种拼音文字做实验。 可汉语不一样,语音结构和声调系统有独特性,直接套现有技术不太好使。“项目负责人周志涛是中国科学院上海微系统所的研究员,他说汉语虽然用的人多,但解码研究起步晚、体系复杂。”团队琢磨着汉语发音的本质特征,提出了“音节+声调”双通道协同解码的理论。和英语的海量词汇比起来,汉语普通话就靠约400个基础音节加上四个声调变化就能组合出3500多个常用字。这个特点让神经解码变得更容易。 为了把这个理论变成现实,团队搞了高精度柔性电极阵列来记录大脑运动皮层的信号。他们发现汉语音节作为一个整体持续时间长、信号稳定。通过建立70到170赫兹高频脑电特征和音节声调的对应模型,他们把解码单元从数万英语单词量级大幅压缩到了几百个汉语音节量级。在实际操作上还研发了多级实时架构:每50毫秒提取一次信号,用深度学习网络解析音节和声调信息,最后拼成完整语句。 临床实验显示受试者经过短期训练后,对394个常用音节的准确率已经到了71.2%,单音节延迟控制在65毫秒内。 这还没完呢,他们还在往智能交互生态方向发展。“感知-决策-控制”这套系统融合了脑机接口、人工智能等技术。在虚拟交互里生成的语句能让数字人物说话动嘴;在对话里患者能直接用思维跟大模型聊天;在物理控制里指令能变成信号操纵机械手干活。“周志涛觉得这技术正在从替代工具变成增强中枢。” 尽管现在有进展了,还是有很多难题要解决:柔性植入体的生物相容性、不同患者的适应机制、汉语言的编码理论都需要完善。目前已经跟复旦大学附属华山医院、首都医科大学宣武医院等单位合作开展临床试验了。下一步重点是提升植入安全性、开发个性化算法、降低使用门槛。这次突破不仅给失语者带来希望,也是高端医疗装备自主创新的缩影。“随着产学研医协同体系的深化,这项研究肯定会给全球脑科学和健康中国建设注入新动能。”