ai 评估体系拿了出来,这事儿发生在2月28日。这次发布背后有北京前瞻人工智能安全与治理研究院(beijing

把一套名叫“前瞻安全基准”的全面AI评估体系拿了出来,这事儿发生在2月28日。这次发布背后有北京前瞻人工智能安全与治理研究院(Beijing-AISI)牵头,还有北京人工智能安全与超级对齐重点实验室以及中国科学院自动化研究所人工智能伦理与治理研究中心的支持。他们专门把基础安全、拓展安全、产业安全这三个方面挑出来当作支柱,并且细分了7大类基础风险、5大拓展支柱以及8个产业关键领域,一共列出了94项具体的风险维度。到现在已经积累了几万条结构化的数据和测评结果,用来应对像智能体安全、具身智能安全这类新冒出来的安全隐患。这个框架构建得很细也很系统,覆盖面很广。为了让大伙儿看个明白,他们把22款有代表性的大模型安全水平给晒了出来,后面还会继续开放更多的模型测评结果。这事儿一出来马上就火了,Anthropic的联合创始人Jack Clark专门提到“China’s big AI benchmark”,还点出了一个很有意思的地方——这个基准展现了东西方在AI安全上有着惊人的共识。杰克·克拉克说,虽然地缘政治有分歧,但大家都在琢磨怎么从社会层面去评估系统属性。他尤其提到中国的研究者也在琢磨那些美国顶尖实验室同样头疼的生存性风险问题。 顺便说一句,Jack Clark这人以前是OpenAI的政策负责人。