全球人工智能治理工作坊在沪召开 中外专家探讨AI监管与国际协调

随着前沿人工智能技术快速发展,治理重点正从应用管理转向能力管控;专家指出,大模型等技术提升生产效率和科研水平的同时,也带来了内容可信度下降、深度合成滥用、数据隐私风险、模型安全与对齐问题,以及关键基础设施依赖加深等挑战。尤其在跨境服务、开源生态和供应链高度融合的背景下,单一国家的监管难以覆盖全链条风险,国际协调与国内制度衔接成为紧迫课题。 技术迭代与制度供给的“时间差”加剧了治理复杂性。本次工作坊由AI安全国际论坛(SAIF)、全球人工智能创新治理中心及同济大学人工智能政治学研究中心联合主办,复旦发展研究院等机构协办。来自国内外高校和研究机构的近20位专家参会。全球人工智能创新治理中心副主任张怡、SAIF执行主任Fynn Heide及同济大学鲁传颖教授在致辞中强调,在技术竞争与合作并存的背景下,学术界和政策界需建立更稳定的沟通机制,以减少误判、扩大共识。 国内规则趋严与国际规则竞合并行,直接影响产业边界与创新路径。与会者指出,多国已围绕模型安全测试、内容标识、数据出境等加强监管,形成以风险分级和责任追溯为特征的制度趋势。同时,国际层面在标准制定、评测基准、事故通报各上呈现多轨并进态势。这种趋势虽有助于提升企业责任和公众信任,但也可能导致规则碎片化和合规成本上升,给跨境科研合作与产品服务带来不确定性。对中国而言,如何保障安全的前提下扩大开放、推动产业高质量发展,是制度设计需解决的关键问题。 工作坊围绕“问题导向、分层治理、可验证规则”展开讨论,提出以下建议: 1. 国内监管:推动模型评测与安全审计制度化,建立可复核的评估体系;完善内容标识与来源追溯机制;针对高风险应用明确责任边界,细化数据合规与算法透明度要求,避免“一刀切”影响创新。 2. 国际协调:针对不同风险类型建立分级协作机制,如技术标准互认、评测方法共享、重大事故通报等,避免治理流于原则性宣示,提升规则的可执行性。 3. 未来合作:在学术交流、联合研究、能力建设等上形成长期机制,围绕模型安全评估、数据治理等议题持续对话,为政策制定提供支持。 专家认为,全球人工智能治理将呈现两条主线:国内监管向精细化、全周期管理转变;国际合作从原则共识转向工具性合作,逐步构建标准、评测等务实网络。中国推进科技创新和制度型开放中,可在规则对接、技术评测等上发挥更积极作用,推动兼顾安全与发展的国际公共产品形成。

人工智能发展进入“深水区”,治理创新不仅是技术问题,更是关乎人类未来的战略命题。此次研讨会展现的合作意愿表明,只有超越零和思维、构建包容性治理生态,才能让技术真正服务于全球可持续发展。未来各国能否在关键议题上达成共识,仍需实践检验。