2023年的这一年,大家都知道全球的情况不太妙,科学家们给咱们的警告器——“末日之钟”又拨快了。这玩意儿是在1947年美国人搞曼哈顿工程的时候弄出来的,用来提醒大伙儿别太作死。这次是有13个诺贝尔奖得主和一大堆国际专家投票决定的,算是历史上第一次把指针拨到了90秒警戒线外。 他们之所以这么干,主要是因为看到了接下来两年的一大堆问题:俄乌那边打个不停,把核扩散的风险给搞大了;全球都在忙着升级核武器库;人工智能这东西越来越聪明,谁也不敢保证会不会被拿去打仗;还有气温比以前高了1.45℃,极端天气老多了;基因编辑技术监管也是个大漏洞。 咱们再看现在的局势:那边美国打算往核武器现代化上砸下1.5万亿美元,俄罗斯也宣布暂停条约,结果全球手里还是握着1.27万颗核弹头。朝鲜半岛还有南亚那边,核博弈的动静也越来越大。 技术那边也很吓人。像OpenAI这种公司搞的GPT-5,已经能在战略推演上超过人类专家了。欧盟倒是立了法管AI,但全球的算力竞争太激烈,安全防护跟不上趟。生物实验室的事故报告数量一下子涨了37%,新出现的技术监管完全是个空白区。 气候问题更是个大麻烦。联合国报告说了,现在各国自己定的减排目标,到2030年顶多让排放量下降2%,离实现《巴黎协定》的目标差了好几条街。亚马孙雨林的退化率已经破了25%,地球的15个气候临界点里已经有9个被激活了。 国际合作方面也很难办。2023年G20峰会的联合公报里,谈安全的内容比2022年少了42%。联合国安理会想搞个关于新技术威胁的决议,投票通过率跌到了历史最低谷。发展中国家和发达国家在钱和技术上的分歧越来越大,那130个国家呼吁设立的“损失与损害基金”,到现在只凑了不到7%的目标资金。 针对这些问题,《原子科学家公报》的负责人亚历山德拉·贝尔提出了三个解决办法:赶紧让美俄重启对话,五核国一起发个声明不先动手用核武器;在联合国搞个机制盯着AI在军事上的应用;还有把全球的气候预警系统覆盖率从现在的50%提升到2027年的100%。 她特别提到中国在推动《巴黎协定》实施细则和《全球人工智能治理倡议》方面做得不错,这应该成为大家合作的好参考。当“末日之钟”的阴影压下来的时候,这个从核爆废墟里长出来的装置指的是更复杂的系统性危机。从曼哈顿工程科学家的初心开始,到现在大家都在说的科学共识,指针每动一下都反映了人类集体行动的能力和局限。 在技术奇点和气候临界点这个十字路口上,重新建立一个基于实证科学的多边治理架构,或许是把指针拨回正常的唯一办法。就像爱因斯坦最后说的那句话:“用创造问题的思维水平无法解决问题”——我们得用超越危机的智慧,去重塑文明发展的时空观。