听我给你说件事儿。在2026年,哈佛大学的帕乔基要把他们的AI给搞成研究助手,到了2028年,还要弄个多智能体实验室。就是说,AI不光是算题,还能自己想问题、做实验。像施瓦茨和伊戈尔·巴布什金这些人都觉得,AI比人脑强,五年内就能超过人类,甚至能在这一百年里给我们造出一万个爱因斯坦来。他们看了一下大语言模型的数据量,增长得飞快,每年翻十倍。相比之下,人脑的算力受限,有些难题估计永远也解不开。 可DeepMind的马修·金斯伯格就不太一样了。他承认AI在处理数据上是个高手,但他觉得科学家最厉害的地方是提出那种很新奇的问题。他担心太依赖AI会让我们失去探索的方向。这个观点挺有意思的。 这事儿发生在美国物理学会的一次峰会上,整个物理学界都在讨论呢。OpenAI公司那边也有动静,他们有个叫"北极星"的计划。雅各布·帕乔基是首席科学家,他说了短期目标是在2026年把AI变成特定领域的研究助理。到了2028年,他们想把这个实验室建成能让多个智能体一起合作干活的。 在这个未来图景里,AI得去处理数学、物理和生物这些活儿。至于人嘛,就在背后定个大目标就行了。他也承认这么搞可能会出现权力太集中的问题,因为以后少数人就能管以前得好多人干的事了。 帕乔基自己也是个例子。以前他特别瞧不起代码补全工具,觉得那是鸡肋。现在他被AI的效率给折服了。学术界对AI的看法确实有分歧。xAI的创始人伊戈尔·巴布什金觉得AI建理论的本事早晚能超过人类物理学家。他甚至猜有些大突破可能就是因为研究人员给模型输入了一个什么提示词。 但金斯伯格反驳说,AI给出的答案往往就是基于大家都知道的那些东西,很难出什么真正有创意的发现。讨论到最后大家好像有点共识了:现在的人类就剩下审美、创造力和提问的能力了。 不过施瓦茨和金斯伯格也都觉得,AI可能在十年内就学会提问了。这让人有点担心人类在科研里的地位是不是要保不住了。大家得赶紧想想新的合作模式才行。 这其实不光是技术上的事儿,更是重新看看科学的本质。当机器开始定义问题的时候,我们得想想在智力都差不多的时代怎么保住独特价值。这个问题本身也许就是我们最后能证明自己的地方吧。