那个“ai 教父”杰弗里辛顿说了,现在科技公司眼里就只有钱,根本不关心以后会怎么样。

那个“AI教父”杰弗里·辛顿最近说了,现在科技公司眼里就只有钱,根本不关心以后会怎么样。3月22号那天,《财富》杂志报道了这个事儿,说好多IT行业的头头压根没仔细琢磨AI到底要把人类带到哪儿去。 诺贝尔奖得主、“AI教父”辛顿觉得,现在行业的火全都烧在眼前那点短期回报上,根本没去想长远的事儿。他对《财富》杂志说:“对老板们来说,研究就是为了赶紧多赚点钱。研究人员盯着的也都是怎么解决眼下的问题,谁去管以后会变成什么样。咱们一开始也没定要把人类带向何方这种宏大目标,都是围绕着具体的活儿干,比如怎么让电脑看懂图像,或者做出逼真的视频。” 我看新闻里写着呢,辛顿老早就在念叨AI的风险了。他觉得一旦AI变得特别聪明,导致人类灭绝的概率可能有10%到20%。 2023年的时候,他在DNNresearch这家公司被谷歌收购了10年以后离职了。他这么做是为了能更自由地说出对AI风险的担心,因为他觉得根本拦不住那些坏人去滥用技术。 至于这风险有啥样,辛顿分了两类。一类是坏人用坏心眼儿玩AI,这种情况已经冒头了,比如作假的视频和网络攻击,甚至有可能发展成病毒这一块。另一类更严重,是AI自己变成了坏东西,这完全是两码事。 辛顿觉得这事儿最难办的是得把每种问题拆开了单独治。比如咱们可以像印刷术刚出来那会儿标注作者一样,给图像和视频弄个溯源认证的标记,这样就能少让深度伪造的东西满天飞。但他也说这种招数有局限:“这招或许能治眼前的麻烦,但治不好别的问题。” 对于AI自己带来的危险,辛顿觉得得重新想办法定义人和AI的关系。到时候AI如果真变得比人都强了,不光是能力压咱们一头,可能还会生出要活着、要控制人的心思。到那时候咱们还能不能管住它就不一定了。 他提出一个主意:给AI设计个像“母性本能”的机制。让它对人类生出点同情心,别老想着控制人。他还拿母婴关系做了个比喻:“现在就有个例子说明更聪明的人是怎么被不太聪明的人影响的——就是婴儿能让妈妈听他的话。” 所以这可能就是咱们以后面对超级聪明AI的样板——咱们像婴儿似的被照顾着,它们像妈妈那样保护咱们。