清华大学专家谈智能技术治理:创新与安全需协同推进

当前,人工智能正以前所未有的速度融入经济社会各领域。

从技术迭代的加速到应用场景的扩展,再到随之而来的安全隐忧,这一系列现象引发了业界和社会的广泛关注。

如何在拥抱创新的同时筑牢安全防线,成为摆在决策者和从业者面前的重要课题。

关于人工智能对就业的冲击,朱军认为不必过度悲观。

他指出,历史上每一次技术变革都伴随着就业结构的调整,但最终并未导致工作机会减少。

相反,AI作为生产力工具,将解放人类从重复性劳动中脱离出来,为创意、决策等高阶工作创造更多空间。

他强调,关键在于人们要主动拥抱、学习和掌握这些新技术,站在更高的平台上实现自我提升。

在大模型安全防护方面,朱军表示,当前行业面临的主要挑战是系统、模型和算法的安全问题在早期阶段还未得到充分重视。

但他对此持乐观态度,认为随着问题的暴露和讨论深入,专家学者和产业从业者将迅速形成共识,围绕大模型的系统级安全防护工具和软件将快速涌现。

这是一个相互促进的过程——发展中发现问题,通过治理解决问题,进而推动更安全的发展。

从国家层面看,我国人工智能发展规划强调治理与发展并重。

这意味着既要鼓励技术创新和应用探索,也要建立相应的安全防护机制。

各地推出的政策举措和相关部门的风险防范呼吁,都是这一整体战略的具体体现,两者并非对立而是相辅相成。

在技术演进路径上,朱军通过对比分析给出了有益的启示。

语言模型从起步到大规模应用用了约五年时间,而视频生成模型从Sora问世到可商用阶段仅用了不到两年,迭代速度明显加快。

这表明,一旦数据架构完善、条件具备,大模型的发展速度将极为迅捷。

基于这一规律,他预判具身智能的发展同样会保持高速度,未来一两年内有望达到实用化水平。

其中,视频数据的充分利用将成为解决机器人领域数据采集瓶颈的关键。

大模型技术进步必然带来产业机遇。

朱军指出,数据素材处理、硬件开发、软件应用、软硬协同等领域都将涌现大量工作机会。

更值得关注的是,AI将催生"一人公司"模式的普及。

在数字内容领域,单个创作者已能独立完成从策划、制作到变现的全流程,这在过去需要整个工作室才能完成。

这种变化预示着未来将出现更多新职位和新行业,人类的适应性和创造力将得到更充分的发挥。

技术变革从不等人,但治理可以与创新同频。

面对大模型带来的效率跃升与安全风险,应以“防风险”为“促发展”创造条件:把安全作为基础设施,把规则作为共同语言,把共治作为长期机制。

唯有在可信、可控、可持续的框架下释放技术潜能,才能让新一轮产业升级更稳健、更长远。