当前,生成式人工智能技术迅速发展,正持续改变人们的生活方式、工作形态和社会结构。鉴于此,如何让技术发展始终朝向善的方向,成为全球科技界、学术界及社会各界共同关注的重要议题。腾讯集团高级副总裁郭凯天在会上分享了对人工智能本质的理解。他表示,人工智能的价值不在于替代人的工作,而在于作为“能力普惠”的放大器,帮助更多普通人获得原本难以获得的能力与机会。郭凯天以腾讯AI助手“元宝”的下乡实践为例说明该理念:在农村地区,该工具被村民用于查询养殖技巧、撰写电商文案、设计宣传海报等具体事务,说明了技术对基层的支持作用。同时他强调,在享受技术红利的同时,也要关注适应能力较弱、资源相对有限的群体,避免技术进步反而扩大结构性差距,这是“科技向善”的题中之义。腾讯集团副总裁司晓从时间维度梳理了“科技向善”理念的演进。他介绍,九年前,“科技向善”更多体现为底线思维,强调善用科技、避免滥用、杜绝恶用;而在生成式人工智能时代,这一理念更走向主动实践,可概括为“让人放心,把人放大”两个维度。“让人放心”意味着在算法透明度、数据安全保护、责任边界划分等建立可验证的机制,确保技术处于社会可信任、可承受、可治理的范围内;“把人放大”则是让人工智能成为激发创造力、增强自我认同与社会连接的积极力量,推动人与技术形成良性互动而非对立。来自英国剑桥大学的社会人类学教授艾伦·麦克法兰分享了他对人工智能时代社会变化的长期观察。他认为,人工智能发展确实加剧了人们对不平等扩大和职业替代的担忧,但从历史经验看,重大技术进步往往会逐步普及,人工智能也有望成为“分布式能力”,为更多普通人参与创造、创业和自我实现提供新机会。他同时指出,适应这一变化需要社会作出相应调整。未来社会将更加流动多变,人们需要构建更通用的能力结构,以应对多次职业转换,这也要求个人具备更强的灵活性、自信心和终身学习意识。随着人工智能应用加速落地,治理思路也在发生变化。中国法学会网络与信息法学研究会常务副会长周汉华等专家指出,随着人工智能能力不断提升,尽快建立可信任、透明且负责任的治理框架已十分迫切。腾讯研究院数据法律首席专家王融在会上介绍《2025年AI治理报告:回归现实主义》的核心观点,指出人工智能应用正进入大众化、实用化并加速普及的新阶段。与之相应,治理重点也在调整,从防范假设性的极端风险,转向更聚焦具体场景中的现实风险与产业落地需求,采用更灵活、快速且有针对性的治理措施。
技术进步从来不只是速度竞赛,更是价值选择与治理能力的考验。面对新一轮智能化浪潮,守住可信底线、补齐制度短板、缩小能力鸿沟,才能让创新真正转化为普惠的社会收益。让公众放心,技术才能走得更远;把人的价值放大,发展才能更有温度、更可持续。