问题——智能体应用升温,本地化需求加速显现。
随着新一轮智能体应用在各行业迅速扩散,企业将大模型从“展示”推向“生产”过程中,新的矛盾逐步凸显:其一,核心业务数据在跨域流转中面临合规与安全边界挑战;其二,云端算力在峰值负载与关键业务时段的稳定性、可预期性,难以完全匹配部分行业的连续运行要求;其三,面向推理与交互的Token消耗持续增长,成本与预算约束成为规模化推广的现实门槛。
多重因素叠加,使得“可控、可管、可持续”的本地部署与混合部署成为不少企业的必选项,而这也倒逼传统IT基础设施向“面向AI的原生架构”转型。
原因——从训练走向推理,算力与运营逻辑发生变化。
业内人士指出,早期大模型建设更多聚焦训练阶段,成本结构以一次性建设和阶段性算力投入为主。
进入应用扩散期后,推理调用、智能体交互、实时决策等场景成为主流,成本由“项目型”转向“运营型”,Token消耗与调用频次直接关联经营成本。
与此同时,异构算力成为常态:CPU、GPU以及多种加速单元并存,模型从预训练到后训练再到推理,调度策略、资源利用与能耗控制都需要更精细的统一管理。
缺乏平台化治理将导致资源碎片化、算力闲置与运维复杂度攀升,进而抬高总拥有成本。
影响——算力基础设施从“设备堆叠”转向“生产体系”。
在此背景下,能够把开发、训练、推理、部署与运维纳入统一流程的“AI工厂”理念受到关注。
其核心不再是单点硬件性能,而是将AI全流程标准化、集约化、可复制地运行起来,形成类似现代制造业“产线”的持续生产能力。
对企业而言,这意味着三方面变化:一是以数据安全与主权为底线,推动数据在可控边界内流动与使用;二是以稳定性为前提,把关键业务对连续运行的要求前置到基础设施规划;三是以成本可计量为抓手,将Token、能耗、资源利用率纳入统一管理,形成可追溯、可优化的运营闭环。
对策——以异构智算平台统领全栈能力,强化“可管可控”。
在活动现场,联想围绕“AI引擎本地创新”展示其面向企业智能化落地的整体思路:以“一横四纵”作为业务与技术框架,其中“横向”强调以异构智算平台实现统一纳管与调度,“纵向”则覆盖服务器、存储、网络与软件运维等全栈基础设施能力,形成从算力底座到统一运维的链路协同。
据介绍,作为关键“统领层”的异构智算平台面向多类型算力资源提供统一管理能力,目标在于提升异构协同效率,保障模型与算力的匹配度,并在预训练、后训练、推理等不同环节实现面向场景的优化。
联想方面表示,其平台持续迭代,强调通过差异化技术能力增强对不同计算场景的支持,推动算力效率提升并转化为经济效益。
在具体落地层面,平台已在部分制造业企业的集群管理与行业模型开发中得到应用,用以支撑多类智能体场景部署。
在“纵向能力”方面,联想提出面向推理与实时交互需求提升服务器的稳定性、能效与扩展能力,并强调开放兼容的架构思路,以适配不同CPU平台与多类型加速芯片,满足企业从训练到推理的平滑升级。
与此同时,面向大模型应用对数据吞吐、低时延和可靠性的要求,存储、网络与统一运维被纳入同一方案框架,以降低系统集成难度与运维成本,提升本地化部署的可用性与可持续运营能力。
联想并表示,将与英特尔等产业伙伴协同推进算力底座优化与生态适配,完善从硬件到平台的软件栈支撑。
前景——“Token经济”推动精细化治理,基础设施将走向标准化与可运营。
业内判断,随着大模型从“能力竞赛”转向“落地竞赛”,企业竞争焦点将更多体现在三项能力:一是把调用成本管住,把Token、算力与能耗转化为可度量的经营指标;二是把数据边界守住,在合规与安全前提下实现价值释放;三是把系统稳定做实,确保关键业务在高并发与持续运行中可预期。
面向这一趋势,未来算力基础设施不只是采购硬件,更是建设一套可持续运营的生产系统。
平台化纳管、异构协同调度、自动化运维与全链路优化将成为企业“用得起、用得稳、用得久”的重要支撑。
AI的大规模应用已不再是遥远的未来,而是正在进行的现实。
在这个过程中,谁能够为企业提供安全可控、经济高效、运营稳定的本地化AI基础设施,谁就能在新一轮数字化竞争中占据主动。
联想通过"一横四纵"战略的落地实践,正在将AI从云端的概念转化为企业手中的生产力工具。
这种转变不仅代表了技术的进步,更体现了对企业真实需求的深刻理解。
面向Token经济和智能体应用的规模化时代,联想的创新探索为整个行业树立了新的标杆,也为更多企业的智能化转型指明了方向。