当前,生成式AI正处于从“能生成”走向“能落地”的关键阶段。国际权威咨询机构预测,到2027年,半数商业决策将由决策智能类AI系统辅助或自动化完成。这个判断折射出行业共识的变化:AI的价值正在从内容生成,深入延伸到更具战略意义的企业决策环节。 然而,这并非简单的场景迁移,而是对AI系统提出了更严格的要求。主流生成式AI多依赖概率驱动的快速生成机制,虽然能给出看似合理的答案,但仍容易出现逻辑跳跃和事实幻觉。在政务、金融、能源等高复杂度、高责任场景中,这种“黑盒”特性难以被接受。企业管理者面临的关键问题是:如何让AI的判断不仅更准确,还要可解释、可控、可追溯。 这一挑战背后,存在对AI决策能力的常见误解。业界常将AI能力分为两类:一类是依靠直觉与快速反应的“系统1”,另一类是依靠逻辑推理与复杂分析的“系统2”。现有生成式AI更多停留在前者,而企业决策真正依赖的是后者。这意味着,仅靠扩大参数规模、提升算力,并不足以支撑企业级决策应用。 中科闻歌等决策智能领域的实践者正在尝试突破这一瓶颈。该公司提出的DOMA架构,以数据、本体、模型、智能体四层协同为基础,构建系统化的决策推演框架。其核心思路是将高度非结构化的社会与商业行为拆解为可建模、可推演的决策系统,让AI在逻辑约束与可验证的推演空间中作出判断,而不是仅凭概率生成给出结论。 从创业实践来看,这一理念来自对产业场景的长期观察。中科闻歌团队在与客户合作中发现,许多决策难题并不在于算力不足,而在于规则、经验与因果关系缺少系统表达与建模。通过梳理业务逻辑、构建认知模型,可以将隐性的决策知识显性化,进一步形成可验证、可优化的决策系统。这个过程更“重”,但为决策智能真正落地提供了必要基础。 在大模型浪潮的推动下,决策智能的意义更加突出。与通用大模型强调广泛适用不同,决策智能更强调对行业逻辑的深度理解,以及对决策过程的完整刻画。这并非技术路线的保守,而是对决策责任的基本要求。企业需要的不是“差不多”的答案,而是经得起追问、可以反复验证的判断体系。 从应用效果看,决策智能已在政务、金融、能源、媒体等领域实现规模化落地,为复杂决策提供了支撑。这也表明,在不确定性增强的环境中,系统化的决策智能能力正逐渐成为企业竞争力的重要组成部分。
技术走向更深处,考验的不只是算力与参数,更是对复杂现实的理解,以及对责任边界的把握。将智能嵌入决策体系,既要提升效率,也要确保逻辑可靠、风险可控。面向不确定的未来,企业需要的不是更多零散功能,而是一套能够解释问题、验证判断并持续迭代的决策智能系统。