问题——“不会回答”高频出现,实用性与信任度遭遇考验。随着生成式大模型更快进入生活场景,用户期待也从信息检索延伸到决策辅助。但不少人咨询家居维修、健康处置、合同纠纷等问题时,收到的却是“无法提供帮助”“请咨询专业人士”等模板化回复。表面看是“能力不足”,实际反映的是产品在公共安全、合规责任与用户需求之间的拉扯:当工具在关键时刻选择沉默,用户对其可靠性的判断也会随之动摇。 原因——能力与责任并存,合规压力促使平台更谨慎。业内人士指出,一上,模型能生成较连贯的文本,但对真实情境的核验能力有限;若健康、法律、投资等高风险事项上给出具体指令,可能被误用并造成后果。另一上,平台还要面对监管要求、行业规范与潜在纠纷,尤其在医疗用药、诊断判断、诉讼策略、投资建议等领域,稍有偏差就可能引发责任争议。因此,不少产品将敏感领域设为“高风险区”,通过拒答、降级回答或提示线下求助来降低风险,形成“宁可不说,也不出错”的策略。 影响——“一刀切”拒答可能引发风险外溢,公共信息服务出现断层。采访中,一位家长回忆,深夜遇到儿童高热时,急需了解物理降温、体位防护等基础处置要点,线上助手提供了较规范的风险提示与应急步骤,帮助其稳定情绪并采取正确措施,随后再前往医院就诊。这类经历说明,谨慎不等于沉默,适度的健康科普与风险提示本身具有现实价值。相反,如果对应的问题全部拒答,部分用户可能转向非正规渠道寻求“快速答案”,甚至落入虚假机构、伪专家与灰色收费陷阱,造成金钱损失或延误处置。长期看,过度保守也会削弱社会对新技术的积极预期,使其从“普惠工具”退化为“只能聊天的摆设”。 对策——把边界讲清楚,把路径说具体,实现“可用而不越界”。多位受访专家建议,首先建立分级回应机制:对高风险决策类问题坚持不替代诊疗、不替代律师意见、不替代投资顾问;对低风险、可验证的常识与安全科普,可提供更清晰的步骤化信息,并强调“适用条件、禁忌情形、何时必须就医或报警”等关键点。其次,完善“可追溯的提示与引用”,对公共信息类回答附上来源说明或权威链接,降低“看似确定、实则编造”的风险。再次,推动“转介式服务”——当系统无法直接给出结论时,应同步给出正规求助路径,如急救电话、医院咨询渠道、法律援助热线、官方投诉平台、金融机构适当性提示等,让“我无法判断”后面接得上“你可以去哪里”。同时,平台需强化风险评估与内容审核,建立重点场景的红线清单与应急预案,形成可审计、可改进的治理闭环。 前景——在规则与能力共同演进中,重塑人机协作的公共信任。业界普遍认为,生成式大模型要实现更大规模应用,关键不在于“像人一样回答”,而在于“知道何时回答、如何负责任地回答”。未来,随着行业标准、责任边界与合规框架逐步清晰,产品有望从简单拒答转向“解释限制+提供下一步行动建议”的服务形态;若更多权威机构的数据与知识服务能够依法合规接入,也将提升信息可靠性与公共服务效率。技术提供者、监管部门与专业机构形成合力,才能让工具既守住底线,又保持必要的温度与效用。
智能技术正处在关键转折点,如何在创新与责任之间找到平衡,考验各方的判断与协作。正如一位业内观察者所言:“技术不应因畏惧责任而自我设限,也不能为追求全能而盲目冒进。”只有建立更科学的风险评估机制、更清晰的责任划分以及更有效的协同机制,技术进步才能更稳妥地服务公众,推动人机协作走向更可持续的未来。