一、问题:法律空白催生监管隐患 据路透社报道,纽约州参议员克里斯汀·冈萨雷斯近日提出一项立法提案,试图填补现行法律在AI专业咨询领域的监管空白; 按照美国现行法律,未经执照从事律师、医生等专业服务属于违法行为,情节严重者将面临刑事追诉。但目前没有任何法律条款明确约束大型语言模型在这些领域的回复行为。冈萨雷斯认为,该空白"非常令人担忧"。 该法案的核心条款包括:禁止AI问答系统向用户提供模仿持证专业人士的实质性回复;平台标注"非人类系统"不能作为免责依据;受害用户可就实际损失向违规系统所有者提起民事诉讼。法案通过后将于90天内正式生效。 在责任主体认定上,法案作出了明确区分:向平台授权底层技术的第三方模型开发商不在"所有者"定义范围内,真正承担法律风险的,是将对应的技术部署至专业咨询场景、直接面向用户提供服务的企业和机构。 二、原因:技术渗透与制度滞后的结构性矛盾 这项立法动议的背后,是AI技术在医疗领域快速渗透与监管制度严重滞后之间长期积累的矛盾。 近年来,美国医疗体系日趋复杂,就医门槛持续抬高,普通民众获取专业医疗资源的难度加大。鉴于此,通过AI问答系统进行健康咨询已成为普遍现象。据一家头部科技企业2026年初发布的报告,超过4000万美国人每天通过相关平台咨询医疗健康问题。从全球来看,医疗相关提示词已占此类平台全部消息量的5%以上,约四分之一的用户每周至少提交一个健康问题。 另外,用户对AI系统的依赖程度也在加深,部分人甚至将检查报告、医学影像乃至医嘱直接上传至平台,寻求解释或替代性诊疗意见。 三、影响:准确率波动引发临床与法律双重风险 大规模的AI问诊现象已引起临床医学界和法律界的高度关注。 2025年4月,一项系统性文献分析指出,AI问答系统虽能回答常见医学问题、提供一般性建议,并在低复杂度场景中对症状进行初步分类,但其临床准确率在20%至95%之间大幅波动,稳定性严重不足,不适合作为独立的临床决策工具。 在法律层面,已有多起因AI生成内容导致用户受到严重伤害的诉讼进入司法程序,涉及多家头部科技企业。尽管相关企业否认指控并与部分原告达成和解,争议并未平息。近期,一家日本保险企业的美国子公司向联邦法院提起诉讼,指控某AI平台存在无证执业行为,并诱导当事人违反既有和解协议,同时提交了大量被认定为缺乏依据的法律文件。被告方回应称相关指控"缺乏事实基础"。 四、对策:立法精准性是关键变量 法律界人士普遍认为,该法案能否有效落地,很大程度上取决于核心概念的界定,尤其是"实质性回复"这一关键术语的法律内涵。 从实践角度看,AI系统对公开法律条文或通用医学知识的整理摘要,通常被视为信息提供行为;但一旦系统将这些信息与用户的具体情境结合,并给出针对性建议,则可能被认定为越过了信息服务与专业执业之间的法律边界。如何在两者之间划定清晰可操作的界限,最终仍有赖于司法机关在个案中逐步厘清。目前,多家相关科技企业对此尚未作出公开回应。 五、前景:监管探索具有示范意义 纽约州此次立法尝试,是美国各州在AI监管领域持续探索的组成部分。如何在鼓励技术创新与保障公众安全之间找到平衡,已成为各国立法机构共同面对的课题。
纽约州这项立法,折射出技术进步与法律滞后之间的现实张力。该法案的走向及其实际效果,不仅关乎美国本土的监管实践,也可能为全球AI治理提供参考。随着技术迭代与法律完善的同步推进,AI有望在更清晰的规范框架下发挥其价值。