一、问题:技术演进催生法律真空 当一套智能系统无人干预的情况下自主完成交易、作出决策乃至引发损害,现行法律体系便陷入一个棘手的困境——既无法将责任归咎于某一具体的自然人,也难以用传统产品责任框架来处理损害后果。 这不是假设场景。近年来,自动驾驶事故、算法歧视、智能合约纠纷等案例在多个司法管辖区相继出现,暴露出现行法律在应对智能系统行为时的明显滞后。法律的核心功能是厘清"谁有权、谁有责",而当行为主体的边界变得模糊,此功能便面临根本性挑战。 从技术层面看,目前投入实际应用的智能系统,均属于功能单一、依赖特定场景的弱人工智能,尚不具备跨领域推理与自主意志。但即便如此,这一阶段的技术形态已足以在法律层面制造复杂的责任认定难题。学界普遍认为,具备完整推理与决策能力的强人工智能最早或于本世纪三四十年代出现,届时法律滞后的风险将成倍放大。 二、原因:现有框架难以容纳新型主体 法律体系对"主体"的认定,历来以自然人为原型,以法人为延伸。前者基于生命与意志,后者基于组织与利益。智能系统的出现,打破了这一二元结构的内在逻辑。 一上,智能系统具备一定程度的自主性与交互能力,其行为后果有时难以追溯至特定的人类决策者;另一方面,它又不具备情感、意识与道德责任感,无法承担传统意义上的法律义务。这种"似主非主、似客非客"的模糊状态,使得任何简单套用现有框架的尝试都难以自洽。 此外,智能系统的开发链条高度分散,算法设计、数据训练、系统集成、终端部署往往分属不同主体,传统"谁生产谁负责"的责任链条在此极易断裂。如何在多元参与者之间合理分配责任,是立法者面临的核心难题之一。 三、影响:多方利益格局面临重构 法律地位的认定,直接关系到各方主体的权利与义务边界。 对受害方来说,若智能系统被定性为普通物件,受害者须循产品责任路径追偿,举证难度大、周期长;若赋予其独立法律人格,追责对象更为明确,维权成本有望降低。 对开发者与运营者来说,法律定性直接影响其风险敞口。过于严苛的责任认定可能抑制研发投入,而过于宽松的制度安排则可能滋生道德风险,让技术缺陷的外部成本转嫁给社会。 对整体经济秩序来说,智能系统参与的合同签订、资产管理、金融交易等活动日益普遍,若法律地位长期悬而未决,将持续影响商业预期与市场信心。 四、对策:多种方案各有侧重,尚无定论 围绕智能系统的法律定位,理论界与立法机构已提出若干具有代表性的方案。 主体论方向上,代理人模式主张将智能系统视为在授权范围内代人行事的非人类代理人,欧盟对应的建议草案已将这一思路纳入条文,其优势在于无需颠覆现有法律体系,操作成本相对可控。电子人格方案则更为激进,主张赋予具备独立决策能力的智能系统以独立法律人格,使其直接承担侵权责任,从而避免责任归属的模糊地带。有限人格方案居于两者之间,赋予智能系统部分权利与有限责任,同时保留特殊侵权规则作为兜底机制,兼顾灵活性与法律体系的连续性。 客体论方向上,亦有学者主张维持智能系统的物件属性,通过完善产品责任、引入准监护人制度或将测试阶段纳入危险活动管理等方式加以规范。但上述路径均面临不同程度的适用局限,难以全面回应智能系统行为的复杂性。 五、前景:制度建构需兼顾创新与秩序 从全球范围看,欧盟在人工智能立法领域走在前列,其风险分级监管框架已于近年正式生效,但法律人格问题仍处于探索阶段。美国、中国、英国等主要经济体也在加快相关政策研究与立法布局,但各方在核心议题上的立场分歧明显,国际协调难度较大。 可以预见,未来相当长一段时期内,智能系统的法律地位将呈现"分场景、分阶段、分风险等级"的差异化处理趋势,而非形成统一的全球标准。这既是现实约束下的务实选择,也为各国根据本国国情探索适宜路径留下了空间。
争论算法系统是否"像人一样",并非当下最紧迫的事;紧迫的是让责任看得见、追得到、赔得起,让创新可预期、可落地、可持续。以清晰的规则守住安全底线,以可迭代的制度释放发展红利,才能在技术进步与社会信任之间建立稳固桥梁,让数字化转型真正服务于人的福祉与社会的长远稳定。