03版:学术 上一版   下一版
 
标题导航
· 作为方法的刑法
· 信赖原则的数智嬗变与司法应对
· “AI时代法学研究和法律职业的创新与发展前沿论坛”在北京举办
· 集萃
 
正义网 | 返回检察日报首页 | 检察日报检索
上一篇   下一篇 2025年06月10日 上一期  下一期
信赖原则的数智嬗变与司法应对
陈小彪 曹博

  信赖原则作为现代刑法中过失认定的基石理论,其核心逻辑在于合理分配社会活动中的风险与责任。人工智能技术广泛应用下,信赖原则经历“数智嬗变”:当信赖对象从“人”转向“算法”,当风险从“可预见”转向“黑箱化”,传统法律框架面临严峻挑战。如何重构信赖边界、厘清人机责任,成为司法实践亟待解决的命题。

  问题提出:该如何信赖人工智能

  在传统过失犯罪认定中,信赖原则通过“合理期待”与“可预见性”的标尺,为责任划分提供依据。在人工智能时代,信赖原则的核心价值不仅在于责任分配,更在于推动技术、法律与伦理的协同治理。它既是过失认定的标尺,也是技术发展的护栏。

  人工智能应用场景重塑着人类社会的信任结构。从自动驾驶到医疗诊断,从金融风控到司法裁判,人工智能系统的决策能力不断突破传统人类认知的边界。但技术的“黑箱性”与人类对效率的过度追求,催生了一种危险的“过度信赖”,即用户倾向于将复杂决策权让渡给算法,而忽视了技术本身的局限性与法律责任的模糊性。一些偶发事故不仅暴露出技术局限性与人机协作的断层,也引发人们对信赖边界的深刻反思:在人工智能深度介入人类决策的场景中,应该如何重新定义“合理信赖”?当技术失灵时,应如何在人、机、制度之间分配责任?

  人工智能应用场景下信赖原则的数智嬗变

  人工智能的迅猛发展正在深刻重构信赖原则的传统范式。从“人—人”互信到“人—机—人”的复杂协作,技术介入使得信赖关系发生根本性异化:算法的不透明性动摇了可预测性基础,企业的技术神话模糊了责任边界,而系统性风险的升级更远超传统“可容许危险”的范畴。信赖对象异化、信赖程度失衡与风险后果升级共同诠释了人工智能解构并重塑信赖原则的内在逻辑。

  一是信赖对象的异化:从人际信赖到人机信赖。传统信赖原则适用于自然人之间的相互期待,以人类行为的可预测性为前提,属于“人—人”的二元结构。而人工智能系统的决策逻辑具有不透明性,其介入使信赖关系演化为“人—机—人”的三元结构。人工智能的“算法黑箱”特性导致信赖基础不透明,当技术能力与用户期待错位时,盲目信赖将转化为“过度依赖”,引发灾难。

  二是信赖程度的失衡:技术神话与用户认知的鸿沟。一方面,被夸大的“全能性”与责任规避可能催生技术神话。企业通过“高阶智驾”“零接管”等营销话术,将人工智能包装成近乎完美的决策者,刻意淡化技术缺陷,诱导用户形成“算法绝对可靠”的认知偏差。人工智能的决策逻辑依赖数据训练与概率计算,面对复杂场景时,其表现远未达到“全知全能”。技术神话背后隐藏着企业对责任转移的隐性设计:一旦事故发生,用户往往因“未及时接管”被归责,而算法缺陷则被归咎为“技术局限性”。另一方面,用户的技术幻觉与理性缺失会加剧认知鸿沟。普通用户对人工智能的运作逻辑普遍缺乏深度理解,而认知偏差源于信息不对称,如车企未充分披露系统失效场景,用户则因技术黑箱性难以预判风险。人工智能的“拟人化交互”进一步强化信任错觉,使用户逐渐模糊、淡忘人工智能,进而转变为深度绑定,甚至将其视为自然人予以信赖,造成在关键时刻反应迟滞的场合下,法律仍可能将责任划归于“最后一秒”接管的用户的不公平结果。

  三是信赖风险后果的升级:从“可容许危险”到可能的“系统性失控”。传统信赖原则以“被允许的危险”理论为支撑,承认技术进步伴随的必然风险。然而,人工智能的规模化应用可能使风险从“个体化”演变为“系统性”。人工智能系统的规模化应用放大了单一技术缺陷的后果,当算法缺陷与物理安全设计缺陷叠加,单一事故可能触发连锁反应,威胁公共安全,事故后果远超传统人类过失的范畴,形成系统性风险。

  人工智能应用场景下信赖原则的司法应对

  在信赖原则的“数智嬗变”中,司法亟须回应核心命题:当信赖从人际伦理转向技术契约时,该如何在效率与安全、创新与责任之间建立公平的归责体系?

  一是完善“技术标准—法律规则”衔接机制。信赖原则在人工智能领域适用的前提是需要相应的法律和技术规范予以支持。这包括对人工智能系统的设计、测试、部署和应用过程进行严格监管,确保其在操作中能够达到可信赖的标准。现行产品质量法未明确将软件与算法纳入“产品”范畴,导致自动驾驶事故中车企常以“用户操作不当”免责,未来应将算法缺陷视为产品设计缺陷,要求车企承担“算法可解释性”义务,由此将行业标准和技术惯例作为信赖原则评估和参考的重要因素。较之于法律规范,行业标准更为细致,更贴合实践现状和应用水平,更容易发现人工智能应用风险,基于此而制定的标准和惯例更具有参考性和风险规避有效性。

  二是厘清人机责任边界:动态过失认定标准。首先,是技术能力与注意义务的匹配,在“人机共驾”模式下,司法应依据人工智能系统的技术等级(如L2-L5)动态分配义务。L2级为辅助驾驶,驾驶员仍为责任主体,驾驶员负有全程监控义务,但车企需确保系统功能与宣传内容一致。L3级以上为有条件自动驾驶,系统主导期间的事故责任归于车企,但需配套“黑匣子”数据强制公开制度,避免车企利用数据优势规避责任。其次,是算法透明化与举证责任倒置,鉴于技术黑箱特性,应要求车企公开关键算法逻辑,并在事故中承担“无过错”举证责任。

  三是重构“企业—用户—政府”责任共担体系。首先,车企需履行“技术教育义务”,如购车时明确告知驾驶员系统局限,增进用户理解;建立事故数据库推动技术迭代,避免“重创新、轻安全”的行业倾向。其次,明确用户合理信赖的边界。司法需明确“信赖相当性”的判断标准:若用户已尽合理性注意,则可减免责任;反之,若盲目依赖系统,则需承担主要过失。最后,政府监管须做好预防性转向,推动实现“事前—事中—事后”全链条监管。政府需建立极端场景测试规范,将夜间、雨雾、异形障碍物等场景纳入强制测试范围,避免测试标准与现实风险的脱节;完善智驾营销监管,禁止车企使用误导性表述,强制要求在广告与用户协议中标注系统局限性。

  四是推动“技术—法律—伦理”协同治理。参考、借鉴德国《自动驾驶伦理指南》,确立“人类生命优先于财产”“算法决策透明化”等原则。如车门锁死问题,相关部门应推动企业完善“失效安全设计”,如强制要求电子门锁配备机械应急开关,确保断电状态下仍可逃生,设定接管响应时间阈值。

  (作者单位:西南政法大学法学院。本文系2024年国家社会科学基金青年项目“行刑共治视域下滥用数据要素信用惩戒机制研究”之阶段性成果,项目编号24CFX099)

上一篇   下一篇
 

检察日报社简介   关于我们   联系我们   采编人员
正义网版权所有 未经授权 严禁转载   Copyright 1998-2008,all rights reserved