传统的交通事故多是由于驾驶员的过失造成,驾驶员对损害后果承担刑事责任,但随着智能汽车自动驾驶功能的使用,智能汽车因为人类驾驶与操作行为的减少,传统的操作安全问题越来越少,功能安全问题则越发突显,尤其是人工智能作为一种新兴的技术,在研发、生产与使用中因经验的缺乏使得其功能安全隐患备受关注。又由于自动驾驶交通肇事要比我们传统的交通肇事复杂得多,一旦发生事故,可能就不仅是一场小小的交通事故,更有可能是因为系统不完善而引起大规模事故。刑法作为重要的社会秩序管理工具之一,是通过刑事责任的认定与追究来实现安全监管。正如2018年9月13日腾讯研究院发布的《2018年全球自动驾驶法律政策研究报告》所指出的,针对自动驾驶汽车的法律政策创新与监管范式革新应聚焦安全,并且对智能汽车的监管应当主要针对自动驾驶系统的安全和性能。
(一)人为过失致损刑事责任的认定与分配
智能汽车作为一种智能工具,由人类设计、制造与使用,与人类的介入和干预分不开,因此即使在自动驾驶情形下人为责任也不可避免,人为过失致损即指在智能汽车研发、生产与使用中因人为过失而使智能汽车预设功能失败造成损害的情形。智能汽车技术属于高风险性技术,在研发与应用时行为人必须保持足够的谨慎与高度的注意。人为过失造成损害刑事责任认定的前提是相关责任人对注意义务的违反,因此刑法应当对智能汽车所涉及的各方操作者的注意义务进行合理、明确的规定。
首先,智能汽车研发者与生产者的注意义务内容主要在于预防产品缺陷方面,智能汽车的产品缺陷和常见的产品缺陷一样主要体现为设计缺陷、制造缺陷以及警示缺陷等。在智能汽车的研发设计方面,设计者应当尽到合理的注意义务使得其所设计的智能汽车通过合理的设计消除所能预见的所有实质危险;在智能汽车的制造方面,生产商应当保证汽车在制造过程中所制造和整合的所有零部件以及整合后的汽车在功能上不存在瑕疵;在警示义务方面,因为智能汽车的自动驾驶标准不同其对驾驶人员的操作要求也有所不同,所以生产商必须明确告知智能汽车的使用者应如何正确操作以及在自动驾驶中应保持何种程度的警惕,并对智能汽车所存在的安全隐患作出提示。此外,由于智能汽车是以新兴的人工智能技术为基础,人类对相关技术的掌握时间还较短,对于该技术的安全性还不能认为有十足的把握,因此为了确保产品的安全性,生产商还应当承担对智能汽车进行充分测试并对其危险性进行持续关注的义务,一旦发现已经进入市场的智能汽车产品有缺陷并存在安全隐患的,必须停止销售并召回已销售汽车,以避免交通损害的发生,否则造成损害结果的应当承担刑事责任。
其次,使用者的注意义务内容主要是对智能汽车自动驾驶功能进行正确操作与使用的义务,如根据使用说明对智能汽车进行定期检查、避免违规安装应用程序等义务。此外,根据智能汽车自动驾驶级别的不同还应该规定相应的接管义务和警觉义务。接管义务指在自动驾驶系统请求或在驾驶员认为有必要接管汽车时立即接管汽车的义务。警觉义务指在智能汽车自动驾驶期间,保持必要的警觉,以便能随时履行接管义务,避免危害结果的发生。应当根据智能汽车自动化程度的不同而对驾驶人员设定不同程度的警觉义务和接管义务。如果智能汽车自动驾驶功能自主性或深度学习能力越强,则驾驶人员所应承担的警觉义务和接管义务就越低,反之,则对注意义务的要求越高。随着智能汽车智能化技术的不断发展,自动驾驶系统越来越先进,人类在智能汽车行驶中的参与行为将越来越少,甚至在完全自动驾驶汽车的行驶中人类只保留乘客的角色,不再对智能汽车的行驶进行操作,使得智能汽车的驾驶者所承担的驾驶注意义务越来越少,正如2014年12月美国谷歌公司成功研发的无人驾驶汽车,该汽车无方向盘、换档装置、油门踏板和刹车踏板,汽车通过软件和传感器实现全自动驾驶。在完全自动驾驶的智能汽车使用中,人类驾驶者的角色已完全消失,驾驶中的注意义务和过失责任将完全转移给自动驾驶系统,则使用者的警觉义务和接管义务也将不复存在。
(二)技术风险的不可避免与刑法应对
人工智能技术的发展与应用,为人类生活带来便利的同时也制造了风险。人工智能技术具有自主性和深度学习的能力,智能汽车不仅可以根据设计者、编程者事先输入的运行规则和数据进行决策,还可以通过后天的深度学习自主作出决策,通常汽车在使用过程中在车联网提供数据的基础上根据学习算法进行学习并创建规则,然后根据自身的规则决定“驾驶行为”。由于人类对人工智能技术认知与控制能力的有限性,使得在人工智能技术的运用过程中,智能汽车的决策可能会超出人类的预测与控制而导致损害结果的发生。这种风险属于现代社会的技术风险,是现代社会科技不断进步的必然产物。技术风险具有复杂性、不确定性与不可避免性。在人们对人工智能技术的风险无法百分之百地预知和掌控的情况下,人们可以选择放弃智能汽车所带来的便利与福利,禁止人工智能技术在汽车上的使用以确保安全;也可以选择大胆开发与应用智能汽车,并承担不安全的风险与后果。面对现代技术风险,人们往往乐于通过理性的计算来冒险,风险成本与技术收益相平衡被认为是一种理性的冒险。为了保证这种理性的冒险,必须有法律的合理规制。刑法作为最为严厉的法律规制手段,对于技术风险必须采取审慎的态度,既不能因为刑事责任认定过于严厉而阻滞智能汽车技术的进步,也不能因为对风险的过于放纵而使民众“惊慌失措”。
对于因自动驾驶而产生的交通损害,首先要准确区分是属于人为过失还是技术风险。技术风险是在技术研究开发工作中,虽经开发者的主观努力,但确因在现有技术条件下遇到了无法预见、无法避免并无法克服的技术困难,有导致研究开发失败、造成损失的危险。只有在行为人穷尽了自身的主观努力,严格遵守相关的操作规程并严格履行其行为应有之注意义务,依然无法避免的风险才能认定为技术风险。在自动驾驶中,对于因技术风险造成的交通损害,在责任的认定上应当突破传统过失理论的规定,引入容许的危险理论。容许的危险即指随着科学技术的发展,社会生活中不可避免地存在的具有法益侵害危险的行为,基于其对社会的有用性,即使发生了法益侵害结果,也应当在一定范围内允许。被允许的危险引发的危害结果不再由危险行为的行为人独自承担责任,而由同意接受与使用这一技术的人共同承担,进行公平、合理的分配。对于智能汽车而言,既然已经被允许上路,就说明人类对其风险的存在已经认可与接受。在相关操作者已经完全履行了注意义务的情形下,即使他们知道仍然存在一定的风险,如果智能汽车因自主学习程序而偏离了预期,那么由这种偏差所导致的危害则可以归属于“社会”,被这些故障危害的人将因此被视为社会性接受风险的被害人,而不是任何特定个人的过失不法的被害人。