虽然人工智能技术迅猛发展,并且在医疗领域不断实现技术革新,但总体来说智能医疗机器人的研发与使用还处于起步阶段。算法模型精确性不足和医疗数据模型的有限性等问题难免会使智能医疗机器人在实际应用中产生误诊、错诊或者漏诊等问题,如著名的IBM Watson智能医疗机器人就因为错诊、开不出安全药物而不断受到质疑。智能医疗机器人的自主决策行为是指智能医疗机器人在设计者和使用者的意志以外,根据自身的程序与所掌握的医疗数据独立作出医疗决策的行为。智能医疗机器人深度学习的能力使之能够根据学习算法进行学习并创建规则,“后天的”规则使之可能超出设计和编制的程序范围实施医疗行为。当智能医疗机器人超出人类的可预测性因自主决策而导致严重医疗损害发生时,刑法是否应当干预,以及刑事责任应当如何承担及分配成为刑法必须面对的问题。人工智能产品以其是否具有辨认能力和控制能力,可以划分为弱人工智能产品和强人工智能产品,对于智能医疗机器人超出人类预测范围自主决策下引发的医疗事故的刑事责任也可以根据其人工智能属性的不同来探讨。
(一)弱智能医疗机器人自主决策下医疗事故的刑事责任
人工智能系统与人类决策系统存在一个本质上的区别,人工智能系统本质上不受提前预置的概念、经验法则、传统智慧等因素限制,从而使其能够选择人类完全没有考虑或者可能会实施的解决方案。弱智能机器人虽然不具有辨认能力和控制能力,但其深度学习能力使得其可以在大数据的支持下,根据学习算法进行学习并创建区别于源程序的规则。因此,即使是弱智能医疗机器人也可能在作出医疗决策时超出人类的可预测性。面对弱智能医疗机器人自主决策下造成的可预测之外的医疗损害,其刑事责任的归属成为疑问。一方面,医疗损害的发生虽然是智能医疗机器人超出人类预期自主决策的结果,但弱智能医疗机器人作为医疗工具,不具有刑事责任主体地位,无法对其医疗决策所产生的损害后果承担刑事责任。另一方面,智能医疗机器人的研发者、生产者及使用者虽然是赋予智能医疗机器人参与医疗行为、作出医疗决策能力的人及智能医疗机器人的实际操作者,对智能医疗机器人的应用具有一定的把控力。但是,由既没有过错也没有实施任何加害行为的研发者、生产者或使用者来对智能医疗机器人自主决策结果承担刑事责任则与现有的刑事法律规则不符。可见,智能医疗机器人独立决策下造成医疗损害的规制给医疗刑法带来了挑战。
对于这种在技术研究开发工作中,虽经研发者、生产者及使用者的主观努力,但确因在现有技术条件下遇到了无法预见、无法避免并无法克服的技术困难而存在的开发失败、造成损失的风险,我们通常称为技术风险。技术风险具有不可避免性,同时也具有可控性,刑法作为技术风险的控制手段之一,应理性应对之。对于因技术风险造成的医疗损害,在责任的认定上应当突破传统过失理论,引入容许的危险理论。容许的危险即指随着科学技术的发展,社会生活中不可避免地存在的具有法益侵害危险的行为,基于其对社会的有用性,即使发生了法益侵害结果,也应当在一定范围内允许。在智能医疗机器人经过充分的临床实验而被允许上市时,就说明人类对其风险的存在已经认可与接受。在使用的过程中,如果智能医疗机器人因自主学习程序而偏离了预期,那么由这种偏差所导致的危害则可以归属于“社会”,被这些故障危害的人将因此被视为社会性接受风险的被害人,而不是任何特定人过失不法的被害人。也即,基于社会相当性的观念将注意义务在行为人、受害人以至于社会之间作出合理的配置,把原来由危险行为的行为人所承担的所有注意义务在一定条件下分配一部分由社会或者受害人来承担,从而达到保障危险业务正常发展和限制危险业务危害性的最佳平衡。对于患者而言,其在享受智能医疗机器人带来福利的同时,也应分担相应的风险,如果患者在对风险有充分认识的情形下,权衡利弊后选择了接受智能医疗机器人参与诊疗行为,则说明其也接受了智能医疗机器人相应的技术风险,一旦因技术风险而发生医疗损害,则应当自行承担后果,不再由智能医疗机器人的研发者、生产者或医务人员承担刑事责任。对于研发者、生产者与医务人员而言,虽然只要其在行为过程中履行了相应的注意义务就可以不再对技术风险所造成的医疗损害承担刑事责任,但并不表明其可以对技术风险损害责任置之度外,其对技术风险的分担在前文所述各自的注意义务的变化已有所体现。例如,患者的选择以对风险的充分认识为前提,由于普通人对人工智能医疗技术的风险认识较为有限,需要具有医学专业知识的医务人员和充分了解人工智能技术的研发者对智能医疗机器人的技术风险予以说明,使之能在衡量利弊后进行选择是否冒险接受智能医疗机器人的医疗服务。这也是上文所述对医务人员说明义务和研发者产品风险披露义务应当更加严格的原因所在。