法律规范应当回应现实这是法律的基本价值,但基于现实是否能够推出规范就陷入了休谟“是与应当”二分的难题。人工智能的飞速发展不言而喻,其所带来的新型法律争议也比较复杂难解。学界之所以在是否应当赋予人工智能民事主体地位的问题上焦灼不堪,就在于人工智能民事主体地位的有或无直接决定了不同的规范解决思路。如果赋予人工智能民事主体地位,就意味着基于主体而建构起来的法律关系大厦是另外一番图景,出现生物智能与人造智能双主体的景象,如何协调人与人工智能的关系以及人工智能相互之间的关系恐怕比人工智能所带来的现有争议更加复杂。在制度变革的过程中,人们往往需要考虑两个因素:一是现行制度能否满足调整新的经济关系的需要,如果制度供给充分,则大可不必调整;二是现行制度一旦调整之后,新的制度会带来哪些问题,能否实现制度体系的协调与优化。显然只有在穷尽前者的前提下才能考虑后者,而且基于人工智能主体所建立起来的法律关系势必对现有的法律框架造成巨大冲击,从体系协调的角度来看绝非明智之举。
接下来就需要考察现有民事法律规范能否满足调整人工智能所带来的新型法律争议的需要。从司法实践的角度而言,规范与事实之间的衔接取决于法源与方法论之间的分工,裁判的过程就是从法源到个案正义的推进,法官在个案中不得拒绝裁判以及法律解释、漏洞填补、法律续造等法律方法的运用,使得法源呈现出一定的开放性特征。民法方法论指导下成熟起来的法教义学,很大程度上填补了抽象条文与现实生活的差距,发挥了找法、补法、统法和正法的功能。面对人工智能发展所带来的社会关系的变化,首要选择是通过现行民法规范辅之以民法方法论予以应对。现有的民法规范以自然人为当然主体,法人团体次之,在不考虑赋予人工智能民事主体地位的情况下,人工智能只能是作为客体存在的“物”。
1.人工智能成果的知识产权归属问题。关于这个问题存在两个争议:一是人工智能作品是否构成“作品”,也就是是否具备独创性特征;二是如果构成“作品”的话,著作权归属于谁。人工智能生成的内容一般是基于算法、规则、数据等前置性安排,似乎不具有独创性,但最新的人工智能已经从模拟求解的符号主义模式发展到“仿生学”的人工神经网络的联结主义模式,具备深度学习的能力,它所生成的内容就连编程人员也难以预料,因此是具备独创性的,这种“作品”符合著作权法对作品的要求。关于著作权归属问题,我国《著作权法》第二节规定了原创作品、翻译作品、汇编作品、合作作品、职务作品、委托作品等不同类型作品的著作权归属,都是发生在主体的“人”之间的著作权关系,既然人工智能作品也是作品,似乎《著作权法》对之无法进行调整。但笔者以为,以生成作品为使用价值的人工智能与其他消费品无异,都旨在实现消费者购买该产品的使用目的,其生成作品恰恰是为了实现消费目的。此时可以把“作品”视为人工智能的孳息,将作品著作权归属于所有权人。2.人工智能合约的履行问题。合同是典型的民事法律行为,具有相对性,我国《合同法》第2—6条规定当事人双方遵循平等、自愿、公平、诚实信用的原则,第7条规定当事人订立、履行合同,应当遵守法律、行政法规,尊重社会公德,不得扰乱社会经济秩序,损害社会公共利益。这些原则所体现的核心就是当事人的意思自治,当事人具有订立与不订立合同的自由,具有选择合同相对人的自由,对合同条款具有一般理性人的认知能力,能够预见订立合同、履行合同、违约所应当承受的法律后果,所以合同只能发生在具有意志能力的当事人之间。人工智能虽然具备一定的类似于人的认知能力,但却不具备意志能力,对自己的行为没有道德判断能力。它的行动是有理由的,但这一理由并不是人类对其进行道德肯定或道德否定的理由;而真正的道德理由既是行动者行动的理由,也是其他人对该行动者的行动进行回应的理由。因此,人工智能的行为与人类行动之间不具有社会性关联,当然排除于合同适格当事人之外。对于智能合约,也只是人工智能按照既定的程序自动执行合同主体的意志,没有自己独立的意思表示问题。至于偶发的人工智能未经当事人同意,自主发送合同信息的行为应如何处理,笔者以为,人工智能处于何方当事人的管领之下,何方当事人就负有保证其正常运行的义务,他方当事人无法知晓是由人还是由人工智能发出的信息,也没有照管的义务,只能推定为善意相对人。如果是因为程序设计或开发出现的问题,承担不利后果的管领一方合同当事人可向人工智能的设计者、开发者等追偿,此种情形适用《产品责任法》或《消费者权益保护法》的有关规定即可实现。
3.人工智能侵权损害赔偿问题。人工智能致害的责任承担问题是倡导赋予人工智能主体地位的学者所提出的重要理由,他们认为,只要人工智能拥有主体地位就可以自主承担损害赔偿责任。且不说人工智能是否具备拥有和支配责任财产的现实可能性,即便从规范技术上创造条件,最后也只能回归到雇主责任或者法定代理的老路,而且还会与雇主责任和法定代理的原有规范意旨产生新的冲突。笔者以为,人工智能作为一种“人造物”,其诞生必然体现设计者、开发者的主观目的。Frances等人曾提出过5条将机器责任后果与设计者、适用者相关联的规则:规则一,人工智能的设计者、开发者或者组织者,应该对该产品以及该产品带来的可预见性效果负有道德义务,这种道德性义务与其他设计者、开发者、组织者或者有意识地将该产品投入社会系统使用的人员一同共享。规则二:上述共享性义务并非是零和博弈。 个人的义务并不因为有更多的人加入到设计、开发、组织或者使用人工智能品的群体中来而缩减。 相反,个人应当对人工智能品的行为以及投入使用后的影响负责,这种影响从某种程度上来说,是指他能够合理预见到的。规则三:特定人工智能品的使用人(明知状态下的使用)应当对其使用行为承担道德性义务。规则四:人工智能品的设计者、开发者、组织者或者使用者的义务范围限于他们对社会系统中的人工智能品的合理认知。