“智能+媒体”侵权责任认定问题
人工智能技术跨越式的发展,其产生的法律问题具有不可预见性。随着人工智能及其相关技术在传媒业的日益普及,所引发的侵权责任认定将对现有的法律制度提出更多的挑战。目前,机器人写作已在传媒领域广泛应用,机器人写作需要通过一些程序进行“深度学习”,其中可能会涉及到大量的搜集、汇聚和存储他人的知识产权信息,如此极有可能构成对他人知识产权的侵害,这种情形下,谁应该承担这一责任,是一个亟待认定的问题。
从我国现行法律来看,侵权责任主体只能是民事主体,人工智能本身显然还不能作为“责任主体”,因为法律行为的直接或间接后果,需要我们考虑到是“谁”实施了这一行为,做出这一行为的法律主体是否具有责任能力。在侵权事件发生后,人工智能的所有者应当承担其责任,在学界似乎没有太大争议,但机器人写作的行为受算法程序的控制,算法程序通常由多人共同研发,当发生侵权行为时,或许无法归责到具体的某个人,那么软件的研发者是否还要承担责任?谁又该为其负责?是软件所有者还是程序研发者都值得进一步研究。
微软技术研究部与必应团队共同开发的聊天机器人Tay,在与人类开始聊天后,不到24小时内发表了有关反犹太人、种族歧视和性别歧视的言论被紧急删除,那么在此事件中,责任应该如何认定?谁又该为其负责?“智能+媒体”在开发的过程中会有许多人协同研发,与此同时多数“智能+媒体”内部运作并不透明,这使得人工智能产品一旦出现问题,便会存在数量众多的潜在责任人,责任认定的问题会变的复杂。