首先,当下有学者提出适用于类人型人工智能时代的刑罚模式可以包含以下三种:主刑——拘役+修改程序(删除数据);死刑+永久销毁;附加刑——罚金。这无疑创设了与人类近乎一样的“生命体”,我们要时刻谨记人工智能技术发展的最终目的是要造福人类,并非创设一个新的物种,这无异于克隆人带来的社会风险。以霍金为代表的多位科学家寓言,未来强人工智能的发展可能会给人类带来毁灭性的灾难。因而,笔者的立场是抵制人类完全不可控的强、超人工智能技术。正如人类掌握了基因技术,完全有可能创造“超人”,但是囿于人文主义与科学文化的博弈中,人文主义占据上风,“超人”一直处于搁浅状态。
其次,对类人型人工智能实体实施刑罚不能达到刑罚的目的。实务界与理论界公认的刑罚目的有惩治犯罪人、安抚被害人、一般预防、特殊预防以及刑罚矫正功能。在惩治犯罪人与安抚被害人方面,且不论对类人型人工智能实体应适用何种刑罚(其是否会感知痛苦,产生负罪谴责感),单就安抚被害人而言,人们在观念上难以通过对机器施加刑罚措施而得到心灵上的慰藉。在一般预防与特殊预防方面,笔者认为现在探讨为时过早,在此不作探讨。在刑罚的矫正方面,存在巨大的争议,当前刑罚矫正功能的设立前提是基于人性善的假设,即人可以被教化向善。而类人型人工智能实体是否能适用矫正,也要基于对其性善、性恶论的探究,从本质上,当前人类也根本认识不到人工智能具备“人性”。
最后,类人型人工智能实体的刑事责任应由社会整体来承担。一方面,类人型人工智能实体自身不具备承担的能力。另一方面,令其研发者、使用者为类人型人工智能实体的危害行为埋单的设想并不实际,如果研发者、使用者承担了兜底责任,那么势必会削弱研发者的研发热情、使用者的使用热情,影响人工智能技术的发展。类人型人工智能实体的刑事责任应由适用社会共担风险,在人工智能给人类带来福利之时,人类也应该为此付出风险代价,具体而言可以为人工智能购买保险、设置人工智能发展基金等,以分担类人型人工智能实体的刑事责任。