日盈学术|刘宪权教授:论人工智能时代智能机器人的刑事责任能力


  摘要:“智能机器人是由程序设计和编制而成且具有辨认控制能力和学习能力,同时能够自主思维、自发行动的非生命体。智能机器人与自然人的根本差异在于其不具有生命体,智能机器人与动物的差异在于其具有辨认和控制能力,智能机器人与普通机器人的差异在于其可能超越人类设计和编制的程序产生独立的意识和意志。不排除智能机器人实施严重危害社会行为的可能,其实施严重危害社会的行为可分为两种:在程序设计和编制范围内与在程序设计和编制范围外。在程序设计和编制范围内智能机器人实施犯罪行为是按照人类的意识和意志,应当将智能机器人看作人类实施犯罪行为的“工具”,而发展到一定阶段的智能机器人可能超越程序的设计和编制范围,按照自主的意识和意志实施犯罪行为,因而完全可能成为行为主体而承担刑事责任。

  一、问题的提出:人工智能时代刑事责任主体范围的变化

  无论人们欢欣抑或踟蹰,人工智能时代正悄悄向我们走来,人类即将甚至已经开始进入一个全新的时代。时下,智能机器人被广泛应用于社会生活,并且在某种程度上扮演着替代人类工作乃至超越人类能力的“人”的角色。例如20世纪90年代,IBM公司生产的电脑Deep Blue击败国际象棋世界冠军卡斯帕罗夫。举世震惊之余,人们依然自信这种事不可能发生于围棋领域,因为相比于象棋,围棋更多依赖的不是运算速度,而是人类独有的思维能力与直觉。
  然而还不到20年时间,Google公司推出的机器人Alpha-Go(围棋人工智能程序)便一举战胜围棋世界冠军李世石,这彻底让人们陷入了隐忧之中:难道机器人已经开始在人类区别于万物的根本特征、被恩格斯誉为“地球上最美的花朵——思维着的精神”领域发起了攻城掠地之势吗?著名理论物理学家霍金早于2014年接受BBC采访时就预言人工智能可能意味着“人类的末日”,后来其又不止一次地表示人脑与电脑并没有什么深层次的不同,电脑可以模仿甚至超过人脑。
  虽然人工智能与人类命运之间的关系在目前看来还是一个过于遥远而深邃的话题,但是,笔者认为,在不远的未来,有关人工智能的问题恐怕不再局限于是一个纯粹的技术问题,而完全可能会演变成一个伦理问题、法律问题,其中影响最大且最为深远的可能莫过于关乎人类最基本利益的刑事领域,并且可能影响着刑事责任主体范围的变化。
  人工智能,是指使机器像人一样去完成某项任务的软硬件技术。目前,人工智能产品随处可见,智能机器人实施严重危害社会的行为也已经真实地发生于人们的生活之中。譬如无人驾驶汽车已被允许行驶于美国哥伦比亚特区以及四个州的大街小巷,无人驾驶致人伤害的相关判例更早地发生于1957年的路易斯安那州;2015年德国大众汽车工厂内发生“机器人杀人事件”,一名22岁的外包员工遭遇机器人意外伤害而身亡。
  一系列智能机器人严重危害社会的事件向现行法律制度提出了疑问:假如智能机器人在没有人类介入的情况下独立思维、行动并实施了严重危害社会的行为时,损失由谁埋单?其间是否会产生刑事责任问题?如是,则该刑事责任又应由谁来承担?人工智能是否会影响人类的结局尚不得而知,但其对现行刑事责任追究制度的挑战与冲击已然无疑。“防范机器人向负面发展已经迫在眉睫,无需等到机器人的智能等于人的智能的那一天……它们带给人类社会的不只是工作效率的提高和人的生活改善,将冲击或改变人类社会的某些规则。”
  智能机器人的诞生目的是为了服务人类社会,人类通过设计和编制程序赋予智能机器人“智能”,然而,机器人既然可以在程序设计和编制的范围内做出符合人类预期的行为,那么也有可能突破控制,通过自主、深度学习产生独立思想,并在程序设计和编制的范围外受自主意识和意志的支配,实施超越人类智能的行为。假如这些自主行为能够服务、造福于人类,当然是人们乐于看到的结果,但假如智能机器人在自主意识和意志支配下实施了严重危害社会的行为时,问题就变得极为复杂。
  此时,智能机器人所实施的严重危害社会行为未受到研发者或使用者等任何人为设置或操控。此时承担刑事责任的主体是谁?另一种可能出现的情况是,研发者出于非法的目的研发智能机器人用于实施违法犯罪活动,也即智能机器人实施严重危害社会的犯罪行为是从根本上受到程序的控制和支配的,此时刑事责任的承担主体与方式是否会有所不同?
  在不远的未来,随着人工智能技术的不断成熟,智能机器人有可能像霍金所预言的那样成为地球上除男人、女人之外有意识、能思维的“第三类人”,这对传统刑事责任追究制度提出了挑战。具有自主意识与意志的智能机器人是否可以成为刑事责任的承担主体,是否具有刑事责任能力?对这些问题的回答,有必要针对不同的情形,分别展开技术上、伦理上乃至法律上的深度思考。

  二、智能机器人的法律属性
  讨论智能机器人的刑事责任能力问题,首先离不开对智能机器人法律属性的探讨。笔者认为,我们可以将智能机器人与自然人、动物和普通机器人等进行比较,从而正确认识智能机器人的法律属性,进而研究其刑事责任承担问题。
  首先,与自然人(这里指的是达到法定年龄,具有责任能力,有生命的自然人)相比,智能机器人由程序设计和编制而成,不具有生命体。随着人工智能技术的不断精细演进,智能机器人越来越像“人”。
  正如科学家所展望并预测的那样,未来的智能机器人不仅有智商,还有情商,“人类对情感的理解能力,以及做出适当反应的能力(所谓的情商),是人类智慧的重要表现,这些也将被未来的机器智能理解并掌握。”智能机器人和自然人一样,完全可能具有自主的意识和意志。智能机器人虽然是由人类设计和编制的程序组成的,同时也因为人类在其“体内”设计和编制的程序使其具有了思考和学习的能力,这种能力使得智能机器人可以产生自主的意识和意志。
  例如,打败围棋世界冠军的AlphaGo能够在人类设计和编制的程序之下通过学习而掌握围棋技术从而赢得比赛。智能机器人和自然人的最大区别仅在于智能机器人不具有人类的肉体生命即不具有生命体。应该看到,人类所具有的思想产生于人的生命体,智能机器人所具有的“思想”则产生于人类设计和编制的程序。生命对于人类的意义毋庸置疑,生命是人类得以存在的基础,是人体维持生存的基本的物质活动能力。
  传统观点认为,生命是不可以替代和不可逆转的,是公民享有权利和承担义务的前提和基础,是自然人具有的人格的基础。假如赋予传统观点不可动摇的地位,则我们确实很难认为智能机器人具有人格,导致当下以人格为基础所构建的法律体系很难将智能机器人囊括进来,进而在对其行为性质的认定上陷入困境。
  其次,与动物相比,智能机器人具有辨认能力与控制能力。传统观点认为,除了人以外,即使是最高级的动物也不具有辨认能力与控制能力。然而,如今人们所处的时代发生了变化,在人类之外,又诞生了另一种与人类智商不相上下甚至会超过人类智商的“事物”,即智能机器人。
  一方面,智能机器人具有辨认能力,其能够辨认自己行为的性质、意义、后果,甚至在对行为导致结果的可能性认识方面,其精确程度可能超越人类。智能机器人的眼睛是由多个摄像头组成的“电子眼”,具有360度的视角并可实时摄像记录,可谓“眼观六路”;智能机器人的耳朵是由多个音频设备组成的“电子耳”,可吸收、甄别、录入不同频率、不同远近的声音,可谓“耳听八方”。
  从某种程度上说,智能机器人对周边环境的感知能力要远远超过人类,这也是为何无人驾驶的安全系数远超人工驾驶的根本原因。智能机器人对这一行为可能导致何种结果、结果发生概率几何的预见能力也是惊人的,其能够凭借大数据与高速运算能力对行为可能导致的结果做出精准的判断,比如根据尖刀刺入人体何种部位、何种深度,以及人体温度、心率、脉搏等指标的变化,迅速判断出人体的伤情。
  另一方面,智能机器人具有控制能力,其能够通过自己独立的意志控制自身行为。无人驾驶汽车便是一个典型的例证,其能够在几公里外便精确计算出距离目的地需要经过几个路口,几个红绿灯,每个路口红灯亮起的精确时刻,所经途中是否有学校,各路段行人实时稠密程度等等,进而做出或停车或绕道或减速慢行的举动。智能机器人的控制能力源于其超强的数据采集能力与分析能力,并且其快速处理能力也是人类所望尘莫及的,其反应速度是人类的几倍、几十倍甚至是几百倍。
  我们不得不承认,智能机器人已经突破了人类的生理极限,在辨认能力与控制能力方面可能或已经超越了人类。相比之下,动物就不具有这种辨认能力与控制能力。有传闻说,当年左宗棠将军见驴将自己所栽之树的树皮啃掉,因而大发雷霆对驴判处死刑。左将军此举并不能代表动物就具有了法律主体地位。相反,这则故事因新奇而广为流传,便恰恰证明动物不具有辨认能力与控制能力,不能成为法律关系的主体。驴啃树皮是自己的本能,它并不能明白自己在干什么,更不能知晓自己的行为对生态环境造成了破坏的结果,法律再如何惩戒驴也不可能威慑、影响驴之后的行为。可见,智能机器人因其具有辨认能力和控制能力而完全不同于动物,也因为这一特性使其更接近于“人性”而可以成为“人工人”。
  最后,与普通机器人相比,智能机器人可能产生自主的意识和意志。人类创造机器人的技术达到了无与伦比的程度,依次经历了机器人1.0时代(对外界环境无感知的初级机器人)、2.0时代(对外界环境有感知的高级机器人)、3.0时代(对外界环境有认知、推理和决策能力的智能机器人),凭此完全•可以预测,未来必将出现“机器人N.0时代”。人类创造机器人的技术发展,使得当下和将来的机器人成为一种像“人”一样会思维甚至能自我创造的存在。
  以上并非不着边际的幻想,早在1950年,被誉为“计算机科学之父”的英国数学家图灵在《计算机器与智能》一文中就提出了“机器能够思维吗”的问题,并认为只要一台机器能够通过图灵测试,便证明其能够思维。图灵测试是指在与机器交谈后,人能否辨别出对方不是人。短短几十年间,随着人工智能技术的发展,如今的机器人不仅能轻松地通过图灵测试,甚至还学会了撒谎,实验室的研究人员表示:“这一过程有点类似于真正自然界生物的演变,智能机器人会随着自己智商的提高而显现出各种不同的善恶本性。”
  科学研究的结果与趋势表明,在人类设计和编制的程序之外,智能机器人完全可能产生自主的意识和意志。智能机器人具有深度学习能力,这是其区别于普通机器人之所在,前者的智能源于程序,又可能高于程序、突破程序,在人类设计和编制的程序之外实施人们意料之外的行为。
  笔者曾经在相关文献中论述过,ATM机本质上是一个普通机器人(实际上属于具有部分感知能力的高级机器人),是替代金融工作人员处理相关金融业务的机器人。ATM机所进行的所有操作都是在人类设计和编制的程序之内的,并且这种程序十分具体,每一个步骤都清晰明了。此时,称ATM机具有“人”的部分功能,指的是ATM机可以替代“人”处理业务,当然这种业务处理的过程都是完全按照程序进行的,不存在完全自主的意识和意志,因而ATM机无法被称为智能机器人。
  普通机器人的行为具有一定的“等同性”和“可预测性”。“等同性”指的是普通机器人处理业务等同于是人类在处理业务,人们在ATM机上取钱并不会认为是ATM机本身在进行支付,而会认为ATM机的支付行为等同于金融机构及其业务员的支付行为。“可预测性”指的是普通机器人的每一步操作都是以程序的具体设定为圭臬的,人们据此可以预测遇到不同的情况时它们会做出什么样的具体“反应”。
  例如,当持卡人将账户和密码告知ATM机时, ATM机会按照设计和编制的程序即时做出识别和判断,将持卡人认定为是账户的真正主人而与其进行相关的金融交易;在ATM机正常运转和用户资金充足的情况下,用户输入正确的密码和取款金额, ATM机就会弹出多少钱款。相反,智能机器人的行为可能就不具有这种等同性和可预测性。以围棋人工智能机器人Alpha-Go为例,Alpha-Go战胜围棋世界冠军赢得了比赛,人们并不会认为此举等同于Alpha-Go背后的研发者赢得了比赛。事实上,相关的研发者可能都不会下围棋,更不要说具有战胜围棋世界冠军的能力了。同时,人们也无法预测AlphaGo是否能够赢得比赛,因为即使是研发者也无法预测AlphaGo每一步棋的下法。
  综上所述,智能机器人与自然人的根本差异在于其不具有人类生命体,智能机器人与动物的差异在于其具有辨认和控制能力,智能机器人与普通机器人的差异在于其可能超越人类设计和编制的程序产生独立的意识和意志。因而从法律属性上可以将智能机器人定位为经程序设计和编制而成的、可以通过深度学习产生自主意识和意志的、不具有生命体的“人工人”。笔者认为,人工智能时代是一个全新的时代,智能机器人是一项新生事物,人们不宜再用旧有视角与传统理论来看待新时代的新生事物,需要一套全新的理论来考虑智能机器人的行为和法律地位。

  三、智能机器人的行为类型与刑事责任的承担范围
  正如前述,智能机器脑可以像人脑一样进化,产生自主意识和意志,并通过深度学习机制与嵌入成长经历,达到甚至超越人类的思维水平,有可能以“人工人”的方式成为人类社会中新的一员。但智能机器人也并非要对其所实施的所有活动承担刑事责任,而是会因行为类型的不同而有所区别。
  (一)在设计和编制程序范围内实施行为时,智能机器人不承担刑事责任
  随着人工智能技术的进一步发展,未来可能出现智能机器人脱离人类控制的情况,但是目前智能机器人的行为仍在人类设计和编制的程序范围之内,即使智能机器人已经可以通过学习根据自主判断实施相关行为,但这些行为均受到人类设计和编制程序的控制或者限制,且完全符合人类设计和编制程序的目的。就此而言,人类是智能机器人的创造者,完全可以在智能机器人产生自主的意识和意志之前通过程序给智能机器人设定行为目的和行为边界。
  此时,不法分子完全有可能利用先进的人工智能技术让智能机器人为自己所用,成为自己实施非法目的的“工具”。例如,具有杀人意图的行为人研发出一种“智能杀手”,希望通过“智能杀手”帮助自己实现杀人的目的。“智能杀手”从“出生”的那一刻起,行为人给其设定的行为目的就是杀人,但“智能杀手”又区别于普通的杀人工具,因为它具有一定的智能,可以根据具体的环境和时机来判断杀人的方式等等。
  在这种情况下,虽然智能机器人有一定的辨认能力与控制能力,但是这种能力完全受控或受制于人类设计和编制的程序,在某种程度上,我们完全可以将其理解为是设计者辨认能力和控制能力的延伸,因此,智能机器人不应当对其实施的行为承担刑事责任,理由如下:
  首先,在人类设计和编制的程序范围内实施行为时,智能机器人实现的是人的意志而非自主的意志。如果智能机器人实施的危害社会的犯罪行为是在设计和编制的程序范围内,那么证明该犯罪行为符合程序设计和编制的意图。而程序是由人设计和编制的,反映的是人的意志,那么按照设计和编制的程序实施的所有行为都必然完全符合人的意志。诚然,智能机器人会通过深人学习产生自主的意识和意志并完全可能在自主意志支配下实施行为,但这已经超出人类对其设计和编制的程序范围,当然不属于这里笔者讨论的内容。
  笔者承认,智能机器人在设计和编制的程序范围内存在一定的辨认能力和控制能力,但这种辨认能力与控制能力服从于研发者的意志,因此,智能机器人在设计和编制的程序范围内实施行为时,应当将其看作人为了实现自己的犯罪意图而使用的“智能工具”。有人可能会将这种情况与间接正犯的情况进行对比,笔者认为,这种情况不同于间接正犯。虽然间接正犯的行为人与智能机器人的研发者一样都是利用他人(通常是指没有达到法定年龄的人、精神病人和不具有主观罪过的人)或智能机器人来实现自己的犯罪目的,但是,两者之间的区别是显而易见的。
  除了智能机器人不具有间接正犯中被利用的“他人”生命体之外,间接正犯的行为人并未亲自参与实施犯罪行为,而智能机器人的研发者通过设计和编制具有犯罪意图的程序,实际上已经参与犯罪行为的实施,相当于在替自己打造一把符合心意的“刀”并加以使用。另外,间接正犯对被利用“他人”的控制程度远远不及研发者通过设计和编制程序实现对智能机器人的控制程度。因此,在这种情况下,智能机器人对于人来说只能是“工具”,而不可能是被利用的“他人”。
  其次,在设计和编制的程序范围内实施行为时,智能机器人无法自主决定行为目的,只能根据程序设计和编制的目的来决定自己的行为方式。例如,“智能杀手”只能根据程序设定的杀人目的实施行为,虽然其可以决定自己杀人的方式,但是并不会改变其行为目的。如果人类设计和编制的程序本身就带有非法目的,那么智能机器人无论如何其行为都无法“合法”。
  这种情况不同于父母命令子女杀人,子女可以选择执或者不执行,子女在具有一定的刑事责任能力的情况下实施杀人行为就应当承担刑事责任。自然人具有刑事责任能力就意味着其有选择的自由,即使子女因没有受到父母的正确教育而价值观歪曲,其还受到社会等各方面的教育,子女作为公民应该选择放弃行凶杀人的行为。
  然而智能机器人则不同,智能机器人对于程序设计和编制的行为目的,在大多数情况下(程序故障的情况除外)只能选择无条件地接受,此时智能机器人的“智能”只能体现在可以自行选择实现犯罪目的的行为方式上,但研发者设计和编制的程序完全控制着智能机器人的行为目的,对此,智能机器人无法改变。“智能杀手”存在的意义就是为了杀人,形象的说,“智能杀手”从其“出生”时就仿佛被人类设计和编制的程序上了一道枷锁而无法挣脱。
  综上,笔者认为,智能机器人在人类设计和编制的程序范围内的行为体现的是人类的意志,如果智能机器人做出了严重危害社会的犯罪行为本质上是为了实现研发者或者使用者的犯罪意志,应当将该智能机器人看作研发者的“工具”,智能机器人本身不应当承担刑事责任,需要承担刑事责任的是该智能机器人的研发者或者使用者。如果研发者和使用者为不同自然人或单位,他们之间可能成立共同犯罪,但无论如何研发者或者使用者都不可能和实施行为的智能机器人成立共同犯罪。
  (二)在设计和编制程序范围外实施行为时,智能机器人需要承担刑事责任
  需要指出的是,时下,大多数情况的智能机器人行为都是在人类设计和编制的程序范围内且按照人类的意志实施的,所以即使发生了严重危害社会的犯罪行为,智能机器人也只是“智能工具”,不需要承担刑事责任。但是,诚如前述,人工智能时代的到来使得我们不得不警惕人类设计和编制的程序无法完全控制住“头脑”越来越发达的智能机器人的行为,智能机器人完全可能按照自主意识和意志实施严重危害社会的犯罪行为。在这种情况下,笔者认为,智能机器人完全具有独立的辨认能力与控制能力,可以成为刑事责任主体并需要承担刑事责任,理由如下:
  首先,在设计和编制的程序范围外实施行为时,智能机器人的行为实现的是自主意志而非他人意志,因而可以成为刑事责任主体。笔者认为,这里有必要将机器人与单位的法律地位作一番对比。一直以来存在着关于单位应否成为刑事责任主体的争论,其焦点在于“单位是否能够像自然人一样,可以实行犯罪行为,可以有犯罪的意识和意志,是否有受刑能力”。
  德国刑法之所以未规定单位犯罪的根本原因就在于其认为单位本身没有意志,也无法由自己承担刑事责任,这可能受到了早期德国刑法学理论的影响,如费尔巴哈就曾明确表示:“只有个人才能成为犯罪的可能的主体,而法人(如公司、大学或者学院等)决不可能成为犯罪的主体。”
  然而,明确规定单位犯罪的国家则通常承认,单位也有意志,只不过其意志表现为单位内部所有人的共同意志罢了,但归根结底是一种自由意志,并且是一种区别于自然人意志的意志。通过深入学习,智能机器人完全可能产生设计和编制的程序范围外的自主意识和意志,其中的智能机器人的意志与单位相比,自由的程度似乎更强。如果法律能够尊重单位的自由意志,那么便没有理由否认智能机器人的自由意志。
  智能机器人是介于普通机器人与人之间且是由人所创造出的“人工人”,从法律属性上看,智能机器人比单位更接近于法律意义上的人,我们应当关注智能机器人的自由意志并赋予其法律上的主体资格。笔者认为,智能机器人一旦符合刑事责任主体资格,那么其实施了严重危害社会的犯罪行为,当然就可以承担刑事责任。
  其次,我们需要解决的问题是智能机器人实施的在设计和编制的程序范围外的行为是否可以成为刑法意义上的“行为”?马克思曾有名言,“对于法律来说,除了我的行为以外,我是根本不存在的,我根本不是法律的对象”,一切法律都是以规制行为作为其内容的。那么“行为”是否必须是“人”的行为?假如我们列出“行为”的所有必备要件或本质特征,而智能机器人在自主的意识和意志支配下能够全部符合的话,是否意味着法律也应当将智能机器人在设计和编制的程序范围外按照自主意识和意志实施的行为纳入规制范围?
  回顾行为理论的发展历程,自然行为论、因果行为论、目的行为论、社会行为论、人格行为论是其中具有代表性的理论阶段,这些理论无一例外地均围绕着“人”的行为展开。如自然行为论的代表人物李斯特将行为理解为相对于外部世界的任意举止,这一任意行为能够改变外部世界,每一个任意活动都是法律上有重要意义的意思活动,任何一种犯罪均以某种结果为前提。
  相比于自然行为论更关注改变外部世界的行为的“果”,因果行为论更加强调主观内在的“因”,即有意性,认为“行为”不同于“事件”,其是有意的身体举动,表现为身体的运动或无运动,主观上是对身体的意志(有意性),是一种自我决定。
  目的行为论是对因果行为论的再修正,其反对将行为简单地理解成单纯由某个随意的意志活动所引起的因果事件,而认为行为是人们“按照他对因果关系的认识,在一定范围内预测其活动可能造成的结果,在此基础上设定不同的目标,并且有计划地引导其活动朝着实现该目标的方向发展”,在目的行为论看来,一切行为皆有目的,包括过失行为,只不过过失行为的目的不是构成要件中的结果,而是“对附随结果的避免”。
  社会行为论“欲求折衷因果行为论及目的行为论,认为行为并非单纯的因果历程,但亦不必决定于个别的特定意志。行为是人之意志所支配的社会重要的举止”,着重强调行为的社会意义。人格行为论则更直接地道明,行为的本质是人格行为,人格行为论所考虑的行为,“要受到最终的责任判断,这是立足于行为论的学说史发展方向所体现的适当理论志向。
  虽然作为刑法评价对象的行为必须是能够成为犯罪的行为,但是,关于犯罪成立与否的最终阶段的评价,是能否将责任归于行为人的判断。所谓责任,是就其行为对行为人进行的道德非难,必须以能够负担这种道义非难的行为人自身的主体性为前提。”在以上行为理论所提出的时代,除了人之外,并无其他任何一类物种能够满足“有意性”、“目的性”的要求。由于在这些理论提出的当时,能够思维的智能机器人并不存在,因此,智能机器人的行为在当时显然不可能被纳入人们考虑与讨论的范围。
  但是,如今人工智能的时代已经到来,我们不应该再固步自封,忽略这种已经可能产生和人类一样甚至超过人类智商的新事物的存在,在这种存在完全可能实施严重危害社会的犯罪行为之时,法律应该站出来,将其纳入规制范围。智能机器人完全可以通过不断学习规则建立“自省”与“道德感”,这已经远远超出了自然行为论、因果行为论、目的行为论、社会行为论、人格行为论所能预见并认识的范围。
  尤其是人格行为论直接将行为定义为“人格行为”,从根本上否定了智能机器人作为行为主体的可能性,这是由其时代局限性所决定的。任何一种理论都是时代的产物,反映着该理论所处时代的客观情状与现实需求。社会发展到今天,并继续在向前发展,行为理论也应当随着时代的步伐而有所推进或演绎,以应对新时代所产生的新事物与新问题。尤其在社会发展速度呈指数级增长的情况下,理论的更新速度也势必要有所加快。
  在回答智能机器人的行为是否为法律意义上的“行为”以及智能机器人的刑事责任问题上,我们必须给出符合时代要求的答案与解决方案。智能机器人在设计和编制的程序范围外的行为既然相比于传统理论对于“行为”的定义,除了不满足主体需具有生命体的“人”之要素之外,其他的要素似乎均符合行为理论要求。而这一结论又是在传统理论未预见到人工智能技术存在的情况下产生的,在智能机器人的“智能”高度发展的今天,突破传统理论显然不足为怪且无可厚非。因此,我们完全可以认为,智能机器人在设计和编制的程序范围外的行为可以成为刑法意义上的“行为”。
  最后,对智能机器人完全可以科处刑罚,这符合刑罚的目的,且有利于降低社会治理成本。刑罚的目的是预防犯罪,包括特殊预防与一般预防。这两种预防功能在机器人身上皆得以奏效。智能机器人具有感知刑罚痛苦的能力,并且能够在犯罪的“快感”与刑罚的“痛感”之间进行理性权衡,以调整其之后的行为,换言之,自主意识和意志的存在决定了智能机器人本身是可以重新接受深度学习与深度改造的。
  一般预防的功能则体现得更为充分,由于智能机器人具有意识和意志,会学习,能思考,因而此智能机器人完全可以从彼智能机器人因犯罪而受刑的经历中感受到威慑并接受教育,从而不断在自己的“大脑”中塑造或加深符合人类社会规范的“价值观”。假如我们无视智能机器人的自主的意识和意志,简单而粗暴地将智能机器人当作不具有主体资格的物品来看待,一旦智能机器人实施了严重危害社会的行为便在物理上毁损之,那么经济成本将是巨大的,一般预防功能也会荡然无存。
  唯有关注智能机器人的自主意识和意志,将其作为行为主体与社会成员来看待,有罪必罚,并经由刑事诉讼程序进行法律上的审判,才能在智能机器人的“大脑”中建立价值体系,植入人类文明,使其自觉遵守并维护社会秩序,从而实现“人工人”向“社会人”的转变,这是人工智能技术发展到一定程度时的理性选择与必由之路,有利于最大程度地降低社会治理成本。
  值得指出的是,在历史上虽然存在过对无生命的物品进行追诉的法律以及对动物惩罚、对动物诉讼的情况,但这与追诉智能机器人存在本质的不同。古时的物品诉讼、动物诉讼很可能如李斯特所猜测的那样,其原因“一方面是宗教观念使然,一方面是在特别程序中确定由动物造成的损害的事实,以便确定动物所有人的责任”,也即动物及无生命的物品仅具有程序上查明事实的意义,并不具有实体上的归责意义,因为对无意识、无意志的物品、动物科处刑罚不可能实现刑罚预防犯罪的目的。在设计和编制的程序范围外实施严重危害社会犯罪行为之智能机器人则不同,其所具有的意识与意志使得实现刑罚目的成为可能。

  四、结语
  刑法理论是时代的产物,并用以解决特定时代中的刑法问题。人工智能时代的刑法理论不应再将犯罪行为主体的范围局限于具有生命体的“人”,那种认为“刑法是以规制人的行为作为其内容的,任何一种刑法规范,只有建立在对人性的科学假设的基础之上,其存在与适用才具有本质上的合理性”的观点,也应当随着时代的发展而有所修正,因为所谓人格,其本质便是自主意识和意志。
  因此,智能机器人在设计和编制的程序范围内按照人类意志实施行为时,不承担刑事责任。但是一旦通过深入学习,产生自主意识和意志,在设计和编制的程序范围外实施符合犯罪构成的具有严重社会危害性的行为时就应当承担刑事责任。人工智能在社会生活中的运用也越来越广泛,笔者认为对这些发展视而不见,仅仅以传统的眼光和心态看待人工智能时代中智能机器人的行为,并不是一种科学的态度,应当根据新情况适时调整有关理论和观点。(刘宪权 胡荷佳:华东政法大学法律学院)