THE CRIMINAL LIABILITY OF ARTIFICIAL
INTELLIGENCE ENTITIES
——FROM SCIENCE FICTION
TO LEGAL SOCIAL CONTROL
1. INTRODUCTION: THE LEGAL PROBLEM
Can thinking machines be subject to criminal law? In 1981, a 37-year-old Japanese employee of a motorcycle factory was killed by an artificial-intelligence robot working near him. The robot erroneously identified the employee as a threat to its mission, and calculated that the most efficient way to eliminate this threat was by pushing him into an adjacent operating machine. Using its very powerful hydraulic arm, the robot smashed the surprised worker into the operating machine, killing him instantly, and then resumed its duties with no one to interfere with its mission. Unfortunately, this is not science fiction, and the legal question is: Who is to be held liable for this cold-blooded, premeditated murder?
The technological world is changing rapidly. Robots and computers are replacing more and more simple human activities. As long as humanity used computers as mere tools, there was no real difference between computers and screwdrivers, cars, or telephones. When computers became sophisticated, we used to say that computers “think” for us. The problem began when computers evolved from “thinking” machines (machines that were programmed to perform defined thought processes/computing) into thinking machines (without quotation marks), or Artificial Intelligence (AI). AI is the capability of a machine to imitate intelligent behavior. AI is the simulation of human behavior and cognitive processes on a computer and hence is the study of the nature of the whole space of intelligent minds. AI research began in the 1940s and early 1950s. Since then, AI entities have become an integral part of modern human life, functioning much more sophisticatedly than other daily tools. Could they become dangerous?
In fact, they already are, as the above incident attests. In 1950, Isaac Asimov set down three fundamental laws of robotics in his science fiction masterpiece I, Robot. (1) A robot may not injure a human being or, through inaction, allow a human being to come to harm; (2) A robot must obey the orders given it by human beings, except where such orders would conflict with the First Law; (3) A robot must protect its own existence, as long as such protection does not conflict with the First or Second Laws.
These three fundamental laws are obviously contradictory. What if a man orders a robot to hurt another person for the own good of the other person? What if the robot is in police service and the commander of the mission orders it to arrest a suspect and the suspect resists arrest? Or what if the robot is in medical service and is ordered to perform a surgical procedure on a patient, the patient objects, but the medical doctor insists that the procedure is for the patientrsquo;s own good, and repeats the order to the robot? Besides, Asimovrsquo;s fundamental laws of robotics relate only to robots. A robot without AI software would not be subject to Asimovrsquo;s laws, even if these laws had any real legal significance.
The main question in that context is, what kind of laws or ethics are correct, and who is to decide? In order to cope with these same problems as they relate to humans, society devised criminal law. Criminal law embodies the most powerful legal social control in modern civilization. Peoplersquo;s fear of AI entities, in most cases, is based on the fact that AI entities are not considered to be subject to the law, specifically to criminal law. In the past, people were similarly fearful of corporations and their power to commit a spectrum of crimes, but because corporations are legal entities subject to criminal and corporate law, that kind of fear has been significantly reduced.
Therefore, the modern question relating to AI entities becomes: Does the growing intelligence of AI entities subject them to legal social control as any other legal entity? This article attempts to work out a legal solution to the problem of the criminal liability of AI entities. At the outset, a definition of an AI entity will be presented. Based on that definition, this article will then propose and introduce three models of AI entity criminal liability:
(1) The Perpetration-via-Another Liability Model
(2) The Natural-Probable-Consequence Liability Model
(3) The Direct Liability Model.
These three models might be applied separately, but in many situations, a coordinated combination of them (all or some of them) is required in order to complete the legal structure of criminal liability. Once we examine the possibility of legally imposing criminal liability on AI entities, then the question of punishment must be addressed. How can an AI entity serve a sentence of incarceration? H
剩余内容已隐藏,支付完成后下载完整资料
人为智慧实体的犯罪责任
——从科学到法律社会控制
1引言:法律问题
思维机器能否受到刑法的制约? 1981年,一名三十七岁的摩托车工厂的日本雇员在靠近他的人工智能机器人身亡。机器人错误地将员工认定为对其任务的威胁,并计算出消除这种威胁的最有效方法是将他推入相邻的操作机器。机器人使用非常强大的液压臂,将惊奇的工人砸碎了机器,立即杀死了他,然后又没有人恢复任务来干涉他的使命。不幸的是,这不是科幻小说,而法律问题是:谁将对这种冷血有谋的谋杀负责?
技术世界正在迅速变化。机器人和电脑正在取代越来越多的简单的人类活动。只要人类使用电脑作为工具,电脑和螺丝刀,汽车或电话之间没有任何区别。当电脑变得复杂时,我们曾经说过电脑为我们“思考”。 当计算机从“思考”机器(被编程为执行定义的思维过程/计算的机器)进入思维机器(无引号)或人工智能(AI)时,问题就开始了。AI是机器模拟智能行为的能力。AI是对计算机上的人类行为和认知过程的模拟,因此是对智能头脑整个空间的性质的研究。AI研究始于20世纪40年代和50年代初。此后,AI实体已经成为现代人类生活中不可或缺的一部分,比其他日常工具更加复杂。他们会变得危险吗?
事实上,他们已经是,正如上述事件证明。 1950年,艾萨克·阿西莫夫(Isaac Asimov)在科幻小说“机器人”(Robot)中制定了机器人技术的三大基本规律。(1)机器人不得伤害人类,或通过不作为使人类受到伤害;(2)机器人必须遵守人类给予的命令,除非这种命令与第一定律相冲突;(3)机器人必须保护自己的存在,只要这种保护不违反第一或第二定律。
这三条基本法明显矛盾。 如果一个人命令一个机器人伤害另一个人为自己的另一个人呢? 如果机器人在警察中服役,特派团指挥官下令逮捕嫌犯,嫌疑人是否可以抵制呢?或者如果机器人在医疗服务中被命令对患者执行外科手术,患者对象,但医生坚持认为该程序是为了患者自身的好处,并重复向机器人的命令?此外,阿西莫夫的机器人技术的基本规律只涉及机器人。没有AI软件的机器人不会受到阿西莫夫法律的约束,即使这些法律具有真正的法律意义。过去,人们同样害怕公司和他们有能力犯下一系列罪行,但由于公司是法律实体受到刑事和公司法的约束,所以这种恐惧已经大大减少了。
在这方面的主要问题是,什么样的法律或道德是正确的,谁来决定? 为了应对与人类有关的同样的问题,社会制定了刑法。刑法体现了现代文明中最强大的法律社会控制。人们对AI实体的恐惧,在大多数情况下,是基于AI实体不被视为法律,特别是刑法的事实。
因此,与AI实体相关的现代问题变成:AI实体的日益增长的智慧使其成为任何其他法律实体的法律社会控制?本文尝试为AI实体的刑事责任问题制定法律解决方案。 首先,将介绍一个AI实体的定义。根据这一定义,本文将提出并介绍AI实体刑事责任的三种模式:
(1)通过另一责任模式
(2)自然可能的后果责任模型
(3)直接责任模式。
这三种模式可能单独应用,但在许多情况下,为了完成刑事责任的法律结构,需要协调一致(全部或部分)。一旦我们检查了合法强制刑事责任的可能性AI实体,那么惩罚问题就必须解决。AI实体如何服刑?如何对AI实体进行死刑呢?因此,有必要制定可行的惩罚形式,以便对实体实行刑事责任。
2. 什么是人造智能实体?——“思考”机器或思维机器
多年来,AI实体的本质是有争议的。未来学家宣称诞生了一种新的物种——机器人,将人类的地方作为地球上的智慧生物分享。批评家认为“思维机器”是一个矛盾。包括计算机在内的机器,具有冷逻辑的基础,永远不会像人类那样具有洞察力或创造力。这个争论提出了人类本质的基本问题(人类是否像思维机器一样)和人工智能(可以思考机器)吗?
智能实体有五个属性。第一个是沟通。人们可以与智能实体通信。与实体进行沟通越容易,实体越明智。人们可以和狗沟通,而不是爱因斯坦的相对论。人们可以和小孩沟通爱因斯坦的理论,但需要一个孩子可以理解的方面进行讨论。二是内部知识。一个智能实体有望自己掌握一些知识。
第三是外部知识。一个智能实体有望知道外界,了解它,并利用这些信息。第四个是目标驱动的行为。预计智能实体将采取行动,以实现其目标。第五是创意。一个聪明的实体预计会有一定程度的创造力。在这种情况下,创造力意味着在初始行动失败时采取替代行动的能力。苍蝇试图离开一个房间,碰到一个窗玻璃继续重复同样徒劳的行为。当AI机器人撞到窗口时,它会尝试使用门退出。大多数AI实体通过定义拥有这五个属性。大约二十一世纪的AI实体类型拥有更多的属性,使他们能够以更复杂的方式行事。
AI实体有各种应用,包括机器人。可以设计机器人来模仿人的身体能力,并且可以改善这些能力。机器人能够比人类身体更快更强壮。机器人能够比人类身体更快更强壮。 安装在其中的AI软件还使机器人能够更快速,更快地计算许多复杂的计算,或者更快地“思考”。AI实体能够学习和获得经验,经验是一种有用的学习方式。所有这些属性都创造了AI实体的本质。 AI机器人和AI软件用于工业,军事服务,医疗服务,科学甚至游戏中的广泛应用。
3. 人工智能实体犯罪责任的几种模式
A. 刑事责任的相关要求
刑法的基本问题是刑事责任问题;即具体实体(人力或法人)是否对特定时间和空间的犯罪行为承担刑事责任。为了对一个人施加刑事责任,必须存在两个主要因素。第一个是外部或事实因素——即犯罪行为,而另一个是内部或心理因素,即与行为要素的知识或一般意图。如果缺少一个要素,则不能追究刑事责任。
主要表现为行为或不作为。 有时,除了行为的具体结果和行为的具体情况之外,还需要其他外部因素。 精神需求有各种各样的心理因素。 最高层次是通过知识表达的,有时伴随着意图或具体意图的要求。 较低的级别由疏忽(合理的人应该知道)或严格的责任罪行表示。
不需要其他标准或能力来强加刑事责任,而不是来自人类,也不得从任何其他类型的实体,包括公司和AI实体。然而,为了强加刑事责任,实体可能具有进一步的能力;在具体的犯罪行为中存在犯罪行为和精神习俗是足够的。蜘蛛能够行动,但无法制定精神需求;因此,蜘蛛咬不承担刑事责任。一只鹦鹉能够重复听到的单词,但它不能制定诽谤的精神需求。
为了对任何一种实体施加刑事责任,必须证明存在上述两个要素。 当事实证明一个人明知犯罪或犯有犯罪行为时,该人对该罪行承担刑事责任。有关AI实体的刑事责任的相关问题是:AI实体如何履行刑事责任的两项要求? 本文提出使用三种可能的责任模式对AI实体实行刑事责任:通过另一种责任模式; 自然可能的后果责任模型; 和直接责任模式。 以下是这三种可能的模型的解释。
B. 通过另一责任模型:人工智能实体作为无辜代理人
这个第一个模型不认为AI实体拥有任何人的属性。 AI实体被认为是一个无辜的代理人。因此,由于这个法律观点,一台机器是一台机器,而不是人类。 然而,如上所述,人们不能忽视AI实体的能力。根据这一模式,这些能力不足以将人工实体视为犯罪行为人。 这些功能类似于精神有限的人,如孩子,精神上无能的人,或缺乏犯罪心态的人的平行能力。
合法地,当一名无辜的代理人(一名小孩,一名无能力的精神病人或一名缺乏犯罪意图犯罪的人)犯有罪行时,该人就是通过另一人犯下罪行。在这种情况下,媒介仅仅被视为是一种文书,虽然是一种复杂的文书,而策划犯罪的一方(通过另一方犯罪者)则是真正的肇事者作为第一学位的校长,并对该行为负责的无辜代理人。
犯罪者的责任是根据“文书”行为和精神状态确定的。 相对于人工智能实体的衍生问题是:谁是凶手? 有两个候选人:第一个是AI软件的程序员,第二个是用户或最终用户。AI软件的程序员可能会设计一个程序,以通过AI实体犯罪。 例如:程序员为操作机器人设计软件。 机器人故意放置在工厂,其软件设计为在没有人在晚上对工厂进行火炬操作。 机器人犯了纵火,但程序员被认为是犯罪者。
可能被认为是犯罪者的第二个人通过另一个人是AI实体的用户。 用户没有对软件进行编程,但是他使用AI实体,包括其软件,为自己的利益。例如,用户购买仆人机器人,其被设计为执行由其主人给出的任何订单。机器人将特定用户识别为主机,主机命令机器人攻击房屋的任何入侵者。 机器人按照顺序执行顺序。 这与命令他的狗攻击任何侵入者的人没有区别。机器人进行攻击,但用户被认为是肇事者。
在这两种情况下,实体犯罪都是由AI实体承担的。 程序员或用户没有执行符合特定犯罪定义的任何行动; 因此,他们不符合特定罪行的追究要求。通过另一种责任模式考虑AI实体所执行的行为,就像程序员或用户的行为一样。 责任的法律依据是将AI实体作为无辜代理人的工具使用。责任的法律依据是将AI实体作为无辜代理人的工具使用。 实行犯罪责任所需的精神属性不归于人造实体。 当程序员或用户在工具上使用AI实体时,AI实体的犯罪行为归因于他们。具体犯罪所需的内在要素已经存在于他们的脑海里。程序员在命令进行纵火时有犯罪意图,而且即使这些犯罪实际上是通过一个机器人,一个AI实体来实施的,用户在命令执行攻击时也有犯罪意图。 当最终用户对无辜代理人进行工具使用犯罪时,最终用户被认为是肇事者。
该责任模式不将任何心理能力或任何人类心理能力归功于AI实体。 根据这种模式,AI实体和螺丝刀或动物之间没有法律上的差异。当防盗用螺丝刀打开窗户时,他用螺丝刀工具,螺丝刀不负刑事责任。 螺丝刀的“动作”其实是防盗的。 在使用动物的时候,这是一个合法的情况。 事实上,由大师的命令对狗进行的攻击实际上是由主人进行的攻击。
这种法律模式可能适用于两种情况。 第一种情况是使用AI实体犯罪,而不使用其高级功能。第二种情况是使用一个非常旧版本的AI实体,缺乏现代AI实体的现代先进功能。在这两种情况下,AI实体的使用都是工具使用。尽管如此,它是使用AI实体,因为它有能力执行命令犯罪。螺丝刀不能执行这样的命令; 一只狗可以。 狗不能执行复杂的订单; 一个AI实体可以。
当AI实体根据自己的积累的经验或知识决定犯罪时,通过另一种责任模式实施是不合适的。当AI实体的软件不是旨在提交特定的犯罪,而是由AI实体承诺时,这种模式是不合适的。这种模式也不适用于特定AI实体不是无辜代理人,而是作为半无辜代理人。 然而,当程序员或用户对AI实体进行工具使用,但不使用AI实体的高级功能时,通过另一种责任模式可能是适用的。 适用这种模式的法定结果是,程序员和用户对所犯的具体犯罪负有刑事责任,而AI实体则不承担任何刑事责任。
C.自然可能的后果责任模型:由人工智能实体承担的可预见的罪行
第二种刑事责任模式假定程序员或用户深入参与AI实体的日常活动,但无意通过AI实体犯任何罪行。 例如,执行日常工作时,实体实体即属犯罪。 程序员或用户在已经犯下之前就不了解这些罪行; 他们并没有计划犯任何罪行,他们也没有参与犯有这种具体罪行的任何部分。
这种场景的一个例子是被设计为用作自动驾驶员的AI机器人或软件。 AI实体被编程为保护飞行任务的一部分。 在飞行过程中,人类飞行员激活自动飞行员(这是AI实体),程序被初始化。在激活自动飞行员后的某个时刻,人类飞行员看到了一场接近的风暴,试图中止任务并返回基地。AI实体认为人类飞行员的行动是对使命的威胁,并采取行动,以消除这种威胁。它可能会切断飞行员的空气供应或激活弹出座位等。因此,人造飞行员被AI实体的行为所杀死。
显然,程序员并不打算杀死任何人,特别是杀死任何人,特别是不是人为的飞行员,但是由于AI实体的行动,人造飞行员被杀害,这些行动是按照程序完成的。 另一个例子是用于检测来自互联网的威胁并保护计算机系统免受这些威胁的AI软件。软件启动后的几天,它发现,检测这种威胁的最佳方式是将其定义为危险的网站,并摧毁被认定为威胁的任何软件。当软件这样做时,它是犯计算机犯罪,尽管程序员没有打算AI实体这样做。
在这些例子中,第一个模型是不合法的。第一个模型假设程序员或用户的犯罪意图是通过工具使用一些AI实体的能力来犯罪。这不是这些情况下的法律情况。在这些情况下,程序员或用户不知道犯罪行为; 他们没有计划,并没有打算使用AI实体犯罪。对于这种情况,第二种模式可能会产生适当的法律反应。这种模式是基于程序员或用户预见潜在犯罪行为的能力。
根据第二种模式,如果该罪行是该人的行为的自然而可能的后果,则可能会对某人犯有追究责任。最初,自然可能后果责任模式被用来对共犯施加刑事责任,当他们犯了一项没有由他们全部规划的罪行,而不是阴谋的一部分。法院和评论员规定的既定规则是,共犯责任涉及犯罪者的行为,这是行为人鼓励或辅助的犯罪计划的“自然而可能的后果”。共同责任法规和编纂法已广泛接受自然可能后果责任。
自然可能后果责任似乎合法适用于AI实体犯罪的情况,而程序员或用户不知道的情况,并没有意图,也没有参与其中。自然可能后果责任模型要求程序员或用户处于疏忽的精神状态,而不是更多。程序员或用户不需要知道任何由于活动而导致的任何犯罪行为,而是要求知道这种犯罪是其行为的自然而可能的后果。
在犯罪的情况下,疏忽的人是不了解罪行的人,但合理的人应该知道,因为具体的犯罪是该人的行为的自然可能后果。 AI实体的程序员或用户谁应该知道即将实施特定罪行的可能性,即使他们实际上并不知道这一点,也对具体的犯罪负责刑事责任。这是疏忽案件中刑事责任的基本法律依据。 事实上,疏忽是意识或知识的遗漏。疏忽的人忽略了知识,而不是行为。
自然可能后果责任模型将允许对疏忽造成的谓词责任,即使具体犯罪需要不同的心态。 对于犯有罪的人而言,这是无效的,而是被认为是有效的,而不是犯罪者的实际犯罪者,而是其知识犯罪者之一。 合理的程序员或用户应该预见到犯罪行为,并阻止其由AI实体承诺。
然而,将自然可能后果责任模型应用于程序员或用户的法律效果在两种不同类型的事实案例中有所不同。第一种情况是程序员或用户在编程或使用AI实体时疏忽,但没有犯
剩余内容已隐藏,支付完成后下载完整资料
资料编号:[27129],资料为PDF文档或Word文档,PDF文档可免费转换为Word
您可能感兴趣的文章
- 饮用水微生物群:一个全面的时空研究,以监测巴黎供水系统的水质外文翻译资料
- 步进电机控制和摩擦模型对复杂机械系统精确定位的影响外文翻译资料
- 具有温湿度控制的开式阴极PEM燃料电池性能的提升外文翻译资料
- 警报定时系统对驾驶员行为的影响:调查驾驶员信任的差异以及根据警报定时对警报的响应外文翻译资料
- 门禁系统的零知识认证解决方案外文翻译资料
- 车辆废气及室外环境中悬浮微粒中有机磷的含量—-个案研究外文翻译资料
- ZigBee协议对城市风力涡轮机的无线监控: 支持应用软件和传感器模块外文翻译资料
- ZigBee系统在医疗保健中提供位置信息和传感器数据传输的方案外文翻译资料
- 基于PLC的模糊控制器在污水处理系统中的应用外文翻译资料
- 光伏并联最大功率点跟踪系统独立应用程序外文翻译资料
