学术论文投稿/征稿

欢迎您!请

登录 注册

手机学刊吧

学刊吧移动端二维码

微信关注

学刊吧微信公众号二维码
关于我们
首页 > 学术论文库 > 法律论文 人工智能的法律定位及责任承担论文

人工智能的法律定位及责任承担论文

3

2024-04-24 10:47:07    来源:    作者:zhoudanni

摘要:在实践中绝大多数学者都对人工智能的法律 人格持肯定的观点,与此相关也有很多著作可以 借鉴。例如,郭少飞认为要将社会、伦理等因素综 合考虑在内,并且以人工智能的规范性和自主性 为起点,将人工智能看作具有法律人格的主体。

  摘要:自 2010 年以来,人工智能掀起了快速发展的浪潮,与人工智能有关的话题也引起了人 们激烈的讨论,像我们手机中的“Siri”以及 3D 打印技术和无人驾驶汽车等等都是我们熟知的人 工智能,最近兴起的 ChatGPT 等语言处理工具也进入了人们的视野中,因其强大的功能而备受人 们的青睐。人工智能不仅仅是关于科学领域的问题,它也涉及法律方面的问题:人工智能是否具有 独立的法律人格?人工智能是否能够单独承担法律责任?针对上述问题,法学家相较于科学家更 能给出合理的答案。只有解决上述问题, 才能对人工智能进行后续的法律规制。

  关键词:人工智能,法律人,特殊物格

  一、人工智能法律人格的学界争议

  目前关于人工智能的法律人格问题存在以下三种学说:

  ( 一 )肯定说

  在实践中绝大多数学者都对人工智能的法律 人格持肯定的观点,与此相关也有很多著作可以 借鉴。例如,郭少飞认为要将社会、伦理等因素综 合考虑在内,并且以人工智能的规范性和自主性 为起点,将人工智能看作具有法律人格的主体。 袁曾认为人工智能之所以具有独立的法律人格 是由其自主意识决定的,同时其享有的法律人格 不同于自然人,因此其承担的责任也是有限的。 刘宪权则认为人工智能与自然人并非完全不同, 他的结论是通过对强人工智能的辨认能力和控制 能力进行对比从而分析得出的。同时,肯定说之 下又分为三种学说:第一种是代理说,当新兴事 物的出现冲击到现有的法律框架时,可以使用类 比的方法参照已有的法律关系从而寻找进一步的 解决方案,在“ 代理说 ”的范畴内,人工智能的 所有人、使用人就相当于被代理人的概念。基于 该代理关系,被代理人有权对人工智能产品进行 支配和使用,该学说主张人工智能有着独立的法 律人格。第二种是电子人格说,该学说源于 2017 年欧洲议会法律委员会的决议,该决议明确指出 了赋予精密的人工智能“ 电子人 ”的属性,以便 其可以在事后承担相应的法律责任,但是关于如 何具体建构人工智能的电子人格,该决议并未给 出具体的答案。第三种是虚拟人格说,有部分学 者主张可以借助算法来预先设定人工智能的法律人格。

  ( 二 )否定说

  当前对人工智能的法律人格持“ 否定说 ”的 学者采用了实证主义的方法来论证其主张成立。 冀洋认为科技的发展进步不会对原有的法律框 架造成冲击,因此没有必要对原有的责任体系进 行重新架构。皮勇认为人工智能是人类意志的体 现,所以说独立的人格也是人工智能所欠缺的, 人工智能也不能独立承担法律责任,如果将法律 主体的地位强加给人工智能则容易与现行的法律 规范产生冲突。

image.png

  同时,否定说也可以细化为以下三种学说。 第一种是工具说,这种观点将人工智能看作是工 具,其本质是为人类服务的,虽然有些人工智能 产品的功能十分先进,可以独立活动,但其依然 要受人类的支配。在现实生活中,某些机器人像 “ 阿尔法狗 ”等,某种程度上来说其智力已经超 越了人类,仍将这些超智能机器人看作是人类的 工具的话,有些不够严谨。第二种学说观点是软 件代理说,该学说把人工智能视为传递信息的媒 介。第三种学说是认知能力缺乏说,该学说认为 人工智能仅仅是一类机器,其不具有人类的感情 与认知能力,因此在法律层面人工智能不具有人 格 ,不能独立承担法律责任。

  (三)折中说

  在肯定说和否定说之外,还有部分学者坚持 折中说。坚持折中说的学者主张法律人格有限说。 该学说将人工智能视作一种特殊的法律主体,是 以上两种学说的结合,该学说承认人工智能的功 能就是造福人类、为人类服务的,同时也指出人 工智能不可能享有和人类相同的权利。虽然人工智能在人类设计的算法的支配下可以自行做出一 些行为,但是其不能完全承受由其行为所带来的 后果。[1]

  二、人工智能法律人格的再审视

  事实上,普通大众更容易接受前文提到的“ 否 定说 ”,该学说也与一般人的认知更为贴切。但是 在学界,肯定说一直占据着主导地位。深挖背后 的学理,可以总结以下两点:第一,坚持否定说的 学者将关注点集中在理性思维、独立意识等哲学 问题,而没有对论证方法的可操作性、可修改性 提出可行方案;第二,虽然一些学者通过依靠法 学以外的理论,比如说心理学、社会学对肯定说 的主张造成了一定的冲击,但他们没有考虑到一 项重要的问题,即该把人工智能放在什么位置, 如果简单把人工智能归为民事法律关系的客体范 畴的话,则难以产生说服力。至于如何解决上文 提到的两个问题,本文认为,可以从自然法和实 证法两个方面入手,在自然法方面要确定人工智 能是否属于“ 人 ”,从实证法角度要考虑人工智 能是否有条件成为“ 法律上的人 ”。在科技化、法 治化迅速发展的今天,也应当构建起规制人工智 能的法律框架。[2]

  自然人是能够独立承担法律责任的主体,这 一点是毋庸置疑的。随着社会经济的发展,法人 等主体也具有了法律主体的地位,将人工智能与 自然人和法人等组织的法律人格的生成过程进行 对比,我们可以得知人工智能法律人格的虚假性。

  ( 一)人工智能不符合理性人的要求

  虽然学术界对“ 理性人 ”的定义各抒己见, 但是也殊途同归,学者们最后都将焦点集中到了 认知理性和行为理性等方面。基于此,可以从以 下两点来探究人工智能是否具有法律人格,第一 点是理性意识是否能在人工智能身上得到体现, 第二点是人工智能能否遵守法律规定并对法律规 范作出解释。

  1.人工智能理性意识的缺失

  霍姆斯提到的这句话十分值得思考:法律的 生命不在于逻辑,而是在于经验。这句话也令笔 者感触颇深:法律事实上是一种规范体系,在该 规范体系中既包含价值因素也包含着伦理因素。 在这样的规范体系中,自然人是已经预设好的一 种主体类型。理性人的规定也在我国法律中有所 体现,《 中华人民共和国民法典》(以下简称《 民 法典》)将自然人、法人以及非法人组织设定为 民事主体。上述主体的权利能力和行为能力也在 《 民法典》中有着详细的规定。自然人的民事权利 能力自出生时开始,到死亡时终止。要认定自然 人是否具备民事行为能力,要考虑的因素包括年 龄、智力等等。通过以上分析可以得知,我国《 民法典》对民事主体的认定是以理性因素为出发 点的,这种理性可以既可以看作是认知理性的简 化,也可以看作是行为理性的简化。认知理性是 一个透过现象看本质的过程,而行为理性是以认 知理性为基础,在权衡各方面的利弊之后对行为 结果的选择和预测。[3]

  人工智能本身并不具有像人类一样的感情和 欲望。人工智能所具备的“ 理性 ”与数字理性更 加相似,其运行的程序要依靠人类提前设定。具 体来说体现在以下两点:第一,人工智能不具备 认知理性。认识从广义上来说包括识别与感情, 虽然人工智能在很久之前就具备了人类达不到 的认识能力,但是其是否具有感情我们还无从得 知。道德之所以可以鞭策人类,是因为人类拥有 感情。虽然人工智能可能在极端情况下,例如恶 劣天气时表现出一些反常的状态,但这并不是其 基于自我意识与感知而形成的。第二,行为理性 也是人工智能所欠缺的。相反,人类就会根据当 下的情况制定具有针对性的目标,而不会去直接 地制定总目标,而是将整个进程划分为不同的阶 段,并会为每个阶段的目标做出努力。而人工智 能则会在其数据库中进行彻底的搜索来找出最 佳的答案。综上,人工智能的“ 理性 ”完全不同 于人类所具有的理性,其也不适合作为法律关系的主体。

  2.人工智能不具备解释和遵守法律的能力

  著名的“ 机器人三定律 ”是科幻小说家阿西 莫夫提出的,他的主要观点如下:第一,机器人不 得伤害人类,也不能漠视受到伤害的人类,这一 点被称为“ 不伤害定律 ”;第二,机器人必须在不 违反第一定律的基础上依照指令做事;第三,机 器人可以在不违反以上两点定律的前提下尽最大 努力保护自己。除此之外,为了杜绝机器人做出 类似人类之间的“ 自相残杀 ”现象,又在以上三 点定律的基础上增加了“ 第零定律 ”, 即机器人 不得伤害人类整体。因此,人工智能与现行法规 的碰撞值得我们反思,人类也无法期待人工智能 能够完全受到法律的规制,也无法期待其能感知 自己的行为带来的不利后果,当然也无法找到合 理的手段来将其纳入法律主体的范围之内。

  综上所述,人工智能存在的目的就是解放人 类的双手,让其从周而复始的劳动中得到“ 解脱”, 因此人工智能是不可能存在自主意识的。如果人 类可以通过技术手段设定人工智能的程序,使其 具备意识的话,这将会与人工智能最初存在的目 的背道而驰。同样,人工智能也不能像人类一样 拥有社会上的身份与资产,所以,它不具备强大 的物质条件来支撑其成为法律上的主体。因此, 人工智能很难与法律上“ 人 ”的定义相符。

  ( 二)人工智能难以吻合拟制主体法理

  通过上文的分析我们可以得知,人工智能是 无法获得像自然人一样的法律人格的,那么我们 是否可以换一种思路,借助法律机制,通过外部 赋权的方式来赋予人工智能法律人格呢?

  1 .法人是人的集合

  虽然说法人在生理结构与思想观念方面都很 难与自然人相符合,人工智能也是如此。但是法 人是由自然人构成的组织体,其代表人的意志, 决策也是自然人做出的,因此法人在违反法律应 受处罚时,一般是由法人和其主要负责人接受处罚,即我们平时所说的双罚制。对比人工智能 来看,人工智能本身是由算法和计算机程序设定 的,其缺乏自然人的人格来作为事实基础,因此 通过对比法人的运作流程并不能推出人工智能也 具有法律人格。

  2.社会发展需要赋予法人以拟制的人格

  早在古罗马时期,法律就曾对生物学上的人 和人格人做出区分。法人能够成为法律上的主体 得益于其在社会中的地位和价值。法人的价值体 现在法人可以将个人的财产与组织整体的财产相 分离,这样可以降低投资的风险,推动经济的发 展。除此之外还可以节省司法资源,方便诉讼的 进行。人工智能相较于法人来说,不具备以上谈 到的地位和价值。

  三、人工智能的法律定位:特殊物格

  上文中指出“ 否定说 ”居于弱势地位的原因 就是没有合适的法律框架来规制人工智能。笔者 认为,人工智能只是人类行为的延伸,人工智能 本身不可能成为法律意义上的主体,因此可以将 目光转移到客体的范围上来,“ 物格 ”仿佛是一个 不错的选择。

  ( 一)特殊物格的逻辑起点

  物格,从其字面意思来看,指的是物的资格 和标准。在法律层面,物格是相对于人格来说的。 当前我国并没有对物格的概念做出明确的法律规 定,但没有规定不代表不存在。人工智能这类新 兴事物有助于推动着物格理念的出现。一方面, 可以参照以往创设法律人格的过程经验来构建民 法上物格的基本框架,从而形成对物的整体保护; 另一方面,对特殊物格的框架设计为以人工智能 为代表的高科技产物的规制提供了制度的借鉴。 特殊物格并不是一个单独的体系,它始终以开放 的姿态接受着新事物的影响。这代表着即使有突 破传统的新事物的出现,也可以利用现有的法 律制度对其进行规范,避免无法可依的尴尬境地出现。

  按照传统的法学理论,可以将物格分为以下 三类:伦理物格、特殊物格、一般物格。该分类的依据是物格的利益差异。伦理物格是指具有生命 价值的资格,像动植物等都属于伦理物格。一般 物格就代表着传统的民法中的物,民法中的动产 和不动产就属于一般物格的代表。特殊物格是指 法律属性特殊、相应的应该搭配特殊的法律规则 的物的资格。电子货币属于特殊的物格。对物格 进行分类之后 ,就要为它们寻找法律规制途径。

image.png

  ( 二)特殊物格的理论证成

  人工智能产品不是我们日常生活中所说的民 法上的物,它也与人类的思维以及身体构造有着 巨大的差异,因此不能将人工智能简单地看作是 伦理物格或是一般物格。一方面,与人的生命和 人格利益紧密相关的伦理物格是民法客体体系中 最重要的物格,所以对于这种物格的保护力度应 当与自然人相当。但是根据上文的阐述,人工智 能并不具备相应的成为人的物质条件,也没有像人 类一样的认识世界与解释法律规范的能力。这与 伦理物格概括的物的属性完全不一样。另一方面, 物的各类资格中最容易忽视的就是一般物格,传 统的民法理论仅把有体物归为一般物格当中,这 样显然不能适应经济高速发展的需要。由此我们 可以得出结论,如果简单地把人工智能划分到一 般物格的概念当中 ,有点牵强附会的意思了。

  因此,将人工智能归入以上两种物格当中都 是不合理的。从人工智能本身的构造、性能出发, 将其划分到特殊物格的框架之内,以此为标准来 确定它的法律地位、权利义务以及相应的保护方 法,将人工智能归为特殊物格的范畴有着重大的 意义,具体表现为以下几点;第一,将其划分到特 殊物格中,有利于理清人类与人工智能的关系, 我们可以明确人工智能属于物的范畴,属于法律 关系当中客体的概念,我们自然人是法律关系中 的主体,享有权利并承担义务的同时还要承担相 应的法律责任;第二,将人工智能归为特殊物格 的范畴有助于理清保护机制,可以为人工智能提 供不同于人类的特殊保护。除此之外,明确人工 智能的定位有利于人类控制好人工智能的发展进 度,有利于人工智能的设计商、制造商还有使用 者明确各自的义务,当然对于人工智能危害人类 的案件也可以找到相应的责任主体,有助于政府 等管理者对人工智能的管理秩序做出操纵和控 制 ,实现人工智能的有序发展。

  参考文献

  [1]  袁曾.基于功能性视角的人工智能法律人格再审视 [J].上海大学学报(社会科学版),2020,37(1):16-26.

  [2]  倪冰青.当代西方动物权利论研究[D].杭州:浙江 工业大学,2017 .

  [3]  杨立新.论智能机器人的民法地位及其致人损害的 民事责任[J].人工智能法学研究,2018(2):3-20 , 158 .