法理学视角下人工智能法律主体资格的探析论文

2024-02-25 15:33:56 来源: 作者:heting
摘要:随着人工智能在各个领域应用的拟人化、智能化水平不断提高,人工智能是否应该被视 为法律主体已经成为一个亟待解决的法律问题,需要进行更加深入的思考和研究。
摘要:随着人工智能在各个领域应用的拟人化、智能化水平不断提高,人工智能是否应该被视 为法律主体已经成为一个亟待解决的法律问题,需要进行更加深入的思考和研究。本文从法理学 角度出发,对人工智能法律主体资格问题进行法理分析, 旨在为未来进一步探讨人工智能在法律 领域的作用和角色提供有益的思考。
关键词:人工智能; 法律主体; 法理学
伴随着人工智能技术和产业的迅速发展,人 工智能逐渐从工具化向人性化阶段过渡,例如最 近很火的 ChatGPT ,它是一个人工智能聊天机器 人,以对话形式进行交互,打开之后只需在对话 框里输入问题就可以获得答案,可以写代码、做 题、做产品方案甚至可以帮助写文章,这些需要 人类智慧才能产出的成果如今的 ChatGPT 都可以 做到。但是,伴随着人工智能向人性化阶段的过 渡,它必然会带来一系列法律上的问题,要想处 理好这些问题,我们有必要对人工智能的法律地 位展开更深入的思考和分析。
一、人工智能概述
( 一)人工智能的定义
人工智能是指在电脑程序的帮助下,使机器 能够模拟人类智能的一种技术和理论。它是指一 系列通过模拟人类智能过程实现智能化系统的措 施和手段,包括机器学习、自然语言处理、图像 识别、推理等技术。人工智能不仅可以自动完成 各类常规的工作,还能够学习和适应,从而自主 地做出更加智能化的决策和行为,使得机器能够 像人一样思考、判断、分析和处理各种信息。通 过人工智能,可以实现更高效、更精准、更智能 的业务应用,为人类生活、工作和社会带来更大 的价值。
( 二)人工智能的特征
1.工具属性
在最初的时候,人工智能被发明出来,就是 为了满足人类需要的实用工具。人工智能的发展, 是为了更好地为人们提供更多的帮助,从而提高 人们的生活质量。人工智能的研究人员,在研发 和制作智能机器人的时候,会根据一定逻辑和思维方式,用特定的模式算法以及各种技术,让机 器人按照指令执行相应的任务。
2 .智慧属性
人工智能从一开始被创造出来就是以拥有智 能为前提条件,就是为了能够解放人类的双手和 大脑来更好地帮助人类工作以及生活。例如自动 驾驶,它可以把用户送到指定的地点,它可以自 己设定行驶路线,自己调整速度,它可以像人类 一样面对不同的情况做出正确的反应和判断。 人工智能可以对人类的思维过程以及意识进行模 拟 ,具有一定的智慧属性。
(三 )人工智能的分类
1 .弱人工智能
目前的人工智能处于弱人工智能的阶段,其 本质上是一种可以模仿人的行为,可以独立地执 行某些任务的简单智能体,在很多学者看来,弱 人工智能应该被确定为物。弱人工智能虽然可以 进行计算和决策,但是它只是通过指令和程序来 作出相应反应,其不具备独立的意识,做出的行 为都是研发者和设计者的意愿。弱人工智能包括 有智能语音机器人、地图的导航系统等,它主要 是通过研究人员提前编写的程序和指令来完成一 些特定的行为,如果需要决策的事情的发展超出 了预设的程序和指令的范围,那么弱人工智能对 此种情况是无法作出反应的。
2 .强人工智能
与弱人工智能相比,强人工智能被认为是有 自我意识的,拥有独立思考问题并且解决问题的 能力,不能被定义为物或客体。强人工智能不仅 是拥有意识,而且在某些方面,甚至比人类还要 强大。这种人工智能拥有与人类类似的思维方式,可以通过这种类似人类的逻辑来思考问题和解决 问题,并且能够自主学习一些复杂的问题。因此 这个阶段的人工智能的法律地位就会发生很大的 变化,法律制度和规范也需要随之改变。[1]
3 .超人工智能
超人工智能目前还未出现在人们的日常生活 中,可是,在各种电影、小说中,超人工智能却是 随处可见的,它们有着自己的思想、世界观以及 原则,它们的思维方式以及思考问题的效率都是 人脑无法比拟的。由于超人工智能在现实生活中 还未出现,还存在于人们的想象中,因此无法对 其进行确切的定义,不过大多数人都认为,超人 工智能的智力水平要比人类高得多,无论在哪个 方面,它都是凌驾于人类之上的。那么当超人工 智能时代来临的时候,人类或许会面临一场很大 的主体性危机。
二、人工智能对法律主体理论的冲击
( 一 )法律主体资格的内涵
法律主体资格是指在法律上认可的作为能够 享有和行使权利、履行法律义务、承担法律责任 的主体的法律资格。[2]也就是说,法律主体资格 是资格的拥有者可以在法律上享有权利、承担义 务和责任的前提条件。
( 二)人工智能对法律主体理论的冲击
从法学的角度来看,“ 机器人 ”究竟是“ 人 ” 还是“ 机器 ”, 这是一个“ 人 ”与“ 机器 ”的关 系。例如在民法理论体系中,“ 人 ”和“ 物 ”是两 个最重要的基础范畴。主体和客体,人和物是严 格区分的。除了人类以外,不具有精神、意志的生 物属于物,是权利的客体。[3]如果将人工智能看 作人类,并赋予其法律主体资格,那么会很难在 现有的民法理论中得到合理的解释。民法意义上 的人,必须具有独立的人格,这种主体既可以是 具有自然属性的人,也包括法律拟制的人,例如 法人。但是在人工智能时代,这些观点却受到了 越来越多的冲击,一些观点认为可以为一些具有 自主性的人工智能产品赋予拟制人格。
随着人工智能技术的快速发展,越来越多的 智能系统被应用于法律领域,例如,人工智能系 统具有自主学习和判断的能力,能够根据规则和 数据进行行为决策,可以处理各种任务和业务, 并产生一定的法律影响。这些特征使得人工智 能系统具有一定的主体性,也可能具有权利和责 任。法律主体地位问题一直是法学界和各部门法 学研究的重点,而由人工智能引发的一系列法律 问题最终都可以归结为这一问题。人工智能能否享有权利、承担义务及承担责任,以及是否具有 与自然人和法人相似的法律人格,这是传统法律 主体理论面临冲击的直接反映。并且随着人工智 能所能应用的领域逐渐扩大,对于法律主体理论 的冲击就越强烈。[4]
三、人工智能法律主体资格的法理分析
( 一)肯定说
这种观点认为,人工智能应当是具有自身权 利和义务的法律主体。这一观点的合理之处是, 确定人工智能的法律主体地位,就可以将其纳入 法律规范的限制之中,就可以利用法律的手段来 规制人工智能,从而在很大程度上控制人工智能 的行为,维护社会的稳定性。不过其不足之处在 于,它并没有考虑到目前为止,大部分的人工智 能都还处于较弱的状态,只是执行程序的工具而 已,在这种情况下,如果人工智能发生了犯罪或 者侵权,若是肯定其法律主体地位,那么就不能 追究其幕后的自然人的责任。这样的安排,会影 响到法律的稳定 ,影响到法律的权威。
( 二 )否定说
该学说认为,人工智能无法作为法律主体, 其法律主体地位应明确为法律客体。这一观点的 合理性是,目前的人工智能大多数还属于弱人工 智能,只是通过指令和程序来作出相应反应,其 不具备独立的意识,还不能成为法律主体。如果不 加考虑就盲目地肯定人工智能的法律主体资格, 若由于用户或者研发者的操作不当,致使人工智 能做出侵权行为,那么坚持让人工智能承担责任 就显得不合理了。此观点的不足之处在于没有把 握住当前智能化快速发展的大趋势,人工智能技 术和产业发展迅速,现在就否定其法律主体资格 太过仓促,根据现在人工智能的发展趋势,人工 智能通过不断的发展和进化,会逐渐接近于人 类,那时的人工智能已经不再是工具或者应用产 品了 ,可以作为法律主体来对待。
(三)折中说
这种观点认为,人工智能应该具有有限的法 律主体资格,这一观点对肯定说的理论给予了肯 定,并在此前提下指出了其权利的有限性。这一 理论实际上是认为,人工智能的法律主体范围受 到了限制,只有符合条件的、觉醒后具有意识的 人工智能才能成为法律主体。该观点的合理性在 于,人工智能需要被规制,但是现阶段的人工智 能又不具有完整的法律人格要素,而赋予其有限 的法律主体资格可以很好地解决这一问题,只是 让人工智能在特定情况下享受某些权利。这种做法可以用法律对人工智能进行一定的管控,改变 了人工智能处在法律管控之外的现阶段情形。这 种观点的不足之处在于,人工智能是研发和制造 出来的,不同于人类,自然不能享受完全的人格 权。此外,最重要的是,赋予人工智能有限的法 律主体资格意味着需要对其权利义务做出限制或 者设定条件,但是由于现实因素太过复杂,且人 工智能还在不断地发展,对于赋予其有限法律主 体资格的限制和条件无法明确,因此,即使给予 了人工智能有限主体资格,它也不能解决实际问 题 ,没有太大的意义。
四、人工智能法律主体资格的规制
( 一 )审视人的主体性
对人工智能法律主体资格的规制,人类和人 工智能的区别就成了一个很重要的问题。如果只是 从是否具有自主性以及事务处理两个角度来看, 人工智能与人类并没有得到有效的区别。[5]为凸 显人的独特性、维护人的尊严、保障人的主体性, 我们要审视人的主体性,将注意力集中在人独特 性上,也就是在道德层面将人与人工智能区分开 来 ,从而真正建立起独特的主体地位。
虽然人工智能能够做出一些与道德有关的行 为,例如提醒驾驶员系好安全带,但这种动作只 是一种编程,并不是真正的道德判断。相比之下, 对于人来说,道德判断必然是建立在内心意识基 础上的,也就是人对某种行为的对与错有着一种 内心的判断,而不是仅仅建立在观察者视角上的 一种规律性考察。人工智能无法拥有这样的自我 判断力,人类的道德主体性是其无法达到的。正 是由于人类作为道德主体所具有的这一特性,才 需要对其加以重视,以最大限度地发挥人类自身 的独特性,防止人类与人工智能混淆。因此我们 要厘清人类作为现实世界中唯一的道德主体的原 因,从而在理论上为人类的道德主体地位提供依 据 ,进而维护人的主体性。
( 二 )坚持对人工智能的合法性审查
由于人工智能将来发展到何种程度尚未可知, 所以在法律上很难对其进行规范,但是在法律上 也不能忽视它的应用。应该坚持对人工智能进行 合法性审查,这里的合法性审查就是对其是否符 合现有的法律规定进行的审查。我国现行的法律 制度是建立在人的主观能动性基础上的,而有关 的法律法规则是确定了人的主观能动性的界限, 所以,通过对人工智能进行正当性审查,可以最 大限度地防止人工智能对人的挑战或威胁。在对 人工智能的应用进行合法性审查时,需要做到人工智能不能干扰人类的自主决策,也不能直接代 替人类对重要问题的决策。人工智能的应用必须 建立在一个不影响人类主体性的法律框架之内。
(三)加强人工智能伦理建设
人工智能的学习和发展是依据各种数据完成 的,但数据非常庞大且多样,我们无法确保人工 智能在学习过程中不会受到有害信息的影响。而 且随着人工智能的深度学习能力的发展,有时可 能不是人类可以控制得了。这就要求我们加强人 工智能的伦理建设,一方面,人工智能经过高度 学习之后可能拥有自主意识,更甚在未来会开始 出现“ 情感 ”,这会给它带来很大的道德风险, 如果有一天,人类完全失去了对它的掌控,那么 后果将会非常可怕,因此我们要做到对数据进行 优化,对有害信息进行筛选,并在为人工智能设 定程序和算法时,参考人类的道德标准;另一方 面,有必要建立一个伦理审查委员会,对人工智 能研究与开发人员的道德问题和人工智能产品 进行实质审查和伦理审查。同时,需要坚持以人 为本的理念和原则,因为人工智能产生的目的就 是方便人类、服务人类,它的发展也离不开人类 的力量,可以说以人为本是人工智能发展的根本 目的。因此在人工智能发展和应用的整个过程中 要始终坚持以人为中心的理念,以服务人类为目 的。并且在开发和运用人工智能时,也不能对人 类的权益造成损害,特别是对生命、健康等权益 的损害。
五 、结语
人工智能的发展速度越来越快,现在已经完 全深入人们的日常社会生活中,对我们的思维方 式和生活习惯已经产生了很大的影响,引发了一 系列社会问题,解决这些问题的关键是对人工智 能法律主体资格的认识,法律主体地位的问题得 到完善或者解决,才能去解决接下来一系列的法 律问题。
参考文献
[1] 徐昭曦.反思与证立:强人工智能法律主体性审视 [J].中共中央党校(国家行政学院)学报,2019.23 (3):80-88 .
[2] 彭诚信.人工智能的法律主体地位[J].人民法治, 2018(18):98-100 .
[3] 朱艺浩.人工智能法律人格论批判及理性应对[J]. 法学杂志,2020.41(3):132-140 .
[4] 郑戈.人工智能与法律的未来[J].探索与争鸣, 2017(10):78-84 .
[5] 陆幸福.人工智能时代的主体性之忧:法理学如何 回应[J].比较法研究,2022(1):27-38 .
