争鸣 孙良国:人工智能不应成为法律主体 VS 石冠彬:AI成为法律主体不存在理论障碍

发布日期:2024-09-18 21:18

来源类型:澎湃 | 作者:艾琳·理查兹

【澳门金牛版正版资料大全免费】【新澳开奖记录今天结果】【2024年新澳门王中王资料】【管家婆最准一肖一码】【新澳彩开奖结果查询】【新澳资料大全资料】【4949澳门免费资料大全特色】【2024今晚澳门特马开什么号】【2024年澳门正版资料大全】【2O24澳彩管家婆资料传真】
【494949澳门今晚开什么】 【2024新澳免费资料】 【澳门六开彩马会传真资料】


来源:《光明日报》2024年8月16日,第11版。

本文原载于“光明理论”微信公众号。

原刊编者按


今天,人工智能已进入曾经被认为不可能涉足的诸如艺术创作、自动驾驶等领域,并日益展现出超越人类的“智能”。根据是否具有自我意识这一标准,人工智能分为弱人工智能和强人工智能两个发展阶段,目前强人工智能仅存在于理论假设中。但即便是弱人工智能,人类也无法预计其“智能”究竟会达到何种程度。

基于对人与智能机器关系问题的再审视,近年来,学术界围绕“人工智能是否应具有法律主体地位”的争论日益激烈。总体看,可分为“肯定说”与“否定说”两种立场。前者主张人工智能可以享有有限的法律人格,应当承担一定的道德义务;后者主张人工智能只能作为法律客体出现、永远只能作为人类的工具。本期“学术争鸣”,邀请两位学者分别从不同角度对此问题提出自己的看法,欢迎广大读者踊跃参与。

1

人工智能不应成为法律主体


文 | 孙良国

大连海事大学法学院教授


人工智能的治理是一项复杂的系统工程,也是人类面对的核心问题之一。我国人工智能的发展要引领世界,就必须设计能够支撑人工智能可持续发展的治理机制。其中,法律作为治国之重器,应当在人工智能的治理中发挥重要作用。在人工智能的法律治理中,一个重要议题是,人工智能是否应当成为法律主体。在世界范围内,此问题引起了巨大的学术争论和社会争议,不同甚或对立的观点不断登场,远未达成共识。笔者的观点是,人工智能不应当成为法律主体。

  从实证法的角度看,立法机关可以通过法律认可任何组织、实体或者其他事物作为法律主体。任何突破传统法律制度的新制度,都必须是经过价值判断后的恰当结果。人工智能是否应当成为法律主体,取决于如下价值判断:既能够促进人工智能的发展,同时也能够消除人工智能的不当风险。技术变革往往会伴随风险,但只要风险可控且不会对人类价值产生不可接受的影响,那么法律就应采取最优措施来抑制风险。考虑当下功用,兼顾长远影响,总体来看,维持目前法律制度,不赋予人工智能以法律主体地位,是人工智能法律治理的最优解。


人工智能的发展

并不需要其成为法律主体


  人工智能是概括性术语,从机器学习到大规模语言模型等均包括在内。人工智能是否需要成为法律主体,可以从法律主体的历史演进规律获得启示。

  整体而言,法律主体演进的基本规律可概括为从“人可非人”到“非人可人”。即使到近代社会,自然人(公民)之间的权利也是有差别的。只有在现代法治国家,自然人才享有平等的民事权利。不仅如此,法律主体也已经不再限于生物学意义上的人,公司等实体也获得了法律的明确承认,同时附之以股东或者出资人以自己对公司的出资为限承担责任。此种承认促进了现代科学技术和组织形式的跨越式变革,推进了人类的文明进步。尽管部分学者列举或者设想了目前人工智能应当作为法律主体的具体场景,然而经过仔细分析,这些场景都没有显示出人工智能需要作为法律主体的真正客观需求,也没有显示出既有的法律制度(如代理、公司法等)阻碍了人工智能的发展而通过使人工智能成为法律主体会扫清该障碍。

  有学者认为,对社会生活的参与是判断是否设定法律主体的重要因素。这一说法值得商榷。因为参与社会生活的身份有主体和客体之分,人工智能是作为客体如机器、软件、程序或系统而参与的。即使客体很智能,甚至可以在既有技术设计下做出独立判断,但此种独立判断所归责的主体仍旧是设置、控制或使用该机器的主体,所代表的依然是设置、控制或使用该客体的主体的意志。事物很重要与法律赋予其法律主体资格是两个完全不同的问题。例如,对很多人来说,宠物已经成为社会生活的重要部分,其中部分人对宠物的依赖性要远高于其他事物,但这并不能证成宠物成为法律主体。同理,虽然人工智能非常重要,但法律仍然没有使之成为法律主体的内在需求。


从责任能力视角看,人工智能

不能成为法律主体


  在民法上赋予法律主体资格的一个重要条件是责任能力。承担责任意味着,法律主体承受不利的财产负担,而且该法律主体通常应当是最终的责任承担者。责任能力的一个前提条件是,法律主体必须有独立的财产。如果没有独立的财产,那么使人工智能承担责任就没有实质意义。到目前为止甚或是在相当长的未来,我们都很难设想人工智能需要或者能够拥有独立财产。由于这一前提条件并不具备,那么人工智能成为法律主体也就没有必要或者可能。从既有的媒体公开报道的人工智能导致人身或者财产损害的案件中,我们均可以根据既有法律规定找到需要承担责任的主体——开发人、设计者、所有者或使用者等。换言之,既有的法律制度能够解决目前人工智能所引发的人身或财产损害问题。

  进一步说,人工智能成为法律主体甚至有潜在的不可预计的风险。人工智能成为法律主体的一个自然推论是,它能够独立承担责任。由于人工智能的确会导致伤害甚或大规模伤害,如隐私泄露、数据毁坏、人身损害等——到目前为止,即使是专家也很难完全了解大规模模型的内在运行机制,并准确预测未来可能发生的伤害及其规模,而且对如何抑制未来的大模型伤害尚未形成共识。不仅如此,更危险的情形可能是,人工智能会有意或无意生成执行危险行为的能力,甚至“学习掌握”如何影响人类使用者,进而鼓动特定群体以破坏性甚或毁灭式方式行动。此时,人工智能承担责任就意味着开发、设计、运行、使用人工智能的主体将可以逃避法律制裁,这是极不可取的结果,必须予以避免。尽管“刺穿人工智能面纱”制度可以减缓上述不利后果,但是该制度应当有严格的适用要件,不可常规性地使用,否则就有违人工智能作为法律主体的设计初衷。


情感、理性、意志

不证成人工智能成为法律主体


 情感、理性、意志与人工智能的法律主体问题有内在关联。一种观点认为,赋予法律主体的一个传统要素是,其必须能够有情感、理性、意志。尽管人工智能是以深度学习为基础,然而,既有的人工智能大都不存在情感。尽管有些人工智能的技术领导者认为,人工智能很快就向有情感的方向发展。然而,即使有情感,甚或是自主情感,人工智能也不应当成为法律主体。因为相比很多人工智能而言,很多动物已经具有丰富的情感甚至一定的自我意识。尽管动物可以获得某些权利,然而从主导价值观审视,动物依然不能获得和人一样完全相同或者高度相似的法律主体身份。我国民法典也采纳了此种立场。从规范意义上评价,情感、理性、意志并非赋予法律主体的必备要素。与此相关的是,即使人工智能的推理能力已经超过了人类,也无法证成赋予其法律主体地位是一种必备或者最优的解决方案。

  在比较法上,的确有一些事物尤其是自然资源被赋予了法律主体资格,如部分国家通过立法赋予了珊瑚礁、河流或机器人以法律主体资格。然而我们发现,这些特殊事物都没有在民事法律中成为法律主体,更没有在民事基础性法律——民法典中成为法律主体。2017年新西兰通过立法赋予了旺格努伊河的法律主体资格,该法是与旺格努伊河毛利人妥协的一部分,是因为毛利人一直认为该河有生命力,该法的通过能够给毛利人带来希望。在特别的法律中赋予其某些特殊利益或者权利,并不能在一般意义上证成其应当成为法律主体。


人工智能不作为法律主体

并不影响人工智能法律制度的变革


  可以预见的是,人工智能已经或者在未来可能会经受伤害。基于人类的价值判断以及现代法治文明,法律制度也不应故步自封,一个可能的预备解决方案是,尽管人工智能不应当成为或者不是法律主体,但是有情感的人工智能机器人或者其他产品未来可能会受到法律的特殊规制,以保护人类对它们的某些情感利益和其他利益。

  人工智能的复杂性也会产生一些现行法很难有效解决的问题。例如,大多数人工智能系统都是诸多开发人、设计者、所有人、经营者、用户之间通过复杂的跨国协议产生的产品,在这一相互独立的关系的国际化网络中,确定某个或者某几个主体来承担责任几乎不可能。不仅如此,基于不透明性以及一些人工智能系统的自我学习性,伤害的风险可能是以一种负责开发的主体所不可预见的方式导致的,确定特定实体来承担责任更是难上加难。这就需要人工智能法律制度的持续变革。更好拥抱人工智能的方式是设定适应性的治理框架,以保护人类的文明成果。人工智能促进人类向好的方向发展,就需要通过多层次制度为基础的有效治理来促使其具有可解释性、可预测性、可信赖性。

2

人工智能成为法律主体不存在理论障碍


文 | 石冠彬

华东师范大学教授


 人工智能,从技术层面而言,特指使计算机程序呈现出人类智能的技术;从客观存在层面而言,泛指能够表现出人类智能的机器设备。一般认为,智能机器人是人工智能的最高级形式,但并不限于人形机器人,电影《流浪地球》中的MOSS、2023年引发全球关注的ChatGPT也属于典型的智能机器人。伴随大数据技术发展,以深度学习和机器学习为基础的传统人工智能技术已经得到飞速发展。在此背景下,学术界就人工智能是否可以成为法律主体的问题展开激烈争论。对此,笔者持肯定观点:不论从哲学、伦理学抑或法学层面来看,人工智能成为法律主体均不存在理论障碍。


哲学的视角


  其一,人工智能成为法律主体与马克思主义哲学对“人”本质的界定并不矛盾。诚然,马克思主义哲学将人的社会属性界定为社会实践活动,而人的主体地位表现为人的社会属性,但这并不意味着不属于社会关系总和的人工智能就不能成为法律主体。因为马克思主义哲学对人的社会属性的界定,是针对自然人而言的,人工智能所能享有的法律人格与自然人并不完全等同——以自然人的社会属性来论证人工智能不能享有法律人格,缺乏说服力。而且,人工智能的程序运算,本身也可视为人类活动的延续与意思表示,认为其不具有人的价值性和实践性的论断,值得商榷。

  其二,人工智能成为法律主体与哲学领域对人主体性要素的认识也不矛盾。人是情感、理性及多种元素的复合体,人的主体性要素在哲学中被定义为基于需要和自我意识形成的价值观念,而人工智能只能模拟人的某些特定的功能,无法模拟真正的人,两者存在本质差别。尽管如此,也不能以人工智能不具备自我意识为由,认定其不能成为法律主体,因为将人工智能的法律人格与自然人等同,并以此否定人工智能成为法律主体的合理性,这一论证逻辑本身就是错误的。从目前学术界的争论来看,肯定论者并未主张要将人工智能完全等同于人类,即使是理论假设中未来可能出现的具有自我意识的强人工智能,也无法与人类等同。特别值得注意的是,哲学层面对人主体性要素的认识,实际上只限于正常人类,对处于发病状态的精神病患者、植物人等无民事行为能力人,要认定其具有心理意识和自我意识、具有法律规范遵从能力的意志性恐难成立,但这并不影响无民事行为能力人的法律人格。


伦理学的视角


 其一,人工智能成为法律主体并不违反伦理道德。诚然,以人为本是最高的伦理原则,但赋予人工智能以法律人格并非不道德,因为赋予人工智能以法律人格并不会影响人的主体地位,不是要将人作为客体对待,所以不存在所谓的伦理困境。或者说,人工智能成为法律主体这一立场,并不存在混淆主体与客体的错误,根本就不会动摇“人是主体”这一定论。而且,法律上的“人”所拥有的主体资格本质上是一种社会人格,彰显的是法律对作为“人”的特定群体所拥有力量和地位的尊重。即使人工智能的这种社会人格是以算法程序、代码规则实现的智能,也可以得到法律的肯定——法律上的“人”本身并非均要求具备生理性特征,其本身与现实社会中的“人”就是两个不同的概念,现代各国民事立法对于法人人格的承认足以证明民事主体理论已经突破伦理人的范畴。

  其二,人工智能成为法律主体也不会贬低人的主体地位。如前所述,赋予人工智能以法律人格,这一立场的根源就是为了更好地服务人类,且并不意味着要将具有人类智能的机器等同于“自然人”,所以不会导致人的主体地位受到贬低。赋予人工智能以特定的法律人格本身就是基于功利主义的考量,是出于人类利益的最大化追求,既不是要将人工智能上升为哲学层面的“人”,也不要求人工智能的智能程度和产品外形等同于自然人,而是源于前述被社会现实所需要的社会人格,这从某种程度上恰恰能凸显人的主体地位。而且,未来立法在价值权衡的基础上,完全可以在肯定人工智能享有法律人格的同时,肯定人类就人工智能本身仍能享有所有权,从而将其作为客体对待。


法学的视角


 其一,人工智能成为法律主体与法律人格理论并不矛盾。法律人格理论发展至今,始终贯彻人类中心主义思维,由此,自然人的内涵、外延均无法涵盖人工智能,法人亦与其背后的自然人密切相关;而且,具有人类智能的机器确实也只是人类活动的结果,其不具有与自然人类似的内在感知、观察、判断、选择等一系列复杂行为所构成的意思能力,也不具有责任主体必备的道德良知、伦理、规矩和习惯,更不具有生命权能。与此同时,由于“技术黑箱”的存在,人类确实尚无法解释相应编码与决策结果之间的因果关系。但上述结论并不意味着赋予人工智能法律人格有违法理,也不意味着混淆了自动化科学中的工具自动化决策与人类主体性之间的区别、混淆了人之主体能力本质与为人所创造工具的工作能力表象之间的区别。因为人工智能的自动化决策,是人类所“投喂”大数据与计算机程序共同合力形成的结果,两者均是人类智性的延续与“放任”,相应结果可被解释为“投喂者”与程序设计者的概括性意思表示。因为所“投喂”的大数据中蕴含的价值理念本身就是自然人特有的智性、心性、灵性的外在体现,而人类创设的程序所产生的数字运算本身,也是基于人类意志所衍生出的意思表示。从这一角度来说,法人本质是自然人的集合体,其所做出的决策是人类的直接意志体现;而人工智能所做决策也与人类意志紧密相关,与现有法律人格理论并不矛盾。

  其二,人工智能成为法律主体与“法律根据人的理性而设”这一法理并不矛盾。否定论者认为,作为利益负担者的人,会因为自身情绪等的影响做出非理性的错误决定,法律也正是因此才有存在的必要;但是人工智能不会出现类似错误,其并不具有价值判断能力和道德感,其所谓的出错也只是“执行算法”中出现的“程序BUG”。笔者认为,上述见解将法律完全视为防止人类犯错的工具,过于片面,比如,法律确认权利归属的功能就与人类会犯错无关。而且,发明人工智能本身就是人类理性的体现,法律调整人工智能产生的相应法律关系,本质上仍然是调整人与人之间的法律关系,仍以人的理性为基础。

 其三,人工智能成为法律主体与民事主体的责任能力理论并不矛盾。否定论者认为,人工智能最终的责任承担者是自然人,故赋予其法律人格纯粹多余。这一见解,显然是错误的:一方面,赋予人工智能法律人格与人工智能能否独立承担责任两者之间并无因果关系,不能以人工智能不能独立承担责任为由否认赋予其法律人格的合理性。从现行法角度来看,个体工商户、合伙企业、个人独资企业均属于法律主体,但其最终责任承担者并非主体本身。另一方面,从实操层面来看,人工智能也并非不能独立承担责任。借鉴法人的注册资本制度,未来立法完全可以在赋予人工智能以法律人格的同时,通过构建强制责任保险制度奠定人工智能独立承担责任的财产基础。

  其四,赋予人工智能法律人格与现有法律制度体系和结构很难说存在严重冲突。一方面,否定论者认为,如果认为人工智能是主体或者具有人格属性,那么就要从根本上改变民法的人与物二分法的基本体系,就要针对人工智能创造出调整现有人与物之外的第三种基本规则来调整人工智能这种存在形式。但是,即使承认人工智能具有相应法律人格,也并不需要否认人类本身对人工智能享有所有权这一事实;换言之,法律在肯定人工智能可以享有民事财产权的同时,并不改变人工智能本身相对于人类而言的客体属性。这一制度构建并不存在体系效应,不会对现有法律制度和结构产生严重影响。另一方面,一国法律体系和结构本身就处于不断完善的过程之中,以保持现有法律制度体系和结构的稳定性为由,否定法律发展的合理性,存在逻辑瑕疵、缺乏因果关系。

  值得注意的是,否定论者还认为,人工智能所引发的问题,完全可以在既有的法律体系中得到解决,没有必要通过将人工智能拟制为法律上的主体来予以应对。客观而言,通过重构版权法理论、侵权法理论,确实能够解决诸如人工智能生成物能否受到版权保护、自动驾驶责任如何承担等问题,但是,这种理论重构本身与肯定人工智能可以成为法律主体一样,都属于解决发展人工智能所带来法律问题的可选方案,不能以前者否认后者的合理性。换言之,未来立法赋予人工智能以特殊法律人格同样也是社会的现实需求,不能因为存在其他解决方案就否认这一可选路径本身的合理性。而且,以有无必要来论证是否可行,本身就存在偷换概念的逻辑问题,两者之间欠缺因果关系。

  综上所述,人工智能成为法律主体并不意味着其就必须与自然人一样,其所能享有的只能是有限人格,即在承认人工智能可以享有财产权、能够作为创作主体的同时,仍应认可其归属于人类这一客体属性。基于特殊的政策考量,在必要的情况下,可以参照公司法人的资本制度,通过出厂设定强制责任保险的方式保障人工智能的责任财产。这一立场尊重了人工智能的发展趋势、符合未来社会的客观需要,具有法理正当性与立法方案的可行性,其本质上是为更好地实现人类利益。

来源:法学学术前沿

申彬彬:

9秒前:即使到近代社会,自然人(公民)之间的权利也是有差别的。

秋乃樱子(郭绮莉):

9秒前:事物很重要与法律赋予其法律主体资格是两个完全不同的问题。

Nakhane:

7秒前:由于人工智能的确会导致伤害甚或大规模伤害,如隐私泄露、数据毁坏、人身损害等——到目前为止,即使是专家也很难完全了解大规模模型的内在运行机制,并准确预测未来可能发生的伤害及其规模,而且对如何抑制未来的大模型伤害尚未形成共识。

哈维尔·阿尔巴拉:

7秒前:责任能力的一个前提条件是,法律主体必须有独立的财产。