
法学前沿
Frontiers of Law
- 主办单位:未來中國國際出版集團有限公司
- ISSN:3079-7101(P)
- ISSN:3080-0684(O)
- 期刊分类:人文社科
- 出版周期:月刊
- 投稿量:0
- 浏览量:478
相关文章
暂无数据
人工智能独立民事主体地位必要性及路径分析
Analysis on the Necessity and Pathways for AI’s Independent Civil Subject Status
引言
能否赋予人工智能(AI)民事主体资格,已成为数字时代民事法律制度亟待解决的核心命题。随着生成式人工智能向通用人工智能演进,其展现的类人思维理解能力、虚实交互特性及人脑级参数规模,正推动法律界重新审视传统主体资格认定标准。当前学界对此存在三类观点:其一是否定说,以缺乏生物属性、自主意识为由坚持AI工具论,但此观点难以回应技术迭代需求;其二是肯定说,主张前瞻性赋权却忽视主体资格的条件性与阶段性;其三是中间说,虽认识到AI人格的特殊性,但多停留于“产品”或“法律行为”的定性层面。理论争议的焦点在于:AI是否具备理性能力基础,赋权是否符合社会实践需求。
1 赋予人工智能独立民事主体地位的现实需求
随着人工智能技术的迅速发展,赋予人工智能法律主体地位已成为解决其在现实生活中引发的法律问题的迫切需求。AI的自主性日益增强,尤其是在自动驾驶汽车、机器人以及其他智能设备的应用中,这种技术自主决策的能力使得传统法律体系面临空前的挑战。
1.1 制度演进:全球实践与功能主义的价值转向
随着AI技术尤其是机器人技术的发展,许多机器人和AI系统已具备一定的自主性,不仅能执行简单任务,还能在复杂的环境中做出决策。2016年,欧洲议会法律事务委员会发布了关于机器人民事法律规则的报告草案,提出机器人,尤其是具有高度自主性的机器人,应当具备某种形式的法律地位,甚至提出“电子人格”概念。这一提案在2017年通过,并明确指出,最精密的自主机器人应当享有“电子人”地位,并能够承担因其行为所造成的损害责任。
赋予AI法律主体地位的意义不仅仅在于解决其在法律责任上的问题,还体现在AI系统的社会参与性。2017年10月25日,在沙特阿拉伯“未来投资计划”大会上,沙特政府授予“女性”机器人索菲亚公民身份,这一历史性的举措引发了全球范围内关于AI是否应当拥有法律主体地位的广泛讨论。虽然这一举措尚未普遍被接受,但它代表了AI作为技术主体,尤其是在社会生活中的参与可能性。通过赋予AI某种形式的法律地位,可以为其在社会交往、权利义务以及责任承担方面提供明确的法律保障。
随着人工智能技术的不断发展,AI系统已经开始在社会生活中扮演重要角色,传统法律体系难以满足对其责任和权利的规范需求。美国、欧洲及沙特等国家和地区的探索表明,赋予AI一定的法律主体地位,已成为全球立法的趋势。这一举措不仅可以明确AI的法律责任,还能为其在社会中的参与提供法律保障。
1.2 技术迭代:从“算法执行”到“类意识觉醒”
当前关于人工智能民事主体资格的探讨需突破传统意识本体的认知框架。从技术可能性层面观察,尽管学界普遍以缺乏独立意志为由否定人工智能主体资格,但认知科学领域已提出新的理论视角。当代人工智能在语言处理能力上已实现超越性突破,其通过海量数据训练形成的语义理解与生成机制,正构建起独特的“类意识”交互模式。技术伦理学家马克·考克伯格进一步指出,机器人伦理不应受限于传统意识标准,人机互动中表现出的伦理行为特征即可作为构建机器意识体系的实践基础。这种认知范式的转换,为突破生物属性决定论提供了理论突破口。
与此同时,国际社会已开启电子人格制度的实践探索:欧盟通过《机器人民事法律规则》确立电子人格框架,沙特赋予机器人公民身份,日本建立护理机器人特殊户籍制度,这些实践昭示着法律主体资格认定正经历从生物本体向功能效用的价值转向。值得注意的是,人机融合技术的深化发展正在催生新型交互主体性——通过神经接口、脑机融合等技术路径,智能体将有机整合人类意识特质与机器运算效能,形成超越传统主客体二元结构的复合型法律主体。随着通用人工智能深度嵌入社会经济系统,其展现的自主决策能力与民事活动效能已突破工具性范畴,倒逼法律体系构建适配智能时代的责任框架。这种制度演进本质是对技术现实的规范性回应,既需延续法人制度中财产责任独立的核心原则,更需创新建立针对智能体行为特性的归责机制,最终实现技术创新与法律秩序的动态平衡。
1.3 责任困境:黑箱效应与多元归责的立法真空
人工智能技术的自主性与“黑箱”特性导致侵权责任认定陷入多重困境。算法决策过程不透明使得侵权行为因果链条断裂,传统侵权法的因果关系证明规则难以适用。例如,自动驾驶车辆因传感器误判引发事故时,设计缺陷、数据偏差抑或环境干扰等因素相互交织,受害人几乎无法完成初步举证。欧盟虽通过《人工智能法案》提出风险分级框架,将AI划分为禁用、高风险与低风险三类,并建议对高风险AI适用高度危险责任,但我国尚未建立类似的风险评估与备案制度,司法机关在个案中难以精准识别AI风险等级。
在责任主体层面,设计者、生产者、使用者及运营者之间的责任边界模糊。以生成式AI为例,当用户通过提示词生成侵犯著作权的图片时,侵权结果由用户指令、模型训练数据、算法设计三方面共同促成。若严格适用产品责任,要求开发者承担全部赔偿,将过度抑制技术创新;若仅追究使用者责任,则可能因用户赔偿能力不足导致权利人救济落空。广州互联网法院审理的“新创华诉某科技公司案”表明,生成内容若与他人作品构成实质性相似,服务提供者可能因未履行合理注意义务而承担共同侵权责任,但具体义务边界仍待明晰。
现行立法真空加剧了司法裁判的碎片化。我国民法典侵权责任编未将AI侵权纳入特殊责任类型,仅能通过一般过错原则、产品责任或高度危险责任等规则进行类推适用。例如,嵌入AI系统的医疗器械致害可能适用产品责任,而自动驾驶汽车事故则需区分交通事故责任与产品责任。然而,此类规则难以覆盖AI服务的无形性特征——判别式AI(如人脸识别系统)的误判导致人格权侵害时,既不符合物件致害要件,亦无法归入高度危险作业范畴。
综上所述,随着人工智能的日益复杂化和自主性增强,赋予人工智能法律主体地位不仅是技术发展的需求,也是解决人工智能在实践中所带来的法律责任、损害赔偿等问题的现实必要性。这将为未来人工智能的广泛应用奠定法律基础,确保其在社会中承担相应责任,并促进人工智能技术的健康、有序发展。
2 赋予人工智能独立民事主体地位的可行性分析
民事主体与人格密切相关。“人”是指民事权利主体,“格”是指成为这种主体的资格,所谓人格者,民事权利主体资格之称谓。一般认为,意思能力和责任能力是获得民事主体资格的实质要件,而获得法律承认则是成为民事主体的形式要件。法律对民事主体的承认是基于现实需要,根基在于以人的利益为中心的功利主义,生命和伦理并非成为民事主体的必然要求。也就是说,人工智能只需具备意思能力和责任能力,即可获得成为民事主体的资格。
2.1 人工智能可具有意思能力
在探讨人工智能是否具备意思能力时,目前主流观点持否定态度,认为从内在动机与自主意志角度来看,人工智能的行为完全取决于预设的算法以及人类下达的指令,其本质仅是逻辑运算后所产生的输出结果。某些学者认为即便人工智能在一些场景下表现出类似“选择”的行为,例如自动驾驶汽车在避障时所做出的路线选择,这也只是基于数据输入后进行的参数化响应,其背后并无任何价值判断或道德意识的介入。但是把人工智能的产出完全视为预设的算法并不符合机器学习的原理。在计算机中,“经验”一般存在于“数据”中,从数据中产生“模型”(model)的算法。以自然语言处理为例,像ChatGPT这样的语言模型,通过学习大量的文本数据,掌握了语言的模式和规律。当用户输入问题时,它会根据这些规则生成相应的回答,也就是说,并非是所有问题产出都是开发者的预设,虽然这种生成过程是基于算法和概率统计,但从外部表现来看,它是在对输入的信息进行理解和分析后,生成了具有特定含义和目的的表达,类似于民事主体在特定情境下根据自己的思维和判断形成意思表示的过程。
意思能力在法律层面上,指的是民事主体能够理解自己行为的意义和后果,从而独立作出意思表示的能力。该意思表示既可以是本人作出,也可以由他人代为作出。我国学者张志坚提出,如法人对外的意思表示一般是由其法定代表人代为作出,而无民事行为能力的自然人的意思表示可以由其法定代理人作出。意思能力与意志能力有所不同,意志能力即为意识和选择或反思调整的能力,有学者以是否具有意志能力作为能否获得民事主体资格的要件,但这一观点并不妥当。因为无民事行为能力人,比如婴儿、完全不能辨认自己行为的精神病人等,他们都没有意志能力,但他们依然是法律上的民事主体。因此,单纯以缺乏意志能力否定人工智能的意思能力是片面的。
2.2 人工智能可具有责任能力
责任能力,即是否能以自己的财产独立承担责任的能力。人工智能并非生物人,不会主动犯错,更不会有故意犯罪或侵权的动机,由此决定其不宜成为刑法上的主体,但有可能成为民法上的主体,因为没有过错也可以承担民事责任。法人作为法律拟制的主体,其本身并无生物属性和独立意志,但因其具有独立的财产、组织机构等特征,能够以自己的名义独立从事民事活动并承担相应的法律责任。人工智能也可以进行类似的类比。虽然人工智能不具有生物属性,但可以通过赋予其独立的财产等要素,使其具备类似法人的民事主体资格,从而具备承担责任能力的基础。
现代法学中功能主义理论强调,法律主体资格的认定不应仅仅局限于生物属性或传统意识,而应根据主体在社会生活中所发挥的功能和作用来判定。人工智能在当今社会已经在诸多领域发挥着重要的功能,如智能客服在客户服务领域、自动驾驶系统在交通运输领域等。它们能够自主地完成一些任务并对社会产生影响。从功能主义角度看,只要人工智能能够在特定领域发挥类似于自然人或法人的功能,并且其行为会产生法律后果,就可以考虑赋予其类似法人的民事主体地位。
在人工智能广泛应用的当下,侵权责任问题日益复杂。当人工智能造成损害时,如自动驾驶汽车发生事故、人工智能生成的内容侵犯他人著作权等,如果无法明确责任主体,将会导致受害者难以获得有效的赔偿,也不利于维护社会公平正义。赋予人工智能责任能力可以使其作为独立的责任主体,在一定程度上承担赔偿责任,从而更好地解决侵权责任困境。可以规定人工智能先以其独立的财产对侵权损害进行赔偿,不足部分再由其开发者、使用者等根据过错程度进行补充赔偿,这样既能保障受害者的权益,又能合理分配责任。
由上可见,赋予人工智能独立的财产是必要的,也是可行的。因为上述多方主体与人工智能致害或获益具有相关性,通过他们出资、设立赔偿基金以及人工智能自身获取收益等多个渠道,可以保障人工智能的收入来源。
2.3 拟制“电子法人”路径可行
现行法律体系已赋予国家、公司、未成年人等非完全意识体法律主体资格。这说明法律主体资格的认定并不局限于完全意识体,只要在特定领域具有独立的权利能力和行为能力,就可被赋予主体资格。人工智能在特定领域能够自主为意思表示、自负行为后果,因其“擅自”行为背后是多方主体混合意志的体现,可按相应比例在多方主体之间分摊权责,从而实现法人之责任有限与权责分摊的目的,且不危及人类自身安全和主体支配地位。
将人工智能拟制为电子法人,可将开发制造者、购买者及国家应作为法定股东,通过出资比例控制权分配实现风险管控与利益平衡。开发制造者对人工智能的研发、设计和功能实现最为了解,购买者是人工智能的实际使用者,国家则代表着社会公共利益。三者作为法定股东,可以根据各自的出资比例参与人工智能的管理和决策,确保其运行符合各方利益。通过赋予人工智能独立的财产,使其能够以自己的财产对外承担责任。这样可以将人工智能的行为风险与开发制造者、购买者的财产进行隔离,避免因人工智能的行为导致开发制造者或购买者的全部财产受到牵连。同时,独立的财产责任也促使人工智能的运营者合理管理和控制风险,保障其财产的充足性以应对可能的法律责任。
确立电子法人制度的关键在于构建“财产性权利义务闭环”,将人工智能的活动边界严格限定在财产领域。人工智能的权利和义务应与其财产紧密相关,其行为所产生的法律后果也应通过财产来承担。这种制度设计既能保障人工智能在财产领域内充分发挥其功能,又能避免其过度扩张到人类的其他领域,维护人类在智能时代的核心主体地位。
3 结论
人工智能的快速发展引发了一系列现有法律框架难以应对的挑战,无人驾驶汽车的侵权责任归属、人工智能创作成果的收益分配以及人工智能参与交易行为的有效性等问题。鉴于人工智能具备自主性、交互性和深度学习能力,它既不能简单地被视为普通物体,也不能等同于人类主体。实际上,它是一种介于人与物之间的特殊存在,其核心特征更倾向于财产属性而非工具属性。考虑到人工智能在财产层面具有一定的意思能力和责任能力,但并不具备人类的人身性人格,其自主行为往往反映了多个主体的意志。将人工智能拟制为电子法人,能够有效解决与人工智能相关的多方主体责任有限的问题,确保各方主体根据人工智能自主行为所产生的权利、义务和责任进行合理的比例分摊,实现权责的均衡分配。
参考文献:
- [1] 赵博.人工智能法律主体地位探究[J].特区经济,2024(01):53-56.
- [2] 郭少飞.通用人工智能语境下智能法律行为的定位与效力探析[J].东方法学,2023(05):82-93.
- [3] 马克·考科尔伯格.人工智能伦理学[M].周薇薇,陈海霞,译.上海:上海交通大学出版社,2023.
- [4] 刘艳红.生成式人工智能的三大安全风险及法律规制——以ChatGPT为例[J].东方法学,2023(04):29-43.
- [5] 刘练军.人工智能法律主体论的法理反思[J].现代法学,2021,43(04):73-88.
- [6] 李倩倩.欧盟《人工智能法》风险监管体系概览[N].人民法院报,2025-02-07.
- [7] 姚志伟.人工智能生成物著作权侵权的认定及其防范——以全球首例生成式AI服务侵权判决为中心[J].地方立法研究,2024,9(03):1-17.
- [8] 唐林垚.具身伦理下ChatGPT的法律规制及中国路径[J].东方法学,2023(03):34-46.
- [9] 张志坚,王浩阳.关于人工智能法律属性和地位的思考——从ChatGPT说起[J].经济与社会发展,2023,21(06):50-61.
- [10] 冯洁.人工智能体法律主体地位的法理反思[J].东方法学,2019(04):43-54.
- [11] 房绍坤,林广会.人工智能民事主体适格性之辨思[J].苏州大学学报(哲学社会科学版),2018,39(05):64-72+191.
- [12] 张志坚.论人工智能的电子法人地位[J].现代法学,2019,41(05):75-88.
- [13] 杨立新.民事责任在人工智能发展风险管控中的作用[J].法学杂志,2019,40(02):25-35.
- [14] 陈思敏,蔡唱.论人工智能民事主体资格之否定[J].网络安全与数据治理,2024,43(09):71-76+83.
- [15] 孙那.确立人工智能法律主体地位的再思考[J].法学论坛,2024,39(05):112-121.
- [16] 张国威.AI时代人工智能的民事主体资格研究[J].法制博览,2024(06):97-99.
- [17] 王悦.人工智能的法律定位及责任承担[J].法制博览,2024(09):46-48.
- [18] 崔文玉.人工智能商主体地位探析[J].中国政法大学学报,2020(01):87-99+206.
- [19] 张凌寒.生成式人工智能的法律定位与分层治理[J].现代法学,2023,45(04):126-141.
