国际期刊投稿平台
登录 | 注册
当前位置: 首页 > 法学前沿 > 工业大模型决策背景下生产事故的法律归责研究
法学前沿

法学前沿

Frontiers of Law

  • 主办单位: 
    未來中國國際出版集團有限公司
  • ISSN: 
    3079-7101(P)
  • ISSN: 
    3080-0684(O)
  • 期刊分类: 
    人文社科
  • 出版周期: 
    月刊
  • 投稿量: 
    0
  • 浏览量: 
    478

相关文章

暂无数据

工业大模型决策背景下生产事故的法律归责研究

A Study on Legal Liability Attribution for Production Accidents in the Context of Industrial Large Model Decision-Making

发布时间:2025-12-01
作者: 管子健 :杭州师范大学沈钧儒法学院 浙江杭州;
摘要: 随着人工智能大模型在工业控制、生产调度等场景的深度应用,其决策机制引发的法律归责问题成为技术治理与法律规制的焦点交集。不同于传统工业控制系统,工业大模型具备人工智能算法黑箱、幻觉等特点,导致侵权归因复杂,同时涉及多元主体,难以直接适用传统责任原则。本文提出构建“模型+场景+主体”的立体化风险矩阵,利用量化风险评价工具开展工业大模型的管控,明确开发者、训练者、调试者、使用者等主体的责任边界,探索技术与法律互补的新型管理架构,为工业领域大模型的合规、高效、安全应用提供理论支撑与制度路径。
Abstract: With the in-depth application of artificial intelligence large models in scenarios such as industrial control and production scheduling, the issue of legal liability attribution arising from their decision-making mechanisms has become a focal intersection of technological governance and legal regulation. Unlike traditional industrial control systems, industrial large models are characterized by AI algorithmic black boxes and hallucinations, which complicate the attribution of infringement. Additionally, involving multiple subjects, they make it difficult to directly apply traditional liability principles. This paper proposes the construction of a three-dimensional risk matrix of "model + scenario + subject", uses quantitative risk assessment tools to manage and control industrial large models, clarifies the liability boundaries of subjects such as developers, trainers, debuggers, and users, and explores a new management framework where technology and law complement each other. It aims to provide theoretical support and institutional paths for the compliant, efficient, and safe application of large models in the industrial field.
关键词: 工业大模型;决策机制;法律归责;风险评价
Keywords: industrial large models; decision-making mechanisms; legal liability attribution; risk assessment

引言

人工智能技术发展日新月异,国内在人工智能芯片、大模型、开源框架、算法优化等领域涌现了一系列重大成果,为实体经济的智能化、数字化转型带来了强劲动力。其中大模型(Large Model)作为生成式人工智能(Generative AI)最新一代的技术形式和重要分支,在近两年的时间里不断发生技术革新和迭代,其发展的速度和成果超乎了人们的认知和想象,不断在交通、医疗、金融、工业等领域掀起新的技术革命,成为新质生产力的重要组成部分。大模型通常是指由人工神经网络构建的、基于庞大训练数据和计算资源形成的具备通用智能能力的人工智能系统。在工业生产、管理、控制过程中,企业通过数据训练与算法推理,将大模型与硬件终端耦合形成一套自动化决策体系,这种部署了大模型的工业控制系统被称为工业大模型(Industrial Large Models, ILMs)。工业大模型作为“第四次工业革命”的通用技术,将成为企业在工业5.0智能化变革进程中的重要支撑力量,其应用浪潮已经显现。2024年12月,工业和信息化部办公厅发布包括昆仑大模型在内的151项人工智能赋能新型工业化典型应用案例。工业和信息化部总工程师在2025年4月国务院新闻办公室发布会上介绍,全国已建成数万家不同等级的智能工厂,这些类型的智能工厂覆盖超过80%的制造业行业大类。然而,人工智能机器人误操作导致医疗事故、自动驾驶汽车故障导致车辆事故等案例不禁引发人们的思考:工业大模型是否真的可靠?当工业大模型决策导致人身伤害或商业损失等生产事故时,如何建立责任认定逻辑?相关主体的责任边界如何划分?随着大模型在工业领域越来越广泛地运用,这些问题已然成为和技术适配同步探索的重点议题。

目前总体来说,现有法律规制体系未能有效应对工业大模型决策的归责问题。本文就工业大模型产业链的技术路径和各类主体进行辨析,厘清主体之间的责任与义务,提出工业大模型生产事故责任分配体系,构建风险评价模型,以期能够对人工智能在工业生产领域的法治化建设提供参考思路。

一、工业大模型决策机制的归责挑战

国家工业信息安全发展研究中心标准所联合联想集团等单位发布的《大模型2.0产业发展报告》指出,工业大模型是一种结合企业使用场景、利用企业自身的知识库,根据需求对通用大模型进行优化调整和知识训练,本地化、定制化或混合方式部署的大模型。不同于传统工业“输入-运算-输出”的简单模式,大模型可以通过预先的数据训练、深度学习,在部署之后将接收的所有信息集中处理,在与既有数据库进行比对的同时,还能自我提升、学习进化,最终可以实现流程优化、分析决策等目的,甚至能够达到预测状态的效果。也正因如此,大模型决策产生后果的法律归责面临着诸多挑战。

(一)侵权归因复杂

黑箱效应。 大模型的神经网络架构导致决策过程难以追溯,形成“黑箱效应”。由于近年来人工智能发展演化速度快,针对如何判断人工智能是否具备可解释性一直难以形成统一判别标准。长期以来可解释性都是制约人工智能应用的主要因素,时至今日问题尚未解决且变得更为棘手。目前,工业大模型仍是“黑箱”,缺乏透明的推理机制。发生事故之后,可观测到的结果可能是设备损坏或是生产停滞,但使用者在追溯事故原因时,无法准确定位究竟是因为决策大模型的算法错误、训练数据异常还是服务器等硬件缺陷导致的事故,因而也就不能向特定主体进行追责。

幻觉。 在工业决策领域,无论是忠实性幻觉(Faithfulness Hallucination)还是事实性幻觉(Factuality Hallucination),都会导致严重的生产事故,造成经济损失甚至人员伤亡。在接收到输入信号后,工业大模型有可能基于训练数据库的矛盾信息或仅仅是为了符合“常规”形式的输出结构而发出错误指令,进而导致生产系统受到影响。在这种决策失误的情况下,往往难以判断究竟是因为训练数据的问题还是部署调试的过程不到位,抑或模型算法本身的缺陷导致幻觉的产生。

(二)主体多元

从前文可以得出,在生产事故的背后,工业大模型将作为“意识主体”承担责任,而现阶段学界普遍认为人工智能本身不能作为侵权主体,因此,这种责任应当追溯至大模型生态链中各个相关的主体。

算法开发者。 严格来说,大模型作为一种软件产品,其算法的设计和编辑人员就是大模型产品的生产者,人工智能算法系统的设计缺陷责任应当由设计者直接向受害者承担。算法开发者如果没有筛选低质量数据就对大模型进行预训练,可能会导致大模型应用过程出现幻觉。通用大模型的开发者不可能完全清楚具体应用场景的使用环境或需求,这也可能导致大模型增加出现逻辑错误和决策偏差的可能性。

数据管理者。 大模型通常需要庞大的数据集进行预训练,工业大模型在部署调试的时候也需要使用行业或企业自身的生产数据进行微调训练。工业生产过程中的各个环节相互交织,数据之间的关联性和复杂性较高,数据结构多样,质量参差不齐。数据管理者需要对这些数据进行收集、清洗和标注,可能出现标注不规范导致模型误判、未履行数据清洗义务导致模型进行错误决策等过错行为。此外,训练数据还可能存在被攻击者篡改、注入错误、误导数据的风险,影响模型的概率分布,进而造成准确性、可信度下降。

部署调试者。 开发者对大模型的预训练存在时效性滞后和真实性偏差的问题。在实际投入使用的时候,调试者可以使用微调(Fine-Tuning)技术、基于人类反馈的强化学习技术(Reinforcement Learning with Human Feedback)等减少大模型输出的偏差。无论是哪种调试方法,调试者一旦未能根据需求对通用大模型进行良好的垂直适配,最终模型的决策也可能会导致生产事故的发生。

使用维护者。 此前有研究认为,群体智能学习型决策在应急管理领域应用时,需要专家群体的二次决策以提高决策效率和决策精准性。然而,工业大模型的应用环节“无人化”是工业5.0阶段的发展趋势,没有了人类的二次介入,大模型将依靠自身的决策输出来指挥整个生产系统,这种情形下,发生的一切后果都将由使用者直接承担。因此,在部署环节,使用者是否履行了针对部署调试者的监管义务,部署以后,维护者究竟应该采取什么样的措施来保障GPU、CPU、内存等硬件设施正常运行,都有可能影响事故发生后其自身所承担责任的种类、范围和程度。

(三)传统归责无法简单适用

1. 过错责任、过错推定责任与无过错责任

有研究认为,对人工智能产品的生产者和使用者应该适用过错推定原则,销售者应该适用过错责任原则,对算法设计者应该适用无过错责任原则。还有学者认为算法设计缺陷所导致的损害应该由设计者、生产者和销售者一起对外承担不真正连带责任,数据提供者则应该适用过错推定责任原则。但是相关研究仅仅从法律适用和司法归责实践的角度进行了论述,未能深入剖析人工智能产品的应用场景与传统产品应用情形的差异。而工业大模型的应用更有其技术新颖性特点和有别于消费场景的特征。

过错责任原则的式微。 《中华人民共和国民法典》(以下简称《民法典》)第一千一百六十五条,行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。在黑箱效应背景下,受害者需要证明开发者存在“设计过错”或部署者存在“操作过失”非常困难,大多数作为受害者而言的工业企业通常缺乏技术能力举证。故而,选择适用过错责任原则虽然不违反现行法律,但无法体现法律的公平价值理念。当然,另一方面,《民法典》第一千一百七十三条指出被侵权人对同一损害的发生或者扩大有过错的,可以减轻侵权人的责任,如果在大模型运行过程中硬件设施出现故障,而使用者未能履行定期检查和及时维护的义务,对造成的损失也应承担一部分责任。

过错推定原则的限制。 《民法典》规定了医疗损害、动物园饲养动物致人损害、建筑物及物件损害等过错推定责任情形,但没有针对产品或服务做出相关规定。通俗理解,过错推定原则是在过错责任的基础上,用于通过法律规定的形式明确行为主体的责任,旨在加强主体的注意义务,具有教育和惩罚性质。工业大模型最终形态可以作为一种产品,其产业链可以作为一种服务,但均不适用于目前法律法规关于过错推定原则的规定。

无过错责任原则的扩张困境。 无过错责任原则又称为严格责任原则,来源于《民法典》第一千二百零二条和《中华人民共和国产品质量法》(以下简称《产品质量法》)第四十一条等关于产品责任的描述。《民法典》第一千二百零二条,因产品存在缺陷造成他人损害的,生产者应当承担侵权责任。大模型的投用需要经过算法设计、数据训练、垂直开发、调试部署等多个环节,每个环节对应的行为主体不尽相同,并没有所谓的最终“整合者”或“制造者”,因而难以直接适用法律法规关于生产者的相关规定。

综上,传统归责原则在工业大模型应用场景下均无法直接匹配适用。

2. 产品与服务责任

关于人工智能侵权究竟应该适用产品责任还是服务责任,现行法律没有明确规定,学界也无统一定论。《产品质量法》第二条规定,产品是指经过加工、制作,用于销售的产品。实际应用层面,本地部署的工业大模型通过开发、售卖、部署等步骤,以一种软件与硬件结合的系统状态存在,符合“产品”的定义。工业企业作为被侵权人,能否可以任意请求生产者(即算法开发者)以外的主体,如数据管理者、部署调试者等作为产品责任的无过错方承担责任,在法律规定中仍不明确。而即便算法开发者、数据管理者、部署调试者等几类主体承担不真正连带责任,由于大模型决策的不可解释性,彼此之间进行追偿也存在现实困难。此外,仍有一种大模型的应用方式,无需使用者本地部署硬件设施,只需要利用开源访问或API(应用编程接口)访问的方式,直接调用大模型服务提供者的算力进行信息处理。这种模式下,大模型直接以“云端”的形式介入企业的生产活动,属于一种服务行为,因而无法直接适用法律关于产品的相关规定。要对工业大模型决策导致的生产事故进行归责,无论对产品责任还是服务责任都不具有统一适用性,也不利于大模型这种新形态生产力的法律规制。

二、国内外立法经验比较与借鉴

在人工智能监管领域,以英国和美国为典型代表的国家采取适度宽松的监管政策,即强调根据不同应用场景和行业,结合不同风险等级,采取分散型监管以确保其匹配性和适应性。2023年3月,英国政府发布了人工智能新监管框架的提案《支持创新的人工智能监管方法》,该文件提倡采取敏捷的、迭代的治理路径以适应人工智能的快速发展。美国同样也采取了类似的监管思路,未对风险专门分级,不将算法解释、算法透明作为规制重点,强调行业监管和行业自律相结合的治理路径。欧盟尝试针对所有人工智能应用建立一个统一的、通用化的监管框架。2024年3月欧洲议会表决通过了《人工智能法》提案,该法采取风险分级管理进路,并将生成式人工智能作为“高风险人工智能系统”。

近年来,我国积极推进人工智能法律规制体系建设。国家新一代人工智能治理专业委员会于2021年9月25日发布《新一代人工智能伦理规范》,明确坚持人类是最终责任主体和利益相关者的责任。2023年7月国家网信办等七部门联合发布《生成式人工智能服务管理暂行办法》。2023年10月18日,国家网信办发布《全球人工智能治理倡议》,提出推动建立风险等级测试评估体系。全国网络安全标准化技术委员会2024年9月发布的《人工智能安全治理框架》中指出,明确模型算法研发者、服务提供者、使用者等相关主体的安全责任。

整体来看,中国在人工智能治理相关领域的立法进程在全球范围处于领先地位,所采取的立法和监管更接近于英美模式,即针对不同人工智能应用分别制定监管规则,倡导敏捷治理原则,从而适应人工智能技术及其应用快速发展迭代的复杂特征。

三、法律归责体系的思考与构建

(一)归责逻辑

人工智能已融入社会生活的方方面面,工业大模型作为工业5.0进程的核心要素,其自主决策导致生产事故的归责原则和方法是亟待解决的核心问题。

笔者认为,工业大模型的应用与推广对我国社会生产力的提升和发展具有重要意义,相关立法既要确保工业生产安全、稳定、高效,又不能一味限制大模型产业链各主体的技术研发积极性,阻碍科技进步。为工业大模型设立法律归责体系的主要目的是规范该种技术手段的市场化应用,让研发企业勇于创新、生产企业敢于落地,推动工业生产高质量转型。理想的人工智能侵权归责思路在于平衡相关主体权益保护、技术创新发展和社会公共利益之间的关系。法律的主要目的在于设立人工智能的安全底线,通过人工智能立法明确具体责任和义务,有助于为企业的合规工作指明方向。因此,规制的侧重点应为风险管理控制性和责任预期控制性,一是建立清晰、可操作的风险评价机制,针对不同工业场景、不同体量模型进行风险辨识,并对照不同主体进行风险等级标注,作为归责体系的前置基础;二是对不同等级、类别主体的责任与义务进行规制,构成归责约束的主要内容,既是对主体行为的正向引导,也是责任划分的法律依据。

(二)构建量化风险评价模型

工业大模型应用场景复杂、主体多元,大模型自身技术原理和投用流程与传统工业产品存在较大差异。有学者认为,“分类分级”式框架在人工智能风险治理场景中存在框架与治理对象结构层面的失配,并指出了根据风险属性和风险内容划分模式的局限性,以及根据风险程度划分模式所带来的分歧和滞后性。也有观点认为,风险分级分类规制是“更好规制议程”(Better Regulation Agenda)的核心逻辑和关键工具,应以人工智能系统特定用途来确定风险分级,实施人工智能应用可以根据功能、性能、应用场景等对人工智能系统分类分级,建立风险等级测试评估体系。

风险分级管控是一种量化的管理手段,关键在于如何构建评价模型,使得风险评价能够覆盖并适用全部的情形。在工业大模型的决策应用场景下,笔者建议可以构建一种风险评价矩阵模型,首先对大模型自身的技术属性所呈现的风险进行分类和分级,其次对照不同类型的工业应用场景区分风险大小,最后针对不同主体明确相应的风险等级。

1. 模型决策风险分级

表1 大模型算法、算力、数据量风险分级表
风险分级 算法(Algorithm) 算力(Computing Power) 数据量(Data)
低风险(Low Risk) 参数规模<10B,基础Transformer架构。 单卡或少量GPU(≤8张A100),训练时间≤7天,推理显存≤24GB。 数据规模≤10亿token,单模态。
中风险(Medium Risk) 10B≤参数规模<100B,优化架构(如多模态融合)。 数十张GPU(8-100张A100),训练时间7天至1个月,推理显存24-80GB。 10亿token<数据规模≤1000亿token,多模态。
高风险(High Risk) 参数规模≥100B,复杂架构(如MoE)。 数百张GPU(≥100张A100),训练时间≥1个月,推理显存≥80GB。 数据规模>1000亿token,多模态。

从风险分级表可以得到不同维度和不同风险等级的九种组合,形成三维风险矩阵图,见图1。

图1 大模型风险矩阵图

为便于表示,将风险矩阵图转换为二维形式,见表2。

表2 大模型风险矩阵表
算力 / 数据 / 算法 LC MC HC
LA L1(LD) L1(LD) L1(LD)
L1(MD) L1(MD) L1(MD)
L1(HD) L1(HD) L2(HD)
MA L1(LD) L2(LD) L2(LD)
L2(MD) L2(MD) L2(MD)
L2(HD) L2(HD) L3(HD)
HA L2(LD) L3(LD) L3(LD)
L3(MD) L3(MD) L4(MD)
L3(HD) L4(HD) L4(HD)

表2中,L1至L4分别代表低风险模型、中风险模型、较高风险模型、高风险模型。通过对大模型三个特征维度的分级评价,大模型风险矩阵表能够清晰明了体现不同技术水平的模型所对应的风险等级,并能够用于对照工业场景的风险分级评价。

当然,以上仅是以人工智能大模型的三个主要影响因素为例进行风险等级的评估,在实际制定矩阵图时,还应考虑数据质量、训练调优策略、效率与成本等其他因素。

2. 工业场景风险矩阵

不同行业和生产环境发生的事故所造成的后果程度不尽相同,生产事故发生之后主要产生的影响是人身伤亡和财产损失。因此,笔者考虑直接按照国务院《生产安全事故报告和调查处理条例》第三条事故等级划分标准,将可能造成一般事故、较大事故、重大事故、特别重大事故的风险场景分别对应一般风险场景(R1)、较大风险场景(R2)、重大风险场景(R3)、特别重大风险场景(R4)。该分类方法可用于和大模型风险等级组合判断多元主体的风险层次。

3. 多元主体风险矩阵

通过对大模型和工业场景的风险评价,分别得出两个风险维度,将两者相互配对,就能对工业大模型多元主体在不同类型大模型和工业场景的应用状态下的风险级别进行评价,从而得出多元主体的风险矩阵,如下表3所示。

表3 工业场景风险矩阵表
场景风险 / 模型风险 R1 R2 R3 R4
L1 S1 S1 S1 S2
L2 S1 S1 S2 S2
L3 S1 S2 S2 S3
L4 S2 S2 S3 S3

上表中,S1至S3分别代表低风险主体、中风险主体、高风险主体。可以看出,低风险模型在低风险场景下的应用,相关主体的风险维持在较低水平;随着模型风险或场景风险的提高,相关主体的风险亦随之提高。

通过对工业大模型自身、工业应用场景和对应的主体进行风险评价和分级,可以量化工业大模型决策机制可能导致的生产事故后果高低,从而能够有针对性地对不同风险级别的主体进行责任和义务的规制。

(三)限定多元主体的责任和义务边界

大模型自身不能成为其决策侵权后承担责任的主体,这已经成为学界的共识。因此,应当由大模型产业链各环节的行为主体来承担责任和履行义务。笔者认为,主要应从两个方面对工业大模型多元主体设定边界。一是归责原则,不同风险等级的主体宜采用不同的归责原则,避免对低风险主体采取过于严苛的归责要求,或是对高风险主体设立过于宽松的归责条件;二是义务描述,为实现法律的指引功能,应当对不同主体的义务进行区分,减轻低风险主体的约束和负担,同时也警醒高风险主体加强自身注意义务。表4是关于不同风险等级下工业大模型多元主体的边界限定条件。

表4 工业大模型多元主体责任义务边界限定表
风险等级 边界限定条件 算法开发者 数据管理者 部署调试者 使用维护者
S1 归责原则 过错推定责任 过错责任 过错推定责任 过错责任
义务描述 基础验证测试,确保鲁棒性 对数据进行清洗和甄别,标签化分类管理 匹配环境兼容性,提供部署手册 完成培训,定期检查,执行检修和升级指令
S2 归责原则 过错推定责任 过错推定责任 过错推定责任 过错责任
义务描述 披露模型缺陷或技术局限,完成压力测试 使用加密技术,开展数据安全评估 实施认证与校验,完成场景峰值负载测试 分析运行日志,建立预警参数阈值
S3 归责原则 无过错责任 过错推定责任 无过错责任 过错推定责任
义务描述 通过第三方安全测试或认证,提供技术文档 建立数据监测和追踪机制,通过第三方安全审计 部署异常检测和应急系统,构建区块链日志 人工复核,开展冲击测试与演练,构建知识库

对上表的结构和内容要做出如下诠释:一是关于归责逻辑,有别于产品质量法律,发生生产事故后,受害者只要有初步证据证明事故是由大模型决策导致,就有权向大模型产业链的任意主体进行追责,即大模型产业链所有主体对外承担不真正连带责任;二是关于责任确定,因为人工智能技术的特殊性,常规质量检验机构或司法机关难以鉴定大模型主体之间内部的责任划分,故有必要设立人工智能仲裁机构,用于专门分析相关案件的技术原因并进行责任分配;三是关于责任程度,相较而言,算法开发者和部署调试者掌握大模型核心技术,占据优势和支配地位,相应在每个风险层级要承担对比其他两个主体更重的责任,而数据管理者和使用维护者因为通常扮演支撑和辅助的角色,整体承担较轻的责任;四是关于义务内容,表中所列义务描述仅为针对不同风险等级主体义务进行的列举,相关主体如未尽到与描述同等程度的义务,仍应承担相关责任。

四、结论

工业大模型是工业生产智能化转型升级的重要抓手,是工业5.0智能制造体系的“灵魂”。大模型强大的自主学习能力和分析决策能力令人叹为观止,然而其黑箱、涌现、幻觉等特性使得人们对其推广和应用不得掉以轻心。本文重点围绕工业大模型的应用现状和技术特点,分析其可能造成的生产事故类型,总结出工业大模型决策存在侵权归因复杂、主体多元、传统归责原则难以直接适用等挑战和困境。本文总结并建立工业大模型决策侵权的归责逻辑,提出通过构建“模型-场景-主体”量化风险矩阵,开展大模型的主体风险评价,对不同风险主体的责任和义务进行边界划分,从而为工业大模型造成生产事故后的责任分析与确定提供工具和依据。在工业智能化进程中,大模型决策的法律归责既是技术治理的“试金石”,也是法治文明的“风向标”。唯有通过技术标准与法律规范的深度协同、企业自治与政府监管的良性互动,才能在创新发展与安全底线间找到动态平衡点,为工业5.0时代筑牢法治基石。

参考文献:

  1. [1] 郭金良. 生成式人工智能服务中“信息错误”的民事责任[J]. 政法论坛, 2025, 43(02):25-35.
  2. [2] 汪庆华, 胡临天. 生成式人工智能责任机制的技术与法律建构[J]. 中国法律评论, 2024(04):114-130.
  3. [3] 陈晨. 人工智能侵权中的责任主体及归责原则[J/OL]. 中外法学, 1-18[2025-05-08]. http://kns.cnki.net/kcms/detail/11.2447.D.20250327.1538.002.html.
  4. [4] 贺栩溪. 人工智能侵权的新兴责任主体研究[J]. 时代法学, 2023, 21(03):11-22.
  5. [5] 曹建峰. 迈向可信AI:ChatGPT类生成式人工智能的治理挑战及应对[J]. 上海政法学院学报(法治论丛), 2023, 38(04):28-42.
  6. [6] 黄锫. 人工智能大模型训练数据的风险类型与法律规制[J]. 政法论丛, 2025(01):23-37.
  7. [7] 王易, 王成良, 邱国栋. 群体智能学习型决策:“大数据+AI”赋能的决策范式演化研究[J]. 中国软科学, 2024(12):35-50.
  8. [8] 朱峻锋, 朱再昱. 人工智能侵权责任研究[J]. 江西科技师范大学学报, 2025(01):41-49.
  9. [9] 郑志峰. 人工智能应用责任的主体识别与归责设计[J]. 法学评论, 2024, 42(04):123-137.
  10. [10] 苏宇. 人工智能法律治理的框架选择:从“分类分级”到“模块组合”[J]. 中国法律评论, 2025(01):63-74.
  11. [11] 刘金瑞. 生成式人工智能大模型的新型风险与规制框架[J]. 行政法学研究, 2024(02):17-32.
  12. [12] 袁曾. 算法应当被解释吗?——人工智能“可控制”的治理向度[J]. 法学论坛, 2025, 40(01):130-142.
  13. [13] 曹建峰. 迈向负责任AI:中国AI治理趋势与展望[J]. 上海师范大学学报(哲学社会科学版), 2023, 52(04):5-15.
  14. [14] 林洹民. 论人工智能立法的基本路径[J]. 中国法学, 2024(05):82-102.
  15. [15] 丁晓东. 人工智能风险的法律规制——以欧盟《人工智能法》为例[J]. 法律科学(西北政法大学学报), 2024, 42(05):3-18.
  16. [16] 高志宏. 回应与超越:生成式人工智能法律规制——以《生成式人工智能服务管理暂行办法》为视角[J]. 社会科学辑刊, 2024(05):121-130.
  17. [17] 刘成杰. 类型化视角下人工智能侵权责任的归结思路[J]. 法律适用, 2025(03):115-130.
  18. [18] 宋华琳. 人工智能立法中的规制结构设计[J]. 华东政法大学学报, 2024, 27(05):6-20.
  19. [19] 张凌寒, 杨建军, 文禹衡, 等. 续章与新篇:中国人工智能法治研究2024年度观察[J]. 法律适用, 2025(03):146-166.
联系我们
人工客服,稿件咨询
投稿
扫码添加微信
客服
置顶