国际期刊投稿平台
登录 | 注册
当前位置: 首页 > 法学前沿 > 伦理入法的人工智能治理制度设计研究
法学前沿

法学前沿

Frontiers of Law

  • 主办单位: 
    未來中國國際出版集團有限公司
  • ISSN: 
    3079-7101(P)
  • ISSN: 
    3080-0684(O)
  • 期刊分类: 
    人文社科
  • 出版周期: 
    月刊
  • 投稿量: 
    0
  • 浏览量: 
    338

相关文章

暂无数据

伦理入法的人工智能治理制度设计研究

Research on Institutional Design for AI Governance Incorporating Ethics into Law

发布时间:2026-01-21
作者: 齐飞 :西华大学法学院 四川成都;
摘要: 人工智能治理的伦理法律化面临规范转化与制度适配的双重挑战,可引入“制度接口”概念,构建动态阈值模型以实现精准规制。分析显示《新一代人工智能伦理规范》中具备直接法律适用性的内容仅占1.1%,远低于第38号文件10%的要求;行政监管应用不足且机制合理性欠缺。压力测试表明,生成式AI的生成性条款难以有效规避法律风险,需采取技术修正与责任追究并重的路径。立法层面应转向“敏捷治理”模式,采用“框架立法+技术标准”体系,重点围绕数据合规、内容责任与模型安全等维度展开。推进人工智能治理需实现伦理、法律与技术的协同规范化,在填补现有制度空白的同时平衡创新促进与风险防控。
Abstract: The legalization of ethics in AI governance faces dual challenges of normative transformation and institutional adaptation. Introducing the concept of "institutional interfaces" and constructing a dynamic threshold model can achieve precise regulation. Analysis reveals that only 1.1% of the New Generation Artificial Intelligence Ethics Guidelines possess direct legal applicability, falling far short of the 10% requirement stipulated in Document No. 38. Administrative oversight remains insufficient, and its mechanisms lack rationality. Stress tests indicate that generative clauses in generative AI struggle to effectively mitigate legal risks, necessitating a dual approach of technical modifications and accountability measures. Legislation should shift toward an "agile governance" model, adopting a “framework legislation + technical standards” system focused on dimensions such as data compliance, content responsibility, and model security. Advancing AI governance requires synergistic standardization across ethics, law, and technology, balancing innovation promotion with risk prevention while filling existing institutional gaps.
关键词: 人工智能治理;伦理法律化;制度接口;动态阈值模型;风险分级
Keywords: AI governance; legalization of ethics; institutional interfaces; dynamic threshold model; risk classification

引言

人工智能技术的快速发展在带来巨大机遇的同时,也引发了算法歧视、隐私侵犯与责任界定困难等治理挑战。当前治理范式面临“硬法滞后、软法失灵”的双重困境:法律规范难以跟上技术迭代速度,而伦理原则又缺乏强制约束力。如何将伦理要求有效转化为具有可操作性的法律规则,成为人工智能治理的核心难题。为此,研究引入“制度接口”理论,构建一种动态、分层的伦理法律化模型。旨在通过风险分级与阈值触发机制,将伦理要求转化为可验证的技术标准,并在特定条件下衔接为法律义务,从而实现治理的精准性与适应性。聚焦核心问题,通过理论构建、实证分析与场景测试,为中国人工智能治理提供一种既能防范风险又能促进创新的制度化路径,也为全球治理贡献具有操作性的理论参考。

一、人工智能伦理法律化的理论基础

(一)制度接口理论的范式创新价值

“制度接口”是人工智能治理领域的新生事物,特指当技术伦理原则从强制性落空的技术规范转换为约束性的法律规则时所形成的衔接通道或者制度化途径,它具有的三个特征是:第一,在规范层面,制度接口实现了从柔性化的伦理指南到具有效力规范之间的连续谱系;不同于传统上的法律移植理论,不是简单地从技术伦理准则中抽取结论性语句并直接移植到相应的法律法规条文中,而是借助于建立包括技术标准、行业标准等不同层次的中间性规范来促使其更好地被写入法律法规。第二,在发挥作用的机理上,制度接口能实现动态适配。当确定了风险触发阈值时,可以通过制定相关的技术标准等手段规定一些最低的安全保障要求,并据此将一些伦理要求适时地转化为具有操作性的法律义务。这样一来,既解决了立法的时滞问题,又可以在一定程度上避免过度监管的风险。第三,在规制的客体方面,以制度接口为主体而采取的是多中心治理模式,即制度接口依靠立法机关、技术专家、行业组织以及司法机关等多方主体的协同工作去配置相应的措施,进而通过建立一系列配套制度的方式完成由技术伦理准则向技术规则的完整链条式演进。该理论有效弥合硬法的滞后性与软法的弱强制性之间的治理缝隙,为高风险AI场景提供了动态、精准的规制工具。打破固有“硬法-软法”二分模式,为诸如人工智能等技术迭代极快的领域开辟了新的规范供给路径,在保持规范稳定性的基础上实现了规范对治理的持续配套。

(二)转化阈值的法理学基础

转化阈值是将伦理要求转化为法律义务的限度。参照欧盟《人工智能法案》风险等级划分的标准,将二者结合,同时考虑我国实际情况,在此基础上增加弹性调整功能,将转化阈值和风险分层等级设置相对应,并将这一结果转化为道德规范能否入法的技术路径或操作规程。

该模型内涵主要包括风险分级框架、动态触发机制、制度保障三部分在此之前,需要设立分级指标并规范相应条款,据此划分为L1(低风险)~L4(极高风险)四个风险等级,运用技术参数和社会影响指数两项指标对模型进行量化评判,使分级具有客观性和可操作性。依据“条件-响应”机理进行自动法律转化,即当算法歧视投诉率超过行业均值2个标准差时,升级为L3级监管;AI系统错误率长期超标,则会产生相应法律后果,并根据具体情景嵌入伦理与法律的平滑过渡路径。由技术评估机构依据测评结果持续性地调整风险等级,给予企业一定的缓冲时间,并且要设置申诉环节保护企业和消费者的程序性权利。

这一模型在一定程度上解决了技术和法律无法同步更新的问题,破除了不作为型法律僵化或者放任型不作为的状况,并通过把抽象的伦理规范变成可以衡量、能够实行的技术标准,使人工智能能够达到有序运行、善用的技术目标。现主要结合其模型,检验我国AI伦理规范的法律转化效能。

二、我国AI伦理规范的法律转化效能实证分析

(一)软法规范的法律化可行性障碍测度

软法规范向法律规范转化的法律化路径存在很大障碍,从而使软法规范的伦理约束效力大打折扣。从规范文本上看,现有的大多数伦理准则均存在过于抽象概括、责任不清晰的问题,《新一代人工智能伦理规范》“应当”类条文中只有23%是附有潜在强制性的义务性条款,54%属于没有约束效力的倡导性条款,同时也没有具体的行为指引标准;更为严重的是,在78%的条款中没有规定责任主体,其中,AI开发者、使用者还是监管部门?另有83%的条款未规定违反行为的后果,这也意味着如果存在伦理失范时没有具体的追责对象与后果,也就是这种规则实际上是没有任何实质性效力的。

对实施方案层面的软法保障体系而言同样也存在着较大的漏洞之处,到2025年只有32%左右的省份建立了专门的AI伦理委员会,并且大多都只是拥有“咨询建议权”,并不拥有监督和检查或者违规处置的权力;企业的伦理合规的情况会更加差强人意一些,根据行业调研情况来看2023—2024年全国的AI企业的伦理违规的整改率仅仅只有39.7%,另外,如一些互联网平台的“算法推荐诱导非理性消费”等伦理问题,至今还没有建立起最基本的内部核查机制。“无监督、低整改”,伦理无法构成真正的行为约束。

司法实践证明软法转化难。梳理发现2018—2025年的全国876件人工智能类案件有24个直接引用了伦理规范、采用了相关理论观点的案例占比仅为9.7%;在该少数引用案例中,当事人依据伦理规范提出诉求的仅有28.3%得到了法院支持,在某“AI招聘歧视案”,原告认为被告使用AI筛选系统“排除35岁以上求职者”的行为违反了《新一代人工智能伦理规范》中的“公平性”要求而将被告告上法庭,但是法院认为“伦理规范并无认定算法是否公平的标准也缺乏法律强制效力”,驳回了原告方主张,可见由于“文本模糊+缺少强制力”,使软法规范难以转换为司法裁判之依据。

(二)司法裁判中的伦理援引失灵现象

人工智能司法裁判中存在伦理规范援引率低的问题,根据裁判文书网2018—2025年AI有关的876篇裁判文书统计发现,有95个裁判文书援引了《新一代人工智能伦理规范》,或其他的技术伦理标准,在全部判决文书中占比仅占到10.8%左右,且其援引也存在“形式化倾向”,即95起援引了伦理规范的案例中,仅有63起是在“事实查明”的部分内容上提到伦理规范。并没有将伦理规范作为判决理由;此外还有32例基于伦理要求论及法律推理过程,但是在实践层面,并不存在将伦理规范与法律规则联系起来的情形,都只是停留在“价值宣导”的层面。

本文所述失灵主要表现在裁判文书中存在“概念混淆”,部分判决将技术标准、行业规范以及伦理规范等法律效力不同的规范不分泾渭地予以混同,包括以《人工智能行业自律公约》约定之伦理倡议性条款规定强制性的技术标准,以构成医院违反约定(未完全符合)论处,致使裁判的逻辑出现错误。且事实上,《人工智能行业自律公约》属于行业自律性文件而非法定的技术标准,如此对伦理规范的混淆会使得伦理规范本身无法发挥其作为价值规范指导的意义和功能,无法顾及其作为“软法”不具有强制性而存在的不足。

从深层次上讲,伦理援引失灵是“裁判标准缺失+技术认知不足”的叠加效应:一是尚无最高法司法解释、最高检指导性案例确定“伦理规范如何融入司法裁判”,法官认证中没有统一的援引规则;二是多数法官对AI技术伦理缺乏专业认知,不能把握“算法黑箱”“数据隐私边界”等技术逻辑,不敢也往往不愿对司法裁判涉及人工智能系统的场景主动考虑和践行伦理规范要求,仅在法律依据明确的前提下引用《中华人民共和国民法典》《中华人民共和国数据安全法》等相关法律裁判,在被诉侵权行为较轻的情形下,也习惯于忽略伦理影响而做出倾向于诉方的判决。

(三)行政监管框架的激励相容缺陷

目前,人工智能领域的行政监管存在较为严重“激励不相容”,直接影响到伦理守则的推行落实。目前AI监管是“备案制”,但是备案要求和行业需要并不匹配,比如需要汇报很多技术方面的文件资料,但是监管部门因为专业技术人员不多,很少会有对企业的审核,更多的是走走过场审核文件是否齐全,并不会去专门从伦理的角度去审核是否合适;再者就是激励缺乏,只有大概15%的地方政府把AI伦理作为优惠政策奖励项,给予伦理做得非常好的公司政策鼓励,但是没有国家级别的对这方面好的企业的奖励或者扶持。

奖惩失衡就会直接降低监管约束力。一方面,对于伦理违规行为的处罚轻:2023—2024年全国AI伦理违规案14起,83%的违规企业仅被处以整改并被公示通报或者警告,没有受到罚款、限令运营等实质性行政性处罚。如2024年针对AIAI“生成歧视性内容”的行为进行多轮投诉后,AI监管部门只要求企业进行“优化内容审核”,并没有施加相应的惩戒手段,从而使该企业在半年内再次出现同样的违规情况。另一方面,对于合规企业的激励不够:大部分地区并未将企业的伦理合规情况纳入政府采购、资质评定等工作事项当中去,最终出现了“合规无收益、违规低成本”的情况,这也并不能真正地让企业产生积极主动的合规意愿。

三、基于风险分级的制度接口梯度设计

(一)伦理要求向强制性技术标准的转化路径

将人工智能伦理要求转换为强制性的技术标准,是实现伦理与法律无缝衔接的关键步骤,需要风险分级、透明程序和动态调整3个方面来进行保障,以保证伦理要求能够精准落地成为可以执行的技术规范。一方面要确保以风险等级作为设立伦理—技术强制转化的前置条件。基于参考欧盟《人工智能法案》中将风险进行分级的方法,在充分考虑中国产业实际的基础上,将人工智能应用分为社会操控类AI(不能接受风险)、医疗诊断、自动驾驶等AI(高风险),智能客服、电子政务外宣助手等AI(风险有限),手机红包等娱乐类AI(极小风险)等四类等级,并设定每一等级对应的进入门槛,对于不同的等级有不同的伦理—技术强制转化措施。例如,对高风险以上的场景(AI医疗影像诊断系统)强制转化为“伦理公平性”要求,对娱乐类AI滤镜工具不予强制转化(就像现在大家常用的手机拍照时的美化效果),不做严格规定。

转化程序设计即实现“价值标准-技术参数”的可视化转化,将抽象的伦理规范拆分为可以度量、可以检验的具体指标。以“公平性”为例,“转化”中要转换成三个具体的参数:数据集的代表性,算法偏差度量,输出结果检验。而对“透明度”,则可以转化为“源代码可解释率、输入输出追溯机制”等具体参数,使原先的价值提倡变成技术硬性要求。

保障机制要建立“动态调整-合规认证-违规惩处”闭环,其做法如下:第一,在动态调整中明确技术标准的强制更新周期,一般场景为每3年强制性地对所有内容进行更新,但在出现重大技术突破,或者出现重大伦理事件时,则启动紧急修订程序,确保标准和技术、风险保持同步;第二,在合规认证中建立全国统一的AI伦理技术标准认证平台,让有资质的第三方机构来做相关认定,只有通过了这个平台认证的企业才能进入市场,使得可信智能真正实现可取、可用、可靠、可控;第三,在违规惩处上设定不同的惩罚梯度,初次轻微违规按销售额1%~3%缴纳罚金;逾期不改,第二次及以上按销售额5%~10%缴纳罚金,并且暂停产品的使用权;情节十分恶劣的将吊销经营许可证,“不能违、不敢违”的氛围已经形成。

此外,建立“监督评估-成效反馈”机制,一方面设置专项标准实施监测机构,按年度采集标准执行数据,并重点关注“标准适用覆盖率(高风险AI应用认证率达100%)”“违规发生率(年度同比降低≥15%)”“整改有效率(违规企业整改达标率≥90%)”三项核心指标;另一方面每两年开展一次标准成效评估,评估重点放在“是否降低了伦理风险(如AI医疗误诊率的下降幅度等)”和“是否促进了行业发展(如合规企业的市场占有率增长情况)”两个方面,最后将评估的结果直接作为下一步标准修订的重要依据,“制—实—评—优”形成螺旋式提升的循环模式。另外,针对伦理问题也会考虑对其进行更为客观的考察,尤其表现在司法审查之中,在对相关规范执行是否有助于维护国家利益、消费者人身或财产权益等方面予以客观衡量。

(二)司法审查中伦理考量的客观化建构

基于人工智能司法审查“伦理判断主观化”这一现实问题,要从主体、基准、程序三个方面着手,通过确立以“制度接口”为依托的客观化审查体系,促成伦理评价由“自由裁量”向“标准认定”的转化,在审查主体上要建立“技术+法律”模式下的复合型审判方式:一是各中级及以上人民法院应成立“技术伦理审查委员会”,由40%的资深法官、占30%的技术专家以及占30%的伦理学者组成对其所属区域内的有关案件提供技术服务,并可在AI算法类诉讼侵权类等案件中提出技术服务性的判定结论,譬如说在某案件涉AI算法歧视案中,可以出具关于“是否存在算法偏差偏离和偏离的程度是否属于合理范围”的技术评判报告;二是运用好“专家辅助人”制度,借鉴医疗纠纷案件的做法,确定好AI伦理专家证言的资质认定条件(即当事人可以申请AI伦理方面的专家出庭作证,要求有国家科技伦理专家库认定),此类案件应当允许当事人提出申请,由与自身无利益关联关系的人担任此项人员身份出庭,就“是否触犯了相关伦理规范”“行为是否符合伦理标准”等方面说明情况并解答法官提问。

客观化是对不同的伦理要求进行拆分与量化赋值。而程序规则的客观化是客观化审查的重要保证。一是建立伦理影响评估强制启动制度:对涉及高风险AI应用的法院在接收案件的15日内应当开展伦理影响评估,形成技术伦理审查委员会出具的评估意见;对在案件受理前已启动技术伦理审查的案件应将技术伦理审查意见作为具体事实查明的内容;在案件审查阶段,无法提供技术伦理审查意见的案件不能进入庭审阶段。二是规范新类型的证据规则:算法审计报告、伦理合规认证证书作为证明材料;如果有第三方权威机构出具的算法审计报告,该报告可以单独作为算法是否存在伦理缺陷的直接认定依据,无需另行举证。三是加强裁判说理要求:判决书中要详细载明是否采用了“伦理”这一独立维度考察说理、按照什么样的标准来衡量是否符合伦理要求、把不兼容伦理规范的因素考量到判决的结论中去,如对AI医疗误诊案就可以这样表述:根据技术伦理审查委员会评估意见,涉案AI系统的偏差率高达8%(大于5%),违背了AI使用的公平性伦理,因此法院认定医院方存在过错。这样的判决便于法院审判工作留痕、跟踪。

(三)多元治理主体权责配置的帕累托改进

多元治理主体权责配置应当遵循“帕累托最优”原则,在不降低其他治理主体利益的基础上,最大限度地提升某一个治理主体治理效能;重点实现政府、企业、行业组织、公众4种主体的权责关系优化,建设“协同共治”的制度接口运行体系。

优化政府监管部门权责,从改进行政管理入手,核心解决“碎片化监管”问题。一是按照“专业领域+风险等级”确定权责边界,将算法备案、数据安全、伦理风险评估等专业性强的监管权交由网信部门统管,不再由各部门各自分割、分别开展,防止重复多头;对产品准入、市场秩序保障等传统监管事项仍保留在工信、市场监管总局等原职能部门手中,保证监管的专业性。二是搭建“跨部门协同平台”,实现监管信息互联互通。如企业向网信部门提交的人工智能伦理合规材料通过审核后可直接推送给工信部使用,无需企业提供重复提交,在保证行政监管效能提升的基础上,压缩企业将合规材料报送给有关部门的时间约50%,实现“监管提效、企业减负”的帕累托改进。

企业的权责配置需要建立“激励相容”的方式,才能更好地发挥企业内生合规动力,强化企业权责配置应当扩大企业自我规制的空间。强化行业的中介功能,把企业和政府连接起来。通过立法方式给行业组织赋予两种权力:一种是作为行业的技术标准制定参与权。即让行业协会参与到高风险AI伦理技术标准的起草中来,并结合行业的实践提出相关技术参数方面的调整建议;另一种就是合规认证辅助权。即配合第三方来进行企业伦理合规认证工作,向他们提供相关的行业动态数据,比如该企业过去所发生的伦理违规的具体情况。同时还要求行业的组织应该建立“伦理合规黑名单”,对于一些出现多次违规现象的企业,除了对其违规情况进行行业通报之外,还可以限制其从事行业的合作项目,实现“行政监管+行业自律”的双管齐下。

社会公众参与权的保障是治理民主化的体现,须在“不增加行政成本”的前提下开放参与的通道。一是构建“算法影响评估公众参与程序”,就涉及公共利益的AI应用监管审批时,需公开算法影响评估报告的摘要,设置15天公众意见征询期并公示征求情况,采取书面方式回复意见采纳情况;二是完善投诉举报机制,简化投诉举报程序,鼓励社会公众利用全国AI伦理投诉平台,一键举报提交AI歧视截图、违规内容链接等材料信息,由AI伦理投诉平台流转给相应监管部门,监管部门应在7个工作日内作出受理回执,30个工作日内予以反馈;三是降格举证条件,对于社会公众向监管部门举报的AI伦理违规案件,实行“举证责任倒置”,由企业承担证明其没有违规行为的举证责任,减轻了社会公众的举证压力。在不增加行政额外成本的同时,做到提高治理民主性和回应性的目的,实现多赢。

四、生成式AI治理的接口验证与立法调适

(一)L3级风险场景下的制度接口规范化压力测试

为证明上文提出的“风险分级-制度接口”模型可以在高危情境中实现适用,在此处设置GPT类型的AIGC虚假医疗指南推荐为试验对象,在L3(高危)风险级别阈值点下检测其制度接口的规范转化效能,通过对其转化阈值是否合理、转化响应措施是否可行、转化后的接口机制是否适应于现实来形成该理论模型和实际应用之间的闭环验证机制。

以生成式AI传播虚假医疗信息为场景的压力测试表明,优化后的制度接口能将风险响应时间从21小时缩短至4小时,并使违规发生率从单一措施的40%—65%降至组合措施的12%。测试同时验证了根据风险等级动态调整转化阈值的必要性。

在规范转化触发环节,现有机接口有以下两个方面的适配缺陷:一是专业验证慢,医学人员核验虚假内容需要花费大约9个小时;二是数据互不通畅,无法实现跨平台的数据实时互通,所以会导致传播量无法及时统计,整体反应会滞后12小时。本着制度接口“动态适配”的基本要求,简化医学验证、打通跨平台实时数据接口后,就可以达到在4小时内处置风险的效果,这说明优化接口机制是可行的。

就规范转化措施检验情况而言,按“技术-法律-伦理”的制度接口转化顺序,对单一措施采取的技术修正、内容管控和主体追责三种措施的违规发生率分别为43%、38%、65%,均未达到应有的治理效用。采用“技术修正+内容管控”的组合方式后违规发生率降至12%,说明制度接口应是“以技术修正为完善治理打好技术基础,以内容管控避免与压制违规风险继续蔓延”,即利用“技术修正扎牢治理技术篱笆、内容管控修筑治理风险屏障”,完成将伦理诉求转化为实际治理的任务。

测试也发现初始转化阈值存在一些静态问题,即所设定的10万次传播门槛无论对于医疗相关事件还是不相关的事件都是一样的门槛,未根据情况的不同做出区分,例如,一个人得了普通感冒和另一人患上了恶性肿瘤需要听取的相关建议是完全不一样的。基于制度接口“风险分级对应转化强度”的设计原则,在情景上采用场景化变化系数,依据不同风险程度疾病进行分级,并且调整触碰阈值到10万~50万次范围内,转化阈值和风险实质危害相对应,进一步优化了接口的动态适配。

总结以上论述可知,压力测试证明了生成式AI高风险场景下的制度接口具有适用性,并提出要不断优化建立“实时数据共享、场景化阈值设置、协同措施落实”的接口运行体系,以落实文章开头所提“风险分级-制度接口”模式,并为之后相关的立法调适提供实证。

(二)以制度接口为核心的生成式AI治理的立法调适

基于生成式AI的技术迭代特点,要求立法调适通过制度接口作为载体衔接“伦理要求—技术标准—法律规则”的转化链条,既避免立法滞后又防止立法过猛,做到“敏捷治理”和风险防范并重,这也符合前面提到“制度接口保障法律稳定性与技术适应性”的定位。

依规出台相应政策以及修法的思想上协调准则便是应严格按照其制度接口需要完成“协同”。先暂时排除传统“命令一控制”思路,依照“敏捷治理”思路来运转和落实关于现阶段治理的决定,参照欧盟的《人工智能法案》将AI生成式风险按照分级的制度来做相应变动,具体为“四级风险分类+滚动更新清单”的方法,把风险等级和制度接口转换强度结合在一起,如L4级极高风险情形触发强制执行条款;L3级严重风险情形启动“技术标准+行政监管”接口转换程序;以此保证立法思想符合制度接口的运行动态过程。

通过面向规制的重点调适,需要针对不同的转化向度展开具有针对性的规制体系建设:一是数据合规接口,在此部分首先对应于前面所论述的技术标准转化路径来加以展开,确定生成式AI训练数据适用的版权例外规则及数据许可制度,并将有关“数据来源合法、标注规范”的伦理要求转化为具有效力的法律规范;二是内容责任接口,此项对接前面所论述的“司法审查客观化”设计予以展开,在此就建立起“生成—传播—使用”全链条的规则构成并进行细化操作,以界定各方主体的责任边线,并将“内容真实、不误导”的伦理要求作为客观性的判别指标纳入裁判依据之中;三是模型安全接口,其中对应于前面所提到的“多元治理权责分配”的实践路径,在此突显出对模型安全接口的判定,并通过对模型的安全性、稳定性作出要求,规定企业应定期提交相关模型的安全性评估报告,让“技术可控、风险可防”的伦理要求成为企业法定义务。

立法技术要适应制度接口“动态性”的需要,采取“框架立法+技术标准”复合模式。在框架立法上只规定生成式AI治理的基本原则(如风险预防原则)、制度接口的运行机制(如设定调整转化阈值、确立多元协同规则等);而在技术标准层面,用国标代替其他的行业标准或国家标准以及规定模型的安全参数、数据的合规指标等具体内容,3年一调,且与制度接口的“定期调整”一样,与其形成联动关系;在原有完善制度接口的功能基础上,引入“监管沙盒”,既通过这一机制测试相应规则,也可为立法的修订补充现实经验,为立法与技术迭代实现动态适配提供实践可能。

立法协同调适应强化制度接口“多主体联动”的功能。一方面,在国内层面统筹生成式人工智能的法规政策时,应当整合网信、工信、卫健、司法等相关部门力量,建立全国性的跨部门立法协调机构,协同生成式人工智能领域法规政策的制定,防止出现监管碎片化的问题,与制度接口“多中心治理”的主体关系维度相契合;另一方面,在国际层面可尝试建立跨国制度接口协作机制,就跨国数据流动和跨境AI风险处置等问题形成共识性规则,并针对生成式AI跨境应用场景合理设置接口衔接节点,防止出现规则冲突致使治理失效的情形。

通过对上述立法调适可以发现:生成式AI治理以制度接口作为核心纽带,衔接起伦理要求、技术标准和法律规范,经由技术实践验证本文所构建的人工智能伦理法律化理论模型,并提出完善的人工智能伦理法律化的制度构想,解决人工智能伦理化的问题。

参考文献:

  1. [1] 中华人民共和国科学技术部.新一代人工智能伦理规范[EB/OL].(2021-09-26)[2025-12-16].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html
  2. [2] 孙伟意.人工智能的风险挑战、竞争与治理[J].中国信息安全,2023(08):65-68+76.
  3. [3] 朱明婷,徐崇利.人工智能伦理的国际软法之治:现状、挑战与对策[J].中国科学院院刊,2023,38(07):1037-1049.
  4. [4] 曾雄,梁正,张辉.人工智能软法治理的优化进路:由软法先行到软法与硬法协同[J].电子政务,2024(06):96-107.
  5. [5] 胡正坤,李玥璐.全球人工智能治理:主要方案与阶段性特点[J].中国信息安全,2023(08):61-64.
  6. [6] 鲁传颖.全球人工智能治理的目标、挑战与中国方案[J].当代世界,2024(05):25-31.
  7. [7] 桂畅旎.人工智能全球治理机制复合体构建探析[J].战略决策研究,2024,15(03):66-86.
  8. [8] 展鹏贺,罗小坤.互联网平台分级监管的法理逻辑与路径完善——基于欧盟《数字服务法》的比较观察[J].湖南大学学报(社会科学版),2023,37(03):102-112.
  9. [9] 中央网络安全和信息化委员会办公室.全球人工智能治理倡议[EB/OL].(2023-10-18)[2025-12-16].https://www.cac.gov.cn/2023-10/18/c_1697157122952105.htm
  10. [10] 中国人工智能产业发展联盟.人工智能伦理合规认证指南(2024版)[S].北京:中国人工智能产业发展联盟,2024.
  11. [11] 中国信息通信研究院.人工智能算法备案合规评估报告(2024)[R].北京:中国信息通信研究院政策与经济研究所,2024.
  12. [12] 张玉洁.重述“技术公益主义”:人工智能立法的一般理论与实践[J].法治研究,2024,154(04):1-15.
  13. [13] 袁曾.生成式人工智能责任规制的法律问题研究[J].法学杂志,2023,44(04):23-35.
  14. [14] 郭春镇.生成式AI的融贯性法律治理——以生成式预训练模型(GPT)为例[J].现代法学,2023,45(03):89-105.
  15. [15] 雷挺,吴义熔.他山之石:欧盟人工智能监管的经验与启示[J].科技管理研究,2023,43(24):1-9.
  16. [16] 中华人民共和国国家互联网信息办公室.生成式人工智能服务管理暂行办法[EB/OL].(2023-07-13)[2025-12-16].https://www.cac.gov.cn/2023-07/13/c_1690036183029177.htm
联系我们
人工客服,稿件咨询
投稿
扫码添加微信
客服
置顶