
法学前沿
Frontiers of Law
- 主办单位:未來中國國際出版集團有限公司
- ISSN:3079-7101(P)
- ISSN:3080-0684(O)
- 期刊分类:人文社科
- 出版周期:月刊
- 投稿量:0
- 浏览量:338
相关文章
暂无数据
面对人工智能的挑战:应用界限及规制对策分析
Facing the Challenges of Artificial Intelligence: Analysis of Application Boundaries and Regulatory Strategies
引言
随着人工智能(AI)技术的迅猛发展,其在医疗、金融、交通、教育等领域的应用日益广泛,深刻改变了人类的生活方式和社会结构。然而,人工智能的快速发展也带来了诸多问题与挑战,尤其是在技术应用与法律规范之间存在的矛盾日益凸显。一方面,人工智能技术的广泛应用为社会经济发展带来了巨大机遇,如提高生产效率、优化资源配置、提升服务质量等;另一方面,人工智能技术的使用也引发了隐私泄露、数据安全、就业流失、伦理争议等一系列问题,甚至可能导致社会不平等加剧、伦理价值观受到冲击。现有的法律体系在很大程度上是针对传统社会关系和技术环境而制定的,无法完全适应人工智能技术带来的新型问题。在数据使用、算法歧视、智能系统责任归属等方面,现行法律框架的不足性和碎片化特性逐渐暴露出来。因此,如何在法律层面应对人工智能技术带来的挑战,建设一个既能促进技术创新又能最大限度减少负面影响的法律体系,已成为国际社会关注的焦点。本文将从人工智能技术应用中的实际问题出发,分析其对人类和法律体系的冲击,并探讨相应的法律措施,以期为构建适应人工智能时代的法律框架提供参考。
一、人工智能发展现状
(一)人工智能发展历程
人工智能(Artificial Intelligence,AI)概念的提出最早可以追溯到20世纪40年代,英国数学家艾伦·图灵提出著名的“图灵测试”,即如果一个机器的行为无法与人类区分,那么可以认为该机器具有智能,这一测试成为衡量人工智能的重要标准。1956年,美国达特茅斯学院召开了一次学术会议,这是人工智能领域首次系统性探讨的会议。会议中,约翰·麦卡锡首次提出“人工智能(Artificial Intelligence)”一词,并提出了“通用人工智能”的概念。20世纪50年代,机器学习的概念开始涌现。20世纪70年代至21世纪初,人工智能进入了一个缓慢但稳定的发展阶段。1997年,IBM的超级计算机“深蓝”(Deep Blue)击败了国际象棋世界冠军卡斯帕罗夫(Garry Kasparov),这是专用人工智能的一个里程碑事件,标志着人工智能在特定复杂任务上的突破。2011年,谷歌推出了语音识别系统(Google Voice Search),使语音识别技术真正进入大众生活。其后,人工智能技术进入了一个高速发展阶段,2016年,谷歌的AlphaGo战胜了世界围棋冠军李世石(Lee Sedol),这一事件标志着人工智能在复杂战略游戏中的通用性和超越性。尤其是近几年,生成式人工智能崛起(如GPT-3、DALL-E、deepseek等)在自然语言生成和图像生成领域取得了显著进展。
(二)人工智能应用现状
人工智能不仅在理论研究上不断深入,更在医疗、金融、交通等众多领域实现了广泛应用,成为推动社会进步和经济发展的关键力量,给人们带来了极大的便利。
在医疗方面,人工智能结合医学影像技术(如MRI、CT扫描)能够快速、准确地识别疾病,深度学习模型在皮肤癌、乳腺癌和糖尿病视网膜病变的早期检测中表现优异,准确率在95%以上,并且人工智能可以通过模拟和预测缩短药物研发周期,有国内药企在2022年利用人工智能技术加速了新型结核病药物的研发,将研发周期缩短了40%。
在金融领域,人工智能被广泛应用于风险管理、智能投顾、欺诈检测和高频交易等场景,中国工商银行(ICBC)利用人工智能技术开发的风险评估系统,准确率超过90%,国内Robo-advisor (机器人理财顾问)平台“理赚”通过用户的财务目标和风险偏好,自动调整投资组合,年均收益率达到8%。
人工智能在交通领域的应用主要集中在自动驾驶、交通管理等方面。例如,百度(Baidu)的自动驾驶平台Apollo在2022年取得了自动驾驶运营牌照,可以在指定路段提供无人驾驶公交服务;北京市交通管理局在2020年部署了基于人工智能的交通管理系统,旨在通过实时数据优化交通流量。
虽然人工智能应用广泛,但技术瓶颈仍然存在。人工智能的发展对算力的需求呈现出指数级增长态势。随着模型规模的不断扩大和应用场景的日益复杂,现有的计算资源已难以满足其发展需求。尽管英伟达等企业不断推出高性能的芯片产品,但算力瓶颈依然存在。而且,在实际应用中,尤其是在医疗、金融等对决策准确性和可解释性要求较高的领域,现有的深度学习模型难以提供直观、易懂的解释,这在一定程度上限制了其在关键领域的广泛应用。同时,数据安全和隐私保护也是不容忽视的问题。随着人工智能应用的广泛普及,大量个人和企业数据被收集和使用。一旦这些数据遭到泄露,将对个人权益和企业利益造成严重损害。近年来,数据泄露事件频发,引发了公众对数据安全的担忧。
虽然人工智能的发展带来了一些问题,但其也对社会也产生了某些积极的影响,例如,自动化和智能化提高了生产效率,降低了成本,促进了经济增长;在AI替代一些重复性高的工作岗位的同时也创造了新的职业机会,如数据科学家、AI工程师等高技能职位,AI还可以辅助劳动者提高工作效率,从而间接增加就业;收入分配差距的扩大也会倒逼劳动者不断学习新的技能以适应新的社会需求;AI技术在智慧城市管理、公共安全增强、政策制定支持等方面,提高了社会治理的效率和精准度,然而,这也带来了新的挑战,比如如何确保AI系统在社会治理中的应用符合法律法规和伦理道德要求,如何保障公民的合法权益等。
二、人工智能应用界限的理论探讨
(一)应用界限的基本理论
人工智能由人创造,自然也就作用于人类,但随着人工智能的发展,其对人类自身价值和主体性地位产生了冲击。人类社会应当是以人为本的,而人工智能则是辅助人更好生活的工具。我国在《全球人工智能治理倡议》中提出,发展人工智能应坚持“以人为本”的理念,其他多份立场文件也有类似的理念。基于数字时代人工智能带来的对人的隐私权、知情权等权利的冲突,人权领域正遭受各种威胁,故研究人工智能的应用界限离不开人权保障。有学者直接以保护基本权利为面向主张人权保障,比如,关注算法决策处理敏感个人信息时在事实和规范层面的特殊性,将个人数据权利分为个人数据人格权(自决权、同意权、修改权、被遗忘权)和个人数据财产权(使用权、收益权、数据可携权)并进行保护;有学者则以人的尊严这一法律概念为面对人权进行探究,比如,人工智能所引发的伦理危机和价值挑战,在本质上是人的尊严危机,人工智能的价值与目标在于福祉和尊严。
如前所述,人工智能的应用应具有“以人为本”的共识,人工智能的本质是辅助人们更好生活的工具,以人为本作为人工智能的价值观原则也得到了国际社会的普遍认同,2018年,欧洲政治战略中心发布的《人工智能时代:确立以人为本的欧洲战略》将其作为战略理念;美国的《人工智能行政命令》强调人工智能不能侵犯人的基本权利;欧盟的《人工智能法》则以人的尊严为底线,人工智能系统应当受到人类适当控制和监督;日本也提出了“以人为本的人工智能社会原则”。
(二)人工智能应用底线:人的尊严
在互联网高速发展的时代,由人工智能的应用引发的数据滥用、算法歧视以及数字鸿沟等问题,不仅侵害了人的隐私权、平等权等基本权利,还对人的尊严产生了冲击,即技术变革会侵犯部分群体的就业权利并牵一发而动全身地影响其他基础人权,进而导致社会分化严重。如果人失去作为人的主导性和主体性,那么人的意义不再,基本权利就无从谈起。
《世界人权宣言》第1条明确规定:“人生来自由,在尊严和权利上一律平等。”该法条将人格尊严置于权利体系的核心地位予以确认,是其他权利(如生命权、自由权)的前提。我国宪法亦规定“中华人民共和国公民的人格尊严不受侵犯。”通过“人格尊严”概念,将尊严纳入宪法保护范畴,使得对现行宪法所保障的任何一项基本权利的侵害,都可以视为对人的尊严的侵犯,人的尊严被置于宪法最高价值的位阶,并且人的尊严作为宪法最高原则在我国具有应然意义上的适用性。人的尊严作为成文宪法的核心,它要求宪法的所有规定都必须以人的尊严为纲,落实人的尊严的各项具体要求。由此可见,人的尊严是基本权利的核心和基础,我国法律通常采取优先保护基本权利的做法,但在确立人工智能应用底线的场景下,法律应当优先人的尊严,故人工智能的应用界限应以保护人的尊严为最低限度。
三、国内人工智能法律规制现状分析
(一)国内人工智能法律规制进展
2017年国务院发布《新一代人工智能发展规划》,提出“三步走”的立法规划;2023年国务院将《人工智能法》列入立法规划;2023年1月施行的《互联网信息服务深度合成管理规定》采用深度合成概念将其规制范围涵盖了人工智能;2023年7月发布的《生成式人工智能服务管理暂行办法》率先建立生成式AI服务备案制度,提出“内容安全边界清单”机制,要求开发者内置违法信息过滤模块;2023年8月发布的《人工智能生成合成内容标识办法》,明确服务提供者需在生成内容中添加显著提示标识;2024年3月发布的《生成式人工智能服务安全基本要求》,明确提出对生成式人工智能服务实行包容审慎和分类分级监管原则;2024年5月,国务院公布当年年度立法工作计划,明确预备提请全国人大常委会审议人工智能法草案。此外,我国的《网络安全法》《数据安全法》《公民个人信息保护法》重点强调的是数据的收集利用要合法,其基本立场是对国家安全和个人信息的保护。一部综合的、具有中国特色的《人工智能法》的出台将备受关注。
(二)现存问题与挑战
虽然人工智能技术的飞速发展,但一系列挑战也接踵而至,这些挑战不仅关乎技术本身的发展,更涉及伦理道德、社会公平、法律秩序等多个层面,对人类社会的稳定与发展构成了潜在威胁。
1.对社会伦理道德产生冲击
举个例子,面部识别系统可能存在对不同人群的识别效果不均的问题,从而在应用层面产生歧视性后果。这种数据偏见不仅违背了公平公正的伦理原则,也可能引发社会矛盾和冲突,影响社会的和谐稳定;AI系统通常需要大量数据进行训练和优化,这些数据可能包含个人隐私信息,一些应用程序可能会在用户不知情的情况下收集用户的个人信息,并将其用于商业目的或泄露给第三方,这不仅侵犯了用户的隐私权,也可能导致用户遭受诈骗、骚扰等不良后果;AI系统也可能被用于恶意攻击,如利用AI技术进行网络诈骗、传播虚假信息等;AI自动化技术的普及可能导致某些职业被替代,进而引发失业和社会不平等问题,早在2017年普华永道就预言,到2030年美国38%的工作都存在被自动化的风险,这不仅会导致大量劳动者失业,还可能加剧社会贫富差距,引发社会不稳定因素。
2.数据安全与隐私保护
经文献梳理,众多学者将人工智能发展高度依赖的海量数据作为分析点,他们认为数据的收集、存储、处理和共享过程中,数据安全与隐私保护问题日益凸显。生成式人工智能的学习能力需要强大的语料库,那么在语料库的输入、运算、存储与输出阶段都可能引发不同程度的数据安全风险,而且,人工智能大模型在训练时有泄露用户信息、敏感数据的风险,大模型在训练时往往都是大规模抓取网络上公开的信息,有研究发现,大模型可能会“记忆”并在特定输入诱导下泄露这些训练数据中的个人信息、敏感数据,包括受版权保护的材料。自智能手机普遍以来,人们在网络上留下的关于个人的信息也愈发增多,其中不乏姓名、电话、住址等个人信息,更包括生物识别、行踪轨迹等敏感高风险数据。以人脸识别技术为例,在公共场所、商业领域等广泛应用,数据泄露风险极大。一旦个人生物特征数据被非法获取和滥用,不仅会侵犯个人隐私,还可能引发诈骗、身份盗用等犯罪行为,对社会秩序造成严重破坏。
3.责任认定复杂
在人工智能系统的全生命周期中,涉及多个主体,包括开发者、使用者、数据提供者、平台运营商等。这些主体在不同情况下都可能与损害结果存在关联,如何合理划分责任是法律界定面临的一大难题。例如,在一个基于人工智能的金融风控系统中,开发者负责设计和开发算法模型,数据提供者提供用于训练模型的数据,使用者(金融机构)根据系统提供的风险评估结果进行贷款审批。如果该系统出现错误,导致金融机构遭受损失,那么责任应该如何划分?是开发者算法设计存在缺陷,还是数据提供者提供的数据不准确,抑或是使用者在使用过程中存在操作不当,现有法律难以给出明确答案。还有,人工智能系统的决策过程往往是一个复杂的黑箱过程,其输出结果与输入数据、算法设计、外部环境等多种因素相关。当人工智能系统引发损害结果时,很难确定具体的因果关系。例如,在基于人工智能的推荐系统中,用户的浏览历史、系统算法、数据偏差等都可能影响推荐结果。如果推荐系统推荐了不恰当的内容导致用户遭受损失,很难判断是算法设计不合理、数据存在偏见,还是其他因素导致,这使得责任认定变得极为复杂。
四、完善人工智能法律规制的对策建议
(一)综合立法:《人工智能法》
当前,我国基本法律中关于人工智能的条款不多、形式分散且位阶较低,于是,一部综合的适合中国国情的《人工智能法》的制定迫在眉睫。由于科技快速发展,人工智能立法面临的不确定性则更多,比如,技术飞速发展给调整对象带来的不确定性、技术产业迭代给调整的社会关系带来的不确定性、技术飞速发展带来的风险种类和程度的高度不可预见性。这就要求我国人工智能立法既需要先进性、前瞻性,又要立足我国本土实践。不同于欧美的制度以及我们的人工智能产业技术与他们有所差异,所以我们在参考欧盟《人工智能法案》的同时必须认识到我国独特的制度环境和本土化特点,既要实现产业发展与技术安全的平衡,又要增强制度的稳定性和可预期性,并在总结既往经验的基础上实现人工智能治理法律制度的体系化。
虽然一部体系完整、结构严谨的《人工智能法》可以为人工智能技术的整体治理提供宏观指导和基本遵循,但再完整的《人工智能法》也无法涵盖人工智能时代涉及人工智能技术、产业以及生活等方方面面的事情,故而还需要有行政法统领各领域的部门法律法规对其加以配合与补充 。
(二)合理划分提供者和使用者义务
《生成式人工智能服务管理暂行办法》中对生成式人工智能技术提供者的义务过高或欠缺合理设定,主要表现为对人工智能技术提供者包括在数据审查、内容标识、网络信息安全、违法内容处置到监督管理等诸多方面要求过高,通过法律对提供者进行义务设定确实可以减少新技术带来的一些不良风险,事前预防确实好过事后救济,但这种义务设定是否适应当前所需仍值得探讨,如果我们既要保障安全又要讲究效率,那么合理设定提供者义务将有助于提高技术提供者的研发热情,加快技术革新。相较于提供者,《生成式人工智能服务管理暂行办法》对生成式人工智能服务的使用者的监管和规范仍然处于较低的程度。根据《互联网信息服务深度合成管理规定》规定,披露的义务承担主体是深度合成的服务提供者,使用者不需要主动承担披露义务,仅有不破坏披露标识的义务。总的来说,现有规定对人工智能技术的提供者设定了较高的义务和承担更多的责任,这种不平衡的义务和责任分配是欠缺合理性的,这也可能不利于人工智能产业带动其他产业发展。故合理设定提供者和使用的义务和责任,对于化解人工智能带来的风险具有一定的保障作用。
(三)规范数据安全
首先应当确保大模型训练数据的来源合法,暂且不论网络用户是否同意将大模型在网上抓取的信息作为其训练数据使用,但至少用户在输入提示词而其中含有个人信息时,应当原则上征求用户的同意或其他合法依据,尽管《生成式人工智能服务管理暂行办法》强调了数据“具有合法来源”,但是,很多大模型默认将用户输入的信息作为训练数据使用。其次就是对数据采取隐私保护技术,例如,匿名化处理,包括数据扰动、数据汇总、数据屏蔽、数据泛化、伪数据生成等;差分隐私(differential privacy)技术,是密码学中的一种手段,旨在提供一种当从统计数据库查询时,最大化数据查询的准确性,同时最大限度减少识别其记录的机会;同态加密技术,基于数学难题的计算复杂性理论的密码学技术,对经过同态加密的数据进行处理得到一个输出,将这一输出进行解密,其结果与用同一方法处理未加密的原始数据得到的输出结果是一样的;联邦学习技术等。最后可以建立国家公共数据资源库,促进数据的整合使用,在法律制度层面保障开源大模型开发者都可以获取数据资源并减少数据泄露风险。
(四)明确各主体的法律责任
人工智能的技术开发者应当对算法歧视造成的风险承担主要责任,笔者认为,人工智能尚不具备独立个体地位,最终责任还是要落到背后的行为人身上。技术开发者作为设计主体,其对算法的编写很难不会带入个人主观意图,而这些概念的输入便会直接或间接影响算法在深度学习中的走向以及功能的实现方式。针对此问题,相关法律可以强制要求技术开发者在算法开发过程中要求:确保AI技术符合现行法律法规及行业标准、采取合理措施防止技术被滥用、及时更新维护技术,修复安全漏洞、提供完整的技术文档和使用说明、对因技术缺陷造成的损害,承担修复和补救责任,并进行充分的测试和审查,来确保算法的公正性,并对算法偏见风险负主要责任。根据《民法典》对侵权责任的分类及归责原则,技术开发者应当对除无法避免的情形之外的人工智能自身缺陷造成的损害承担无过错责任。用户作为人工智能的使用者,也应当要遵守相关的规范以确保合理合法使用,其应当遵守;按规定使用AI技术,不利用技术进行违法或不道德行为、遵守技术提供方的使用协议和指南、不进行逆向工程、不破坏技术运行、及时反馈使用中的问题、对因疏忽或滥用技术造成的损害,承担相应责任。如果是由用户不合理使用或者其他第三人入侵造成的则应当由实际侵权人承担责任。
除此之外,政府监管部门的监管也相当重要。除了制定相关的法规和制度对开发者和使用者进行约束外,监督监测和执法力度也要跟上。在生成式人工智能产品投放市场之前对其算法机制、模型、数据及应用效果等进行定期审查、评估和验证,加之《生成式人工智能服务安全基本要求》明确提出对生成式人工智能服务实行分类分级监管原则,但相关分级分类的具体标准尚未明确,政府等相关部门可以据此划分不同等级类别的监督方案。监管部门还要定期检查合规情况,加大对违规行为的查处力度,根据责任划分,对责任主体进行不同程度的处罚。
五、结论
人工智能技术的发展无疑是人类社会迈向现代化的重要里程碑,其带来的变革既是机遇也是挑战。在享受技术进步带来红利的同时,我们必须直面其应用中存在的法律和伦理问题。就业结构的调整、隐私权的保护、算法歧视的规制、智能系统责任的界定等问题,都是需要法律和政策共同来解决的复杂课题。此外,人工智能技术的跨境性特征要求国际社会加强合作,共同制定全球性规则和标准,以应对技术发展带来的全球性挑战。通过建立健全相应法律法规,完善监管人工智能的法律体系,明确各方主体法律责任,我们有望在最大限度发挥人工智能技术潜力的同时,确保其应用符合人类社会的共同价值观和道德准则。人工智能的未来发展,不仅需要技术的进步,更需要法律的指引。唯有如此,人工智能才能真正成为推动人类文明进步的积极力量。
参考文献:
- [1] 中华人民共和国外交部.中国关于规范人工智能军事应用的立场文件[EB/OL].(2021-12-14)[2025-12-24].https://www.mfa.gov.cn/web/ziliao_674904/zcwj_674915/202112/t20211214_10469511.shtml
- [2] 中华人民共和国外交部.中国关于加强人工智能伦理治理的立场文件[EB/OL].(2022-11-17)[2025-12-24].https://www.mfa.gov.cn/ziliao_674904/zcwj_674915/202211/t20221117_10976728.shtml
- [3] 马长山.数字时代的人权保护境遇及其应对[J].求是学刊,2020,47(04):103-111.
- [4] 陈姿含.人工智能算法决策中的敏感个人信息保护[J].法律科学(西北政法大学学报),2024,42(06):63-75.
- [5] 温昱.个人数据权利体系论纲——兼论《芝麻服务协议》的权利空白[J].甘肃政法学院学报,2019(02):84-96.
- [6] 郑玉双.人工智能与人的尊严的法理建构[J].浙江学刊,2024(06):37-47+235.
- [7] 赵瑜,周江伟.人工智能治理原则的伦理基础:价值立场、价值目标和正义原则[J].浙江社会科学,2023(01):109-118+159-160.
- [8] 黄文婷.人工智能应用的界限及其规制:以保护人的尊严为底线[J].比较法研究,2025(02):32-46.
- [9] 陈殿兵,王伊宁.人工智能法律规制共性的国际比较研究[J].浙江师范大学学报(社会科学版),2025,50(01):95-105.
- [10] 王彬,强蕴慧.生成式人工智能的人权风险及其法律治理[J].人权法学,2024,3(06):58-73+157-158.
- [11] 王勇.宪法学原理与适用[M].北京:法律出版社,2017.
- [12] 赵宏.疫情防控下个人的权利限缩与边界[J].比较法研究,2020(02):11-24.
- [13] 李海平.论人的尊严在我国宪法上的性质定位[J].社会科学,2012(12):101-110.
- [14] 胡玉鸿.“人的尊严”在现代法律中的地位[J].公法研究,2008(00):302-322.
- [15] 钭晓东.论生成式人工智能的数据安全风险及回应型治理[J].东方法学,2023(05):106-116.
- [16] Carlini N, Tramer F, Wallace E,et al. Extracting Training Data from Large Language Models[J].2020.
- [17] 张凌寒.中国需要一部怎样的《人工智能法》?——中国人工智能立法的基本逻辑与制度架构[J].法律科学(西北政法大学学报),2024,42(03):3-17.
- [18] 王彬,强蕴慧.生成式人工智能的人权风险及其法律治理[J].人权法学,2024,3(06):58-73+157-158.
- [19] 徐琳.人工智能推算技术中的平等权问题之探讨[J].法学评论,2019,37(03):152-161.
- [20] 李彤.通用人工智能技术提供者义务的审视与优化[J].东方法学,2023(05):70-81.
- [21] 姚微佳.生成式人工智能风险治理及法律规制研究[J].湖北经济学院学报(人文社会科学版),2024,21(12):98-103.
- [22] 刘金瑞.生成式人工智能大模型的新型风险与规制框架[J].行政法学研究,2024(02):17-32.
- [23] 熊平,朱天清,王晓峰.差分隐私保护及其应用[J].计算机学报,2014,37(01):101-122.
- [24] 梁亚声,汪永益,刘京菊,等.计算机网络安全教程第4版[M].北京:机械工业出版社,2024.
- [25] 昊阳.电商联盟链的安全高效交易模型研究[D].曲阜师范大学,2024.
- [26] 耿佳辉,牟永利,李青,等.联邦学习原理与算法[M].北京:机械工业出版社,2023.
- [27] 王新雷,饶宇锋.开源大模型基础设施化进程中的安全风险与法律治理——以DeepSeek为例[J].湖北经济学院学报,2025,23(02):69-79.
- [28] 王建群.算法侵权的责任主体认定研究[D].上海师范大学,2024.
- [29] 杨建武,罗飞燕.类ChatGPT生成式人工智能的运行机制、法律风险与规制路径[J].行政与法,2024(04):101-115.
