
法学前沿
Frontiers of Law
- 主办单位:未來中國國際出版集團有限公司
- ISSN:3079-7101(P)
- ISSN:3080-0684(O)
- 期刊分类:人文社科
- 出版周期:月刊
- 投稿量:0
- 浏览量:518
相关文章
暂无数据
人工智能治理体系构建研究
Research on the Construction of Artificial Intelligence Governance System
一、引言
人工智能通过研究人类智能活动规律,构建具有一定智能的人工系统,使机器能完成诸多以往需人类智力才能胜任的工作,如图像识别、自然语言处理及无人机导航等。它旨在利用计算机软硬件模拟人类智能行为,形成相关基础理论、方法和技术。其发展与人类智能探索和计算机技术进步紧密相连。近年来,人工智能技术的迅猛发展,深刻影响了社会结构、经济活动和法律框架。随着人工智能技术广泛应用,其在带来极大便利的同时,也引发数据隐私泄露、算法偏见和就业替代等社会问题。因此,构建和完善人工智能治理体系是维护社会稳定、促进技术健康发展的关键举措。本文首先对人工智能治理体系的基本概念进行界定,随后系统总结了当前法律框架下人工智能治理模式的核心特征,在此基础上深入剖析近期人工智能治理法律保护模式所展现出的转型趋势,并据此辨析我国人工智能治理体系法律保护领域的发展方向及未来研究的可能路径。
二、人工智能治理体系的基础理论
(一)定义与范畴
人工智能治理体系是一个由国际组织、各国政府(主权行为体)、科技公司、非政府组织等行为体共同构建和实施的协作过程。这一过程的目标,是推动人工智能的和平利用与安全发展,为此各方需携手共进,制定并落实一系列原则、规范、标准、政策、法律及制度。旨在打造敏捷高效的监管机制,使人工智能成为安全可信、风险可控且能惠及人类的新型生产力。其核心在于于“促进”与“约束”间寻求平衡,确保人类在享受人工智能技术红利之际,基本权益亦不受侵犯。人工智能治理体系涵盖政府、企业、科研机构、社会组织及民众等多元主体。我国构建该体系时,应遵循习近平新时代中国特色社会主义思想,尤其是习近平法治思想为指引,以均衡发展与安全为根本准则。立法目的不应局限于风险防控,而应兼顾促进研发应用与规避主要风险。
人工智能治理体系需要融入现有的法律体系,以确保其合法性和有效性。有学者认为,一方面,要通过建构性技术评估和道德物化设计将伦理价值介入生成式人工智能技术发展生命周期;另一方面,进一步加强立法保障,建立完善治理主体,针对数据、算法和生成内容三方面构建起以行政监管为主的多元协同治理框架。为应对人工智能技术所衍生出的诸如数据隐私保护、算法歧视防范、智能系统的责任界定等诸多前所未有的法律挑战,人工智能治理还驱动着全新法律规范与制度设计的出台与落实,从而填补现有法律体系在人工智能领域的空白,为人工智能技术的健康、可持续发展构建坚实的法律基础和制度保障。
(二)理论背景与发展
人工智能治理体系的理论起源与发展历程是一个复杂且不断演进的过程,涉及多个学科领域和关键的历史节点,是计算机科学的一个分支,旨在了解智能的实质,并生产出一种能以人类智能相似的方式做出反应的智能机器。1948年,美国数学家维纳创建了控制论,为从行为模拟角度研究人工智能提供了技术和理论基础。20世纪30年代,数理逻辑的形式化以及智能可计算思想开始构建起计算与智能之间的关联概念,为构建更智能的机器系统提供了知识支持。1950年,英国数学家阿兰·图灵提出“图灵测试”,这一测试成为评估机器智能的关键标准。1956年,在美国达特茅斯大学召开的会议上,“人工智能”术语被正式提出,并确立了其学科地位。然而,由于技术瓶颈和舆论压力,人工智能研究在20世纪50年代末遭遇低谷。尽管整体研究遇挫,但专家系统却在此期间逐渐兴起。专家系统是一种拥有丰富专业知识并能运用这些知识解决特定领域复杂问题的计算机程序。进入21世纪,人工智能在图像识别、语音识别、自然语言处理等多个领域取得了突破性进展。谷歌无人驾驶汽车、AlphaGo围棋程序等标志性成果的出现,充分展示了人工智能在处理复杂任务时的强大能力。目前,越来越多的国家已将人工智能发展纳入国家战略,并制定了相应的发展规划。人工智能技术已广泛渗透至医疗、金融、制造业、教育、交通、农业等多个行业,为这些领域带来了深远变革。有学者指出,有必要构建一个多元主体共同参与的人工智能风险治理体系,并且应设立能够动态灵活适应的人工智能风险治理机制,与此同时,还应搭建一个开放合作的人工智能风险治理平台。
不同法学理论在人工智能治理体系中的应用和贡献是多方面的,这些理论为构建规范、公正、透明的人工智能治理体系提供了重要的理论支撑和实践指导。权利理论强调个人数据的隐私权和保护权。在人工智能治理体系中,这要求严格审查训练数据,防止将现实世界的偏见嵌入到算法中。通过多样化的数据集和算法优化,确保算法决策的公正性和平等性。权利理论要求人工智能系统的决策过程应透明且可解释。在探究新技术给法律体系带来新挑战时,需先验证该问题是否真实存在,并以科学依据为支撑。对于人工智能背景下的个人隐私与算法保护议题,现有法律已有所涉及,或属于早已存在的老问题。而人工智能生成物的著作权保护问题,即其能否被认定为作品并受著作权法保护,才是值得深入研究的新课题。责任理论要求明确人工智能系统在使用过程中的责任归属。在人工智能治理体系中,这要求建立责任追究机制,对人工智能系统造成的任何不当后果进行责任追究。责任理论要求政府加强对人工智能系统的监管和执法力度。在人工智能治理体系中,这要求建立完善的监管体系和执法机制,对人工智能系统的研发、应用和管理进行全程监管。责任理论要求制定人工智能的伦理规范和道德准则。在人工智能治理体系中,这要求建立风险识别机制,对人工智能系统的潜在风险进行识别和分类。同时,通过制定风险缓解策略和控制措施,降低风险对社会的影响。风险管理理论要求持续改进和优化风险管理措施。在人工智能治理体系中,这要求建立风险管理持续改进机制,对风险管理措施进行定期评估和优化。
(三)治理原则与目标
人工智能治理应遵循公正、透明、责任和隐私保护等基本原则。这些原则共同构成了人工智能治理的框架和行动指南,为技术的健康发展和社会稳定提供了重要保障。人工智能治理应遵循的基本原则对于确保技术的健康发展、保护个人权益以及维护社会稳定至关重要。公正原则要求人工智能的发展和应用应遵循公正、公平的原则,避免产生不公平的结果或歧视,确保每个人都有平等的机会和待遇。在我国,关于算力互联互通的研究大多集中于技术规范、标准制定等方面,却对其作为一种法律制度来构建的可能性以及其中的必要性,尚未得到充分的探讨与重视。确保数据获取和处理的公正性,避免在数据收集、清洗、标注等过程中引入偏见或歧视。算法设计应遵循公正原则,确保算法决策过程不带有任何偏见或歧视,以实现公平的结果。透明原则要求人工智能的发展和应用应保持透明和可解释性,让人们了解算法的决策过程和结果,避免产生不透明或不可预测的风险。算法逻辑应公开透明,让人们了解算法的工作原理和决策过程。人工智能的研发和使用应遵循伦理道德原则,尊重人类尊严和权益,避免对人类造成伤害或歧视。隐私保护原则要求人工智能的发展和应用应尊重和保护个人隐私,充分保障个人的知情权和选择权。有学者提出,借助人工智能技术实现社会治理升级,已成为智能时代治理模式转型的必然趋势。我国若想推进国家治理体系和治理能力现代化,就必须借助人工智能技术的力量,以在社会治理领域达成更大进展。
人工智能治理体系的长远目标和短期目标共同构成了推动技术健康发展、保障社会安全与维护公共利益的重要框架。长远目标包括促进技术创新、保障社会安全以及维护公共利益等。人工智能治理体系的长远目标之一是鼓励和支持人工智能技术的持续创新,包括算法优化、模型改进、应用拓展等方面。通过制定有利于技术创新的政策和法规,为人工智能研究和发展提供有力的制度保障。确保人工智能技术的发展能够惠及更广泛的社会群体,避免技术带来的利益分配不均问题。通过制定合理的政策和法规,短期目标包括完善法规体系、提升技术水平、保障数据安全以及促进国际合作等。在人工智能的推动下,产业生态正经历深度变革。把握人工智能如何重塑产业层面的生产力、创新力和竞争力,具有重要意义。针对当前人工智能领域存在的技术难题和瓶颈问题,加强技术攻关和研发力度,推动技术的突破和进步。开展人工智能应用示范项目,通过实践验证技术的可行性和有效性,为技术的广泛应用提供经验和借鉴。
三、人工智能治理体系的完善路径
(一)政策引导
政府在推动人工智能技术健康发展方面扮演着至关重要的角色,政策引导是推动人工智能技术创新和应用的重要手段。政府需要明确人工智能技术的发展目标和方向,包括技术突破、应用领域、产业规模等。例如,我国已出台《新一代人工智能发展规划》,明确了到2020年、2025年和2030年的发展目标。集中资源投入上游基础层企业,解决中高端人工智能产品自主供应能力不足的问题,同时整合国内研发力量,形成具有国际竞争力的人工智能研发源头。有学者建议,应引入风险分层分类管理理念,针对人工智能应用实施分层次、分领域及差异化的监管模式。在立法层面,需构建人工智能协同治理框架,明确地方人民政府在其中的规划编制职能,并可通过智能服务补贴等支持性措施,激发相关主体的积极性。有学者提出:强化知识产权与公共采购等政策工具,着重关注社区及行业协会等政策主体,拓展创新平台并推进建设共享型政策目标,以增强人工智能核心技术的全球竞争力。同时,提升嵌入式风险的识别与防控能力,建立公平合理的利益分配机制,以促进人工智能的健康发展。
具有前瞻性与科学性的政策,往往具备明确的实践导向。对于人工智能领域来说,良好的政策能够转化为强有力的实践引领,促使我国人工智能产业迈向更为先进的发展阶段。从人工智能政策主题的演变历程来看,其确实呈现出一定的动态发展特征。未来,我国的人工智能政策将在持续聚焦智能制造、智能技术创新以及智能化服务等核心主题的同时,也会在智能技术标准的制定、人工智能创新试验区的建设等新兴领域加大推进力度,以促进人工智能的全面发展。
(二)法律规制
目前众多旨在推动和规范人工智能发展的政策文件,已成为该领域治理的核心手段。与此同时,人工智能立法工作正沿分散立法的路径推进。然而,如何实现政策与法律的高效协同以强化治理效能,当下仍存在明显短板。在法律学界,不少学者倡议应迅速在人工智能的各类应用场景中展开立法行动,借助法律手段对人工智能实施有效监管。强化司法从业人员的专业培训与绩效考核,规范人工智能在司法实践中的应用,保障其客观公正性。持续优化司法机关的人工智能系统,为实现人工智能强国目标提供有力支持。
理论上,人工智能政策和法律作为国家治理的两种工具,其共性和互补性为协同治理提供了可能,而法政策学方法论则为这种协同治理提供了具体路径。通过立法和实施机制的有效结合,人工智能政策与法律可以实现协同治理,共同推动人工智能的健康发展和广泛应用。及时应对人工智能领域的各种挑战,既促进相关产业蓬勃发展,又有效管控技术应用风险,同时借助法治力量提升我国在全球人工智能及前沿科技领域的竞争地位,这一进程已刻不容缓。需要引入立法评估机制,确保规范能灵活适应技术迅猛发展和迭代的需求。
(三)伦理规范
通过制定伦理规范可以引导人工智能技术的道德发展,而制定人工智能伦理治理规则的第一步是明确一系列基本的伦理原则,如公正、公平、透明、尊重人权、保护隐私等。这些原则应涵盖人工智能技术应用的各个方面,确保技术的健康发展。在明确伦理原则的基础上,需要建立一套有效的评估机制来检验人工智能系统是否符合这些原则。评估可以从技术层面和社会影响层面两个角度进行,确保人工智能系统在决策和运行过程中不会损害社会伦理。有专家提出,需构建一个以参与式伦理规约为基础的人工智能治理框架,从准则、界限和途径等多维度为人工智能的稳定、公平与透明发展提供解决方案,以直面技术、文化、经济及社会等多领域的伦理风险与挑战。作为一种创新的治理模式,参与式伦理规约凸显了以人为本的价值取向,增强了治理的效能与公正性,促进了多元主体间的权利平衡与责任分担,推动了伦理准则与技术创新的同步发展,为人工智能与人类社会的和谐共存创造了条件。基于此,专家们建议应着手进行立法工作、动态优化人工智能伦理评估体系、强化教育培训、积极参与国际合作,并引入“监管沙盒”机制开展法规试点,以此来有效应对智能社会治理中可能出现的未来风险。一些学者也指出,在关注上述法律及理论规范的基础上,还应将绿色原则纳入考量。具体而言,应当在人工智能治理体系中融入绿色原则,将环境法中强调的“节约资源”和“保护生态环境”等要求,转化为人工智能治理的原则和规则。绿色原则在制度层面的功能主要体现在:与创新发展等其他基本原则相互配合、转化为具体条款,以及作为科技伦理审查的依据。其最终目标是构建一个既能保障技术安全,又能实现绿色环保的高质量科技创新制度体系。以上伦理规范强调人机协作与共生的重要性,要求人工智能被设计为人类的辅助工具而非替代品。这有助于推动人机和谐共生,实现人与机器之间的深度互动和互利共赢,从而实现人工智能治理体系构建的完善。
四、结语
目前人工智能治理体系研究的主要成果和贡献在于,通过全球范围内的合作与交流,推动了人工智能技术和产业的快速发展,同时针对人工智能在法律、安全、就业、道德伦理等方面的问题,提出了一系列治理思路和方案,为全球人工智能的治理范式和路径提供了新思路。例如,中国发布了《生成式人工智能服务管理暂行办法》等法规,为人工智能的监管提供了法律依据;并通过与多个国家建立高层级对话机制,加强了国际合作,共同应对人工智能带来的挑战。然而,现有研究在理论、实践和方法层面仍存在不足和局限性。在理论层面,人工智能的发展仍面临数据瓶颈、泛化瓶颈、能耗瓶颈等理论局限,这些问题限制了人工智能的进一步发展。在实践层面,人工智能系统可能存在数据偏见和歧视、缺乏创造性和直觉、对上下文的理解不足等问题,这可能导致不公平的结果和错误的决策。在方法层面,人工智能的可解释性和可靠性仍需提高,以确保其决策过程的透明度和准确性。此外,人工智能技术的快速发展也带来了新的安全和伦理挑战,需要持续性的、系统性的和协同性的治理努力。因此,未来的人工智能治理体系构建研究需要更加深入地探讨和解决这些问题,以推动人工智能的健康发展,并最大程度地降低其潜在风险。
参考文献:
- [1] 张新宝,魏艳伟.我国人工智能立法基本问题研究[J].法制与社会发展,2024,30(06):5-21.
- [2] 沈芳君.生成式人工智能的风险与治理——兼论如何打破“科林格里奇困境”[J].浙江大学学报(人文社会科学版),2024,54(06):73-91.
- [3] 别应龙.Cybernetics应该翻译成什么?——基于维纳著作在中国翻译、传播的移时考察[J].自然辩证法研究,2023,39(03):33-38.
- [4] 侯利文,李亚璇.人工智能发展限度与社会可能[J].科技进步与对策,2021,38(09):9-15.
- [5] 张涛.人工智能治理中“基于风险的方法”:理论、实践与反思[J].华中科技大学学报(社会科学版),2024,38(02):66-77.
- [6] 王迁.如何研究新技术对法律制度提出的问题?——以研究人工智能对知识产权制度的影响为例[J].东方法学,2019(05):20-27.
- [7] 赵精武,周瑞珏.人工智能治理的算力维度:论算力互联互通[J].郑州大学学报(哲学社会科学版),2024,57(04):47-55 143-144.
- [8] 赵豪.人工智能赋能社会治理的法治路径[J].法律适用,2024(09):148-163.
- [9] 林晓玥,吴冲.人工智能促进新质生产力涌现的路径和机制研究[J].技术经济,2024,43(10):1-13.
- [10] 宋华琳.人工智能立法中的规制结构设计[J].华东政法大学学报,2024,27(05):6-20.
- [11] 宋林飞,潘文翔.中国人工智能政策全面布局抢占先机[J].河海大学学报(哲学社会科学版),2024,26(03):1-14.
- [12] 章小童,李月琳,樊振佳.基于我国10项人工智能规划与政策的内容分析[J].现代情报,2020,40(12):17-26.
- [13] 张涛,马海群.中国人工智能政策主题热点及演进分析[J].现代情报,2021,41(11):150-160.
- [14] 张文显.构建智能社会的法律秩序[J].东方法学,2020(05):4-19.
- [15] 程凡卿.我国司法人工智能建设的问题与应对[J].东方法学,2018(03):119-130.
- [16] 张宇帆.论人工智能政策与法律协同治理[J].东方法学,2024(05):187-200.
- [17] 邓建鹏,马文洁.人工智能“逐案设法”治理模式的优化[J].南京社会科学,2024(06):55-64 75.
- [18] 张成岗,潘璐.参与式伦理规约:人工智能时代的风险挑战及其治理逻辑构建[J].中国科学院院刊,2024,39(11):1860-1870.
- [19] 赵精武.论人工智能治理体系中绿色原则的建构方式[J].法治研究,2024(06):119-129.
