国际期刊投稿平台
登录 | 注册
当前位置: 首页 > 亚太科研论坛 > 知识、风险与治理:人工智能的全球治理
亚太科研论坛

亚太科研论坛

Asia-Pacific Research Forum

  • 主办单位: 
    未來中國國際出版集團有限公司
  • ISSN: 
    3079-3645(P)
  • ISSN: 
    3079-9945(O)
  • 期刊分类: 
    人文社科
  • 出版周期: 
    月刊
  • 投稿量: 
    1
  • 浏览量: 
    328

相关文章

暂无数据

知识、风险与治理:人工智能的全球治理

Knowledge, Risk, and Governance: The Global Governance of Artificial Intelligence

发布时间:2025-10-29
作者: 黄豪杰 :暨南大学国际关系学院/华侨华人研究院 广东广州;
摘要: 本文以人工智能时代的知识安全为研究对象,探讨生成式人工智能对常民知识生产与传播带来的冲击及其在全球治理体系中的非传统安全风险。研究旨在揭示人工智能深度学习在提升信息整合效率的同时,因数据集给定性与“涌现”“幻觉”等技术缺陷而可能引发的知识偏差与决策风险。本文采用文献分析与理论阐释的方法,结合常民知识理论与非传统安全框架,分析知识在人工智能全球治理中的角色与功能。研究发现,机器知识的扩张削弱了常民知识的社会功能,加剧了知识权力结构的不均衡,进而影响全球治理的公共理性与风险应对能力。本文认为,将知识安全纳入非传统安全与风险治理体系,是构建人工智能时代全球知识治理框架的必要路径,也是实现技术进步与人类知识自我回归平衡的关键。
Abstract: This paper takes knowledge security in the era of artificial intelligence as its research object, examining the impact of generative AI on the production and dissemination of lay knowledge and its associated non-traditional security risks within the framework of global governance. The study aims to reveal that while deep learning enhances the efficiency of information integration, the predetermined nature of datasets and the phenomena of “emergence” and “hallucination” inherent in AI systems may lead to knowledge distortion and decision-making risks. Using literature analysis and theoretical interpretation, and drawing upon lay knowledge theory and the non-traditional security framework, this paper analyzes the role and function of knowledge in global AI governance. The findings indicate that the expansion of machine knowledge weakens the social function of lay knowledge, intensifies the imbalance of epistemic power structures, and undermines public rationality and risk governance capacity. The paper concludes that integrating knowledge security into the framework of non-traditional security and risk governance is essential for constructing a global knowledge governance system in the age of artificial intelligence, and for achieving a balance between technological advancement and the self-regeneration of human knowledge.
关键词: 人工智能;常民知识;风险治理;全球治理
Keywords: artificial intelligence; lay knowledge; risk governance; global governance

引言

人类对机器威胁的认知可追溯至1942年阿西莫夫提出的“机器人三定律”,但直至当代机器学习与深度学习的突破,这一潜在威胁才具备现实基础。人工智能依托数据、算法与算力三大支柱,其发展首先建立在数据的可得性与可控性之上。随着人工智能在经济、军事与社会治理等领域的广泛应用,数据滥用与隐私泄露等问题日益突出,使数据治理成为全球人工智能治理的核心议题。《2024年全球风险报告》首次将人工智能列为全球十大风险之一,指出其挑战不仅包括劳动力替代与虚假信息,更涉及知识生产与传播机制的安全性。这种知识层面的风险正在影响人类的治理能力与社会演化方向,构成人工智能时代的非传统安全新问题。现有研究多聚焦于国家与地区组织的数据管理,将其视为国家与社会安全的重要议题。数据分配不均催生“数据政治”,数据掌控成为新的权力形式,并使计算机系统逐渐演变为新的权力主体。尽管各国通过制度化框架强化数据安全,但研究仍存在三重局限:未能系统整合数据、信息与知识生产;将治理简化为资产管理,忽视数据背后的话语逻辑;并囿于国家安全范式,缺乏对人工智能知识风险的深入分析。本文从知识风险治理视角出发,提出人工智能全球治理的新方向:以非传统安全框架理解人工智能时代的数据与知识转化问题,关注知识生产与传播中的“人”之因素及其社会经验价值,并以常民知识的“自我回归”为路径,探讨构建复杂系统下全球人工智能知识风险治理的可能性。

1 作为非传统安全问题的人工智能知识生产与传播

近年关于人工智能治理的研究多与安全问题紧密相连。纵观历史,每一次技术革新都伴随机遇与风险:工业革命推动社会转型的同时带来环境代价,而人工智能被视为引领第四次产业革命的新动力。深度学习的广泛应用促成了以人工智能为核心的“第五范式”(AI for Science),其以技术助力知识生产,拓展了人类认知边界。但与此同时,人工智能也正在重塑人类社会的价值体系与知识结构,引发关于知识主体性的新追问——在人工智能时代,知识的生产者究竟是人,还是机器?

1.1 “人-机”互动的再政治化

进入人工智能时代以来,人类的计算能力上升到一个新台阶,提高了人类对于世界的认识和理解。同时,人工智能也更便利人类的日常生活。但这种技术也唤醒了人类对于人机互动的本体论思考。有学者指出人之所以为人,原因在于人类可以通过知识或文化来充分体现人性的存在,同时通过人与人之间的互动构建具有文化意涵的社会。但随着生成式人工智能的发展,机器愈发“拟人”,基于数据拟合而产生的结构化文本内容改变着叙事方式以及人们的知识获取来源,结构化数字八股的产生是否意味着人类想象力的退化,大模型对于数据整合和输出加快了碎片化知识的重新整合,强化人类对于信息获取的惰性。由此加剧了人类通过实践获取知识能力的矮化等问题凸显。此外还包括信息伪造、数据泄露等人工智能的其他问题集中爆发。

关于人工智能对于知识获取能力的矮化影响现阶段,更多是由哲学和传播学提出的思考。事实上,亚里士多德就已经开始对理性和自由进行追问,他认为人与动物的区分在于人是理性与欲望的结合。而到近代,机器取代了农耕文明,更多的人进入到工厂沦为流水线的“人形机器”周而复始的工作,心灵与思想在那时对于社会底层而言是不存在的事物。从那时起,将人从机器的束缚中解放出来,开始成为一个广泛关注的社会议题。进入信息数据时代以及人工智能时代后,“人-机”交互的质疑则再此被提起。但是,这能被看作是历史的回归吗?过去的人机之争实际上还是“人-人”互动的矛盾,是知识垄断的高权力者对低权力者以机器进行的规训。

数据时代下每个人都是数据的生产者,同时每个人也都是数据的获取者,当然数据获取能力的强弱是不一样的,每个人还是数据的使用者。人工智能技术赋予了个人对于网络信息的快速整合能力,这也在一定程度上消解了权力高位者对于知识的垄断。当然不可否认的一点是人工智能技术对于信息的获取,某种程度上是受到权利高位者在算法层面的影响所致。与此同时,人类如何面对人工智能幻觉问题与知识生产的问题?即使高权者对人工智能的数据控制并未失序,也不妨碍数据拟合与算法推送的知识矮化现象公共生活领域出现,进一步地这种知识矮化是一种对于人的发展权的剥夺。

1.2 人工智能知识类非传统安全问题的生成

随着现代化的推进,全球治理问题愈加复杂,治理技术日趋多元。自1986年民用互联网诞生以来,信息网络成为现代化的重要驱动力,但海量数据并非都能有效服务于治理。人工智能的发展为人类信息转化与知识应用提供了技术支撑,提高了治理效率,同时也带来了新的知识政治难题——治理者如何理解人工智能“拟合”的知识,以及如何认知自身在决策中的角色。

非传统安全的研究以区别于传统安全为起点,强调非军事因素对人类生存与发展的威胁。哥本哈根学派关注地区层面,而批判安全研究与人的安全研究则以“人”为核心,主张人的自由与解放。总体而言,非传统安全关注的,是资源短缺、环境污染、数据泄露等超越战争的复合型风险。正如甘地·巴伯(Kanti Bajpai)与余潇枫等学者所指出,非传统安全的核心在于明确威胁主体、对象、来源与实现路径,并以整合性思维回应复杂风险。

在此框架下,人工智能知识生产与传播的非传统安全问题尤为突出。人类在利用人工智能促进非军事领域发展的同时,也面临知识生产异化与主体性削弱的风险。生成式人工智能依托既定数据集进行学习与推演,其算法涌现与幻觉现象可能导致知识误导与认知偏差。联合国《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》决议虽未直接提出知识安全,但其“以人为本、尊重人权”的原则揭示了全球治理的核心目标。

然而,随着人工智能自学习与数据整合能力的增强,知识生产与传播的主导权正由“人”向“机器”转移。这种趋势不仅削弱了人类的主观能动性,也造成知识的同质化、碎片化和认知惰性,削弱公共理性与社会创新能力。人工智能技术的高速发展在提升治理效能的同时,也重塑了全球知识秩序,使知识安全成为非传统安全的新议题。其背后的风险不仅是技术层面的,更关乎人类发展权与文明延续的根基。

2 人工智能技术下的常民知识风险形成机理

在现代化持续推进的背景下,全球社会进入一个以工业化大生产为主导、传统安全监管体系逐渐失序的“风险社会”。现代性建立在科学理性与权威知识(authority knowledge)之上,这种以专家知识为核心的认知体系长期主导社会决策与治理。然而,随着信息化与人工智能时代的到来,这一知识权威正受到经验性常民知识(lay knowledge)的挑战。人类理解信息的方式始终依赖既有的知识框架,既包括经科学验证的专家知识(expert knowledge),也包括源于生活经验与社会实践的常民知识。互联网的普及使常民知识得以广泛传播,模糊了知识等级与权威界限,推动了知识民主化的进程。

信息网络与人工智能的发展进一步压缩了知识获取的时空距离,强化了现代性进程的同时,也带来了新的不确定性与脆弱性。人工智能推动的知识生产与传播异化,成为风险社会的重要表现。技术一方面削弱了精英阶层对信息的垄断,使公众能够凭借碎片化数据重构社会认知;另一方面,这种“去中心化”过程又引发了知识失序与身份焦虑。加文塔(Gaventa)提出的三种权力形式——显性权力、隐性权力与无形权力——分别对应知识、行动与意识三个层面。知识作为治理资源影响决策过程,行动体现个体在知识生产中的政治能动性,而无形权力则通过重塑认知结构维系社会秩序。人工智能在重构知识机制的同时,也重新分配了知识权力,削弱了人的主观性与经验性认知基础,使“人-机”关系成为现代社会身份危机与知识权威重构的关键议题。

2.1 信息垄断结构的崩解与知识生产权力的下放

随着信息高速公路的普及和互联网企业在网络平台的建设的贡献,互联网企业可以获得更多用户的数据信息。同时,没有物理的边疆限制的互联网也削弱了国家对于信息生产与传播的垄断。如果排除掉行政手段和司法手段的干预,国家在某种意义上是和企业共享信息的生产与传播。而企业搭建的网络平台同样具有大量平民在其中参与信息的生产与传播。群众更容易获得信息从而打破现实社会的空间隔阂,即群众可以透过诸多信息产生一套关于现实社会的图景。但是,在信息数据时代,知识的生产仍然掌握在上层权力者手中。即技术的发展是原有的信息生产传播的金字塔结构扁平化,知识生产传播的金字塔结构依旧坚固。所以,在信息时代,全球信息数据治理通常包括信息隐私安全问题还有信息构建的问题。进入人工智能时代之后,知识的金字塔结构开始消解。网络空间在信息传播层面具有无界性和公共性的特点。国家无法将大部分信息锁在一个箱子。这就造成任何人或组织都可以使用信息数据。所以,这为语言大模型技术(Large Language Model,LLM)的发展提供了支撑。值得注意的是,群众对于信息的掌握仍然停留在利用他们所掌握的知识理解信息的阶段。而知识生产的金字塔结构的消解所带来的福音则落到了掌握人工智能技术的高新技术企业身上。

2.2 大语言模型技术对常民知识生产与传播机制的削弱

在前信息时代与信息时代,常民知识的生产与传播通常依托生活经验的积累与交流。不同群体基于自身处境对同一事物形成多样化理解,从而构筑出非科学化的知识体系。人类社会的进步依赖于这种经验性知识的多元互动,它推动了文明的延展。与之相对,专家知识(expert knowledge)建立在系统化科学训练与理性逻辑之上,强调可验证性与实验数据支撑,但往往脱离生活语境。例如,中国台湾地区花莲农业部门曾设立“原住民农业研究室”,以民间经验应对气候变化带来的粮食风险,即是专家体系与常民知识结合的案例。然而,大语言模型(LLMs)的出现改变了这一知识生态。LLMs通过数据整合、算法与模型三层机制,在预训练、监督微调、奖励建模与强化学习四个阶段中模拟人类学习过程,从而高效生成整合性答案。例如,华为已将LLMs应用于气象分析,实现台风路径的高精度预测。此类技术显著提升了专家数据分析的效率,却在某种程度上抑制了常民知识的传播。

LLMs依赖对网络文本、学术论文与论坛内容的聚合学习,而常民知识恰恰通过这些渠道流通。随着LLMs快速整合信息,公众无需亲身实践或长期学习即可获得答案,知识生产的参与过程被算法取代。同时,LLMs的普及压缩了公共讨论与经验分享的空间,使知识交流趋于封闭与私域化。其运行逻辑基于数据集的特定训练,不同模型因数据差异而得出不同结果,这种“算法排序”事实上重塑了信息垄断结构。在人类以往的知识体系中,个体需通过经验判断与信息甄别实现知识排序,而在人工智能时代,这一功能被机器接管。由此,常民知识的生成与传播正面临来自深度学习技术的结构性威胁——这不仅是劳动力替代的技术挑战,更是对人类判断力与决策自主性的潜在侵蚀。

2.3 人类知识趋同与机器的涌现能力与幻觉问题

常民知识一般是指称公众知情意见,是一种在非专业背景下、基于自身信念网络所形成的知识形态。LLMs从时间上缩短和在空间上压缩了常民知识的生产和传播,并且对公众进行切分。利用机器学习的智能权威,向大部分群众展现出科学理性的一面,以此换得公众对人工智能正面积极的感知。同时替代大部分群众对常识知识的传统、不可验、基于直觉以及社群互动的信念。大部分公众基于LLMs技术获取的知识趋同。而剩下的依旧基于社群互动的常识知识的持有者,成为小众。在绝大多数公众决策中,机器知识俨然代替常识知识做出决策。但事实上,正如上文提到的,有监督的数据集是依靠人类标识和整理的。所以在信息垄断与知识下放的阶段,资本高新科技企业获得与国家共同管理信息的权力,以及同时收获知识下放的红利。大部分公众依靠常识知识参与公共事务的管理,其实受到了高新科技企业的规制。这将进一步拉大了人类知识鸿沟,以及加剧了人类社会在知识领域的矛盾,并不利于建立一个包容有效的决策体系。同时,涌现和幻觉的出现,为高新科技企业和建立包容决策体系带来了挑战。

学者对涌现给出具体的定义:当一个特定的能力或者现象没有在较小规模的模型中观察到,却在更大、更复杂的模型中突然出现时,这种现象通常被称为涌现。这种能力的出现是模型在学习过程中自我组织和发展的结果。涌现现象可能出现于LLMs内容生成的全过程,模型计算量、模型规模以及训练数据集的大小,都成为涌现出现的影响因素。涌现现象意味着人工智能可能存在自我创造的能力,这种能力的发生及其带来的影响是不可预测的。当然,这并非停留在纸面上的猜测,早在2017年阿尔法狗的围棋比赛就已经向人类展示了AI强大的学习能力。幻觉是在人工智能在人类知识领域所产生的第二个强干扰因素。简言之,幻觉是人工智能在内容生成时,脱离实际或者事实错误的一种现象。有研究将其分成事实幻觉和忠实幻觉两类。不论是事实幻觉,还是忠实幻觉,都可以理解为是人工智能在解析用户指令的过程中,未能准确理解或忠实遵循输入信息,从而导致其输出了错误的答案。谷歌“双子座”人工智能大模型,在其文生图功能中频繁出现种族主义的幻觉问题。新加坡政府的医疗卫健系统已经采用人工智能提供相应决策,当用户并不清楚相关数据,幻觉辨清真伪成为一大难题。

3 风险治理视野下全球人工智能常民知识治理

常民知识风险的非传统安全是一种隐性风险,源于现代性下常民知识与专家知识间的鸿沟,以及人工智能的涌现与幻觉所带来的知识体系重构。技术的发展在提升治理效率的同时,削弱了公众的自主思考与社会参与,使常民知识的社会功能被制度化知识体系所取代。现有人工智能治理多采用化约主义思维,将问题拆解为数据、算法和算力等技术层面,忽视知识生产与治理逻辑的结构性风险。人工智能治理的困境正是知识与科技相互纠缠的结果。故而只有将知识治理与风险治理结合起来,以知识治理为支点,借助整全风险治理视角,探索人工智能时代常民知识的系统性全球治理路径。

3.1 全球人工智能知识治理:常民的“自我”回归

人工智能在知识领域的非传统安全,既体现为常民知识在生产与传播过程中受到机器知识的冲击,也表现为机器知识及其背后的专家知识与风险治理之间的复杂纠缠。破解这一治理困境的关键在于跳出科学化与专家化的思维路径,重视民众生活性、感性与非科学化的知识体系,以应对常民知识被机器知识边缘化的风险。治理的前提是区分并平衡人的“自我”知识与机器的“他者”知识,使“自我”知识重新主导知识秩序的建构。正如福柯在反思制度化束缚时所强调的那样,个体“自我”的回归是自由与创造的前提。常民知识的治理不仅要防止资本与技术垄断话语权,更要唤醒公众在知识生产中的主体意识。与专家知识相比,常民知识植根生活实践,具有经验性与信念感,其回归有助于修正人工智能在涌现与幻觉中产生的偏差,从而实现知识体系与社会治理的再平衡。

遗憾的是,福柯虽揭示了“自我关怀”的思想,但并未提出“自我回归”的现实路径。同样,在非传统安全视野下,学界更多关注外部安全行为体如何规制个人安全,而较少探讨个体如何实现知识上的自我重建。常民知识的“自我回归”首先在于避免“他者”知识对公众生活的过度干预,这一过程需依托制度化的支持机制。更关键的是,如何激发“自我”知识的主动生成。以中国台湾地区花莲“原住民农业研究所”为例,当地政府借助原住民传统种植经验应对气候风险,专家并非主导者,而是学习者和总结者。这一案例体现了常民知识与专家知识的平等对话。实现“自我回归”,需推动人、专家与机器知识之间的互动协同,使人工智能真正融入公共生活,成为人类实践与思考的助力工具,从而让公众在社会实践中重新确立自身的认知主体地位,完成知识生产与传播的“自我”回归。

3.2 全球人工智能的系统治理:复杂系统的知识风险治理

事实上,全球人工智能的知识风险治理本身就是一个复杂系统治理工程,即如何利用知识对人工智能全球治理,以及利用什么样的知识进行治理的问题。公众在利用人工智能技术进行知识检索查询时,所面临的知识趋同问题、数据集给定的思考模式的规训问题以及检索结果出现幻觉的问题,这些现象的错误信息将直接干扰治理的效果甚至朝反方向发展。全球人工智能知识治理的目的是,通过国际社会的组织管理策略,对知识资源进行有效管理和优化配置,以实现决策创新与社会发展。复杂系统的全球人工智能知识治理需要结合生态学、社会学、计算机科学、法学以及政治学等学科在内的跨学科全过程的治理体系。

人工智能全球治理的解方在于推动常民知识的“自我”回归以破解冲击困境。而具体的解方是需要全社会共建对话平台,但问题在于这类平台在网络的搭建本身就受到来自平台方算法推荐的影响。中文互联网上微博、抖音及其他短视频等平台,通过基于深度学习的算法向用户推送指定的信息。而唯一和LLMs技术实现的知识推送略有不同的是,目前向用户推送的“知情意见”和“观点”的任务依旧由人所执行。相同点在于,不论是平台的算法推送还是LLMs的知识推送,其本质都基于深度学习技术而构建起的一种信息茧房,可以说平台的算法推送从某种意义上已初具人工智能的特点。这并非只是中文互联网的特例,YouTube、X(旧称Twitter)以及其他国外互联网社交平台皆存在类似的算法推送。

一部分人工智能知识风险的根源由高新科技企业引起。信息的无国界流动和算法黑箱问题增加了治理的难度。因此,人工智能知识领域涉企的风险仍然需要依靠包括国家、政府、非政府组织以及跨国企业,乃至个人在内的各行为体,共同建立一套有效的制度,对企业在人工智能数据标识方面加以监管,以确保数据集的客观与中立。确保数据集的客观中立,是维系常民知识在面对社会变迁与风险时具备鲁棒性的关键基础。同时,能够让公众真正将人工智能技术当作知识生产辅助工具,而非知识生产工具本身。此外,全球治理还需要阻遏算法推荐所形成的信息茧房问题,打通人类对各方面信息的获取渠道。因此这种治理必然是刚柔并济、双管齐下的。治理既不能阻碍科技的发展,也不能限制人类常民知识的发展。对于以算法与大模型来创造信息和知识茧房的行为需要用刚性的法律手段加之遏制,而对于人工智能计算能力提升以及赋能人类知识生产传播的行为则需要全球行为通力合作。

关于人工智能全球知识的风险治理,可以从利用调适性风险治理架构的模式对机器生产的知识进行评估,同时利用这类机器知识反哺常民知识的生产和传播,这就需要常民知识具有足够的韧性支撑。提升常民知识的韧性需要通过推动公众、专家、机构和人工智能技术的多方参与,强化全球人工智能知识领域风险治理复杂系统的透明性与包容性,在不断反复沟通对话的过程中。发挥常民知识总结经验和基于感性的批判的优势。

4 结语

人工智能知识治理的风险分析为破解当下全球治理困境提供了新的理论视角。随着算力与大数据的不断发展,人工智能的智能化水平与自主迭代能力显著提升,生成式大模型以数据为基础映射现实世界,通过高速计算推演自然与社会规律,为政府决策与社会治理提供了新的手段与效率。正如黄仁勋在GTC2024大会所言,人工智能将深刻改变教育、医疗、生物科技与金融等领域的发展格局,世界正加速迈入人工智能主导的数据时代。

然而,这一技术进步也带来了知识规训与算法幻觉等深层风险。人工智能在生成知识的同时,也可能强化数据偏见、制造事实幻觉,并削弱常民知识在社会发展中的活力。随着其广泛渗透,知识风险与气候变化、金融危机、公共卫生等非传统安全问题交织,构成更加复杂的全球安全格局。人工智能全球治理本质上是一个知识、技术与制度相互纠缠的复杂系统。本文将知识安全纳入非传统安全框架,从风险社会视角出发,提出以知识治理为支点、以风险治理的整全思维为方法,构建人工智能时代全球知识治理的系统性路径。这不仅是应对技术风险的必要举措,更是实现人类可持续发展与认知自我回归的关键所在。

参考文献:

  1. [1] 封帅. 人工智能时代的国际关系:走向变革且不平等的世界[J]. 社会科学文摘, 2018(03):26-29.
  2. [2] 高奇琦, 张蓥文. 主体弥散化与主体责任的终结:ChatGPT对全球安全实践的影响[J]. 国际安全研究, 2023, 41(03):3-27+157.
  3. [3] 刘宏松, 程海烨. 跨境数据流动的全球治理——进展、趋势与中国路径[J]. 国际展望, 2020, 12(06):65-88+148-149.
  4. [4] 刘业. 美欧数据跨境流动博弈中的欧盟技术主权战略及其实现[J]. 国际法研究, 2023(06):64-85.
  5. [5] 黄炎. 跨境数据治理体系的多维变革及因应之策[J]. 太平洋学报, 2022, 30(04):57-69.
  6. [6] 严驰. 中国人工智能治理的理论构想:基于新加坡数字经济协定的思考[J]. 东南亚纵横, 2024(02):68-78.
  7. [7] 赵精武. 生成式人工智能应用风险治理的理论误区与路径转向[J]. 荆楚法学, 2023(03):47-58.
  8. [8] 刘纯懿, 胡泳. 人机逆转、叙事僵死与无事实时代——生成式革命的影响与危机[J]. 探索与争鸣, 2024(01):150-164.
  9. [9] 王心怡, 孟天广. 知识政治学:国家治理中的知识生产与调用[J]. 探索与争鸣, 2024(02):6-24.
  10. [10] 李开盛, 薛力. 非传统安全理论:概念、流派与特征[J]. 国际政治研究, 2012, 33(02):93-107.
  11. [11] 巴里·布赞, 余潇枫. 论非传统安全研究的理论架构[J]. 世界经济与政治, 2010(01):113-133.
  12. [12] Hansen H K, Porter T. What do big data do in global governance?[J]. Global governance, 2017, 23(01):31-42.
  13. [13] Micheli M, Ponti M, Craglia M, et al. Emerging models of data governance in the age of datafication[J]. Big data & society, 2020, 7(02):205395172094808.
  14. [14] Cerezo J A, Garcia M G. Lay knowledge and public participation in technological and environmental policy[J]. Society for philosophy and technology quarterly electronic journal, 1996, 2(01):36-48.
  15. [15] Klinke A, Renn O. The coming of age of risk governance[J]. Risk analysis, 2021, 41(03):544-557.
  16. [16] Gaventa J, Cornwall A. Challenging the boundaries of the possible: participation, knowledge and power[J]. IDS bulletin, 2006, 37(06):122-128.
联系我们
人工客服,稿件咨询
投稿
扫码添加微信
客服
置顶