
未来教育探索
Exploration of Future Education
- 主办单位:未來中國國際出版集團有限公司
- ISSN:3079-3637(P)
- ISSN:3079-9511(O)
- 期刊分类:教育科学
- 出版周期:月刊
- 投稿量:4
- 浏览量:404
相关文章
暂无数据
教育人工智能伦理的平衡机制构建——基于活动理论
The Construction of a Balance Mechanism for the Ethics of Educational Artificial Intelligence —Based on Activity Theory
引言
以人工智能技术赋能教育变革,促进教育优质均衡发展,培养适应未来社会的高素质人才,已经成为全球共识。所谓教育人工智能,是一个综合性的概念,它指的是将人工智能技术深度融入教育领域,通过智能化的手段来优化教育环境,从而推动传统教育模式、教学方法和学习体验发生根本性变革的一种新型教育模式。从更广义上讲,教育人工智能不仅仅局限于技术层面的应用,更代表着一种教育理念和教育模式的革新。它强调以学生为中心,充分利用人工智能技术来满足学生的个性化需求,不断提升学生的学习效果。同时,也要求教育者不断更新教育观念,提升自身信息素养,以适应新时代教育发展的需求。然而,人工智能技术在教育领域广泛应用的同时也引发了一系列伦理问题,如数据隐私与安全、算法偏见与公平、数字鸿沟与均衡、师生伦理与关系等。基于此,本文基于公共管理视角,结合活动理论深刻剖析当前教育人工智能伦理面临的挑战并在此基础上提出应对策略,以期为教育人工智能伦理技术与人文平衡提供一条切实可行之路。
一、文献回顾
梳理国内外相关核心文献发现,当前学界对教育人工智能伦理的研究主要集中在伦理风险识别、伦理治理路径和伦理实践规范构建三大方面。
(一)伦理风险识别:探究技术场景中的人机伦理关系
何为人机伦理关系,人机伦理关系是指智能技术深度嵌入社会生产生活与文化生态的新环境下,人类与人工智能系统之间形成的多维度互动关联,其核心是技术应用引发的权利、责任、价值与利益的动态互动关系,技术发展与伦理规范相互作用的集中体现。目前,人机伦理关系已受到国内外众多学者的关注,例如,2019年《新一代人工智能治理原则》的发布,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。
国内学者们从技术应用场景出发,指出教育人工智能存在数据安全泄露、算法偏见导致的教育不公、人机协同中主体责任模糊以及过度技术依赖引发的教育本质异化等问题。王佑镁、王欣颖等(2024)基于生成式人工智能的特性,构建了包含技术、数据、应用、制度四个维度的伦理风险管理框架,为风险防控提供了系统性思路;杨俊锋、褚娟(2024)则从价值导向出发,强调人工智能教育应用需坚守教育公平、人格尊严与可持续发展等核心伦理原则,为风险界定提供了价值基准。国外学者更注重数字伦理与教育生态语境中分析。Luciano Floridi(2019)从实践方面指出在理论转化为实践过程中可能会存在消费伦理、伦理漂洗、伦理游说、伦理倾销和伦理推卸的风险五大核心风险,为人工智能在教育场景中伦理的风险类型划分提供了重要理论参考。综上,厘清不同场景中人机伦理关系,促进AI的伦理化应用,增强教育工作者个人伦理标准与机构规范的协调性,是识别伦理风险的关键核心。
(二)伦理治理路径:多主体协同与制度规范治理并重
面对教育人工智能伦理的复杂风险,依靠单一主体难以实现有效治理,多主体协同与制度规范治理并重已成为学界公认的核心治理路径。白钧溢(2024)提出构建“政府引导、高校主导、企业参与、社会监督”的多元共治体系。陈倩倩、张立新(2022)从“人机协同”视角补充了师生主体的重要性,主张将教师与学生纳入治理体系,通过强化师生伦理素养与参与权,实现技术应用与教育实践的深度契合。胡小勇、黄婕等(2022)的实证研究则揭示了当前多主体协同的薄弱环节,指出教育工作者对人工智能伦理的认知不足、企业伦理责任缺失等问题制约了治理效能,需通过加强跨主体沟通协作与能力建设予以破解。法律法规、伦理准则、技术标准等制度要素的构建与完善在治理路径中不可或缺。崔宇路、张海(2022)强调建构公开透明的协同监管生态机制,切实保障教育人工智能在产品设计、实践应用过程中所涉及的诸多困境,还需要整合多方对象,以共同参与教育人工智能的部署、应用和管理工作;王斌伟、付圣莹(2025)提出应结合教育实践场景细化制度条款,推动伦理原则从宏观理念转化为可操作的行为规范,尤其要明确数据治理、算法审查、责任划分等关键领域的制度要求。此外,冯永刚、吕鑫源(2025)针对生成式人工智能的特殊性,呼吁加快专项制度建设,防范生成内容造假、知识产权侵权等新型伦理问题。因此,教育人工智能伦理治理须形成以教师与学生参与为基础,多元主体共治的核心治理路径。
(三)实践规范构建:国家战略与行业标准的协同推进
教育人工智能伦理的有效治理更需要国家战略与行业标准的协同推进。已有多个不同的国家将教育人工智能伦理纳入国家人工智能治理整体布局。Roxana R(2021)梳理全球主要国家的人工智能治理战略发现,部分国家通过出台专项政策、设立专门机构等方式,加强对教育领域人工智能伦理的顶层设计与统筹规划。标准化建设是规范教育人工智能伦理实践的核心任务。Gouseti A、James F等(2025)对K-12教育阶段文献综述指出,统一的技术标准、数据安全标准、伦理评估标准是保障人工智能在基础教育领域规范应用的重要基础,且不同地区的行业标准需结合文化与教育实际进行适配。Airaj M(2024)针对高等教育场景提出,行业标准应聚焦教与学的核心需求,明确人工智能工具的应用范围、性能要求、伦理评估指标等内容,同时建立标准动态更新机制,适应技术快速发展的需求。Zawacki-Richter O, Marín I V等(2019)则指出当前行业标准建设存在“技术导向”偏差,忽视了教育从业者的实际需求与伦理诉求,呼吁在标准制定过程中强化教育领域专家与一线教师的参与权。
综上而言,构建教育人工智能伦理的平衡机制是破解教育人工智能伦理困境的关键路径。因此,研究基于公共管理视角,结合活动理论框架提出纾解策略,以期为教育人工智能伦理构建平衡机制提供指导建议。
二、理论框架构建
(一)理论的引出
活动理论最早可以追溯到黑格尔的古典哲学和马克思的辩证唯物主义,经过维果斯基(Lev Vygotsky)的“中介论(mediation)”的奠基,列昂节夫(Leontyev)扩展出“活动、行为和模式”三个活动的水平模式,最终由恩格斯托姆(Yrjö Engeström)提出目前人们熟悉的活动理论“三角模式”。而后引用于教育学中,它认为人类的活动是主体(学习者)与客体(学习目标或问题)之间的桥梁,通过工具(包括物理工具、语言、符号等)的中介作用实现互动(图1)。
(二)适用性分析及框架构建
活动理论在教与学活动中、融合技术的教学实践均有较强的解释力,可以看出活动理论在教育领域的广泛运用。其核心模型包含主体、客体、中介工具、共同体、规则与分工六大要素,这为解析教育人工智能伦理中的复杂关系提供了结构化视角。
在教育人工智能的应用场景中,伦理矛盾常起源于多元主体之间的价值冲突,教师关心技术对教学自主性的影响,学生在意个人学习数据的隐私边界,技术开发者聚焦算法效率的优化,而教育管理者则需平衡教学质量与合规要求。活动理论中的“共同体”概念正好能够涵纳这些不同性质的主体,清晰呈现各角色在教育实践中的诉求差异与互动逻辑,从而避免将伦理问题简单归约为单一技术问题。此外,活动理论具有动态性,这与教育人工智能应用的持续演进相契合。随着技术迭代与教学场景的拓展,新的伦理问题不断涌现,活动理论着眼于系统内部的矛盾与转化,能有效捕捉这类动态演变,避免静态的伦理框架与实际脱节,进而为建立适应性强且具备前瞻性的伦理平衡机制提供理论支持。更重要的是,活动理论始终将实践置于具体的社会文化语境中,强调教育活动的根本在于人的发展。这一视角有助于平衡技术理性与教育价值,避免陷入“技术至上”或“伦理保守”的二元对立。基于此,本文构建了教育人工智能伦理活动理论框架(图2),为教育人工智能伦理的平衡提供了既具有理论深度又注重实践的分析路径。
三、教育人工智能伦理面临的四大困境
(一)主体与规则失衡引发数据隐私与安全
人工智能技术的深度应用引发了对数据隐私安全的广泛焦虑,其核心矛盾在于技术系统的闭环运作与教育主体权益保障之间的失衡。在教育人工智能场景中,数据收集、处理与应用的全链条涉及学前儿童、大中小学师生及社会用户等多元主体。一是算法黑箱,以深度学习为核心的人工智能算法遵循“数据输入—模型运算—结果输出”的技术逻辑,其内部多层神经网络的非线性变换机制形成了天然的 “认知盲区”—算法黑箱。在教育人工智能应用场景中,教师、学生等教育主体处于算法系统的交互界面之外,对数据清洗规则、特征工程处理逻辑、模型训练参数调节等核心环节缺乏透明化认知通道,难以穿透技术架构理解算法如何筛选教育数据、生成决策方案或推荐学习资源。以ChatGPT-3.5为例,DeepMind研究人员曾采用分歧攻击让ChatGPT逐渐偏离聊天内容,泄露原始训练数据。二是技术依赖,教育主体对智能系统的工具化依赖,正演变为数据安全的隐性威胁。师生对于自身数据的收集和使用缺乏知情权,一旦数据被泄露或未经授权而被修改,就会对数据主体即师生产生不可预测的伤害。正如欧盟《一般数据保护条例》指出,数据主体的“知情—同意”权若沦为形式化流程,技术系统的“数据霸权”将彻底消解用户对个人信息的自主掌控能力。三是规则不明,当前数据治理规则未能有效回应教育场景的特殊性。《个人信息保护法》《生成式人工智能服务管理暂行办法》等法规侧重原则性规范,但对教育数据的分级保护、主体差异等缺乏细化条款。规则体系的滞后,使得教育主体在面对算法黑箱与依赖陷阱时,缺乏有效的权利救济途径与技术制衡手段。
(二)客体与共同体失衡导致算法偏见与公平
算法偏见主要体现在人工智能系统数据处理及决策环节出现的不公平现象或歧视性倾向,其成因既包括训练数据的不完整、不准确,也与算法设计中隐含的主观倾向相关。公平性作为教育的核心价值追求,在教育人工智能的实际应用中却面临严峻挑战。由于算法具有高度的不透明性与复杂性,教育领域的用户往往难以理解其决策逻辑,这无疑加剧了偏见与歧视产生的风险。
具体来看,算法偏见可能对教育生态产生多方面的负面影响。从教育内容供给角度分析,算法的局限性可能造成教学内容的单一化倾向,难以满足学生群体的多样性与个性化发展需求。尽管情感计算与感知技术能够对师生的情绪状态、面部表情等外显特征进行监测,但在复杂的情感互动场景中,其应用效果存在明显不足。教育人工智能无法像人类教师那样,通过具身化的教学方式传递实践操作等知识,也难以在学生品德修养、性格塑造等方面提供潜移默化的师生互动体验,长此以往,学生创造性思维的培养可能会被技术的局限性所遮蔽。从教育资源分配格局分析,算法偏见可能引起教育共同体的分歧,进一步加剧教育资源配置的不平等。在我国城乡发展存在显著差异的背景下,教育资源的分布不均衡问题本就客观存在。城市地区的学生凭借地域优势,往往能够优先获取先进的教育资源,包括接触和应用最新的人工智能技术;而农村地区的学生则受制于客观条件,在教育资源获取上存在明显劣势,甚至难以接触到这些前沿技术。这种城乡之间在教育技术应用上的鸿沟,使得教育不公平现象愈发凸显。从学生主体发展维度审视,算法偏见可能对学生的主体性发展产生消极影响,导致其在教育活动中逐渐丧失自主性与批判性思维。人工智能凭借强大的数据处理与分析能力,能够依据学生的学习风格和薄弱环节进行学习资源的精准推送。然而,如果学生长期依赖这种定时定量的“智能投喂”模式,可能会形成对技术的过度依赖,进而失去主动探索知识的积极性与好奇心,不利于自主学习能力的培养。
(三)客体与工具失衡引起数字鸿沟与均衡
随着人工智能技术在教育领域的深度渗透,数字鸿沟问题愈发显著,成为教育人工智能伦理研究的关键课题。这一技术鸿沟不仅直接影响教育资源的公平配置,更可能引发教育主体与技术工具间的关系失衡,对教育活动的整体性和伦理基础造成冲击。
伴随着人工智能技术的迭代发展,教育领域正面临新的不平等危机—作为数字鸿沟最新形态的“智能鸿沟”逐步显现。早期数字鸿沟的形成,主要源于个体缺乏必要的技术基础设施支撑和基础数字素养,导致信息获取渠道受阻,难以融入数字社会。进入人工智能时代,数字技术范式升级为以数据驱动和算法决策为核心的智能技术体系。在此技术演进过程中“智能鸿沟”作为数字鸿沟的进阶形态,智能鸿沟本质上仍属于数字鸿沟范畴,既保留了传统数字鸿沟在资源获取、技术应用等方面的基本特征,更因人工智能技术的独特属性,呈现出全新的本体特性与影响效应。相较于传统形态,智能鸿沟因技术壁垒更高、影响更具隐蔽性,导致弥合难度显著提升。
(四)主体与分工失衡诱发师生伦理与关系
教育的核心在于培养全面发展的人,而人工智能技术的应用可能对教育中品德塑造、情感培养和人格养成的核心目标形成冲击,致使教育沦为缺乏灵魂的机械运作。在教师层面,人工智能系统的普及可能使教育工作者产生过度依赖倾向。当教学过程中的知识传授与技能训练环节过度依赖智能平台完成,数字化教学模式可能掩盖教师独特的教学风格与教育智慧。长此以往,教师的课堂把控能力和个性化教学优势会逐渐弱化。就学生而言,智能技术虽能提升学习的便捷性与趣味性,却可能导致认知停留在表层。尽管人工智能系统可辅助解答问题、提供学习支持,但长期依赖智能系统可能削弱学习者的自主思考能力。这类基于大规模数据训练构建的算法模型,往往以标准化输出回应问题,学习者难以形成对知识的批判性认知。此外,当学生忙于应对多个智能平台的碎片化学习任务时,单个平台的学习投入时间被严重切割,难以形成系统深入的知识建构。在师生互动层面,技术主导的教学场景可能疏解师生间的情感联结,导致互动频次下降与关系疏离。当教育过程更多依赖人机交互,传统教育中师生面对面交流所承载的情感传递、价值观引导等功能会被削弱。
四、教育人工智能伦理治理路径
(一)技术伦理风险治理
技术作为教育人工智能伦理风险的核心载体,其在设计、运行及应用过程中出现的伦理漏洞,需要通过技术创新与技术规制的协同配合来化解。技术伦理风险治理应着重聚焦于算法、数据、系统设计等关键环节,构建起“事前预防—事中监控—事后追溯”的全链条治理机制。事前预防,算法作为人工智能的核心技术,其“价值中立性”神话的破灭,引发了教育决策偏差、歧视等风险。为此,需构建算法伦理风险全过程监管体系,该体系涵盖法律规制、风险评估与安全保障三重机制。首先,在法律层面,要将公平、透明等伦理原则融入算法设计规范,增设专门的算法伦理条款,明确教育算法的设计边界,严格禁止基于性别、地域等敏感数据进行差异化推送。其次,建立算法风险分级评估制度。在智能教学系统部署之前,由教育、技术、伦理等多领域专家组成评估委员会,对算法的教育适配性、数据依赖性、决策透明度进行全面审核。事中监控环节,实时监控和动态调整是确保技术伦理风险得到有效控制的关键。实时审核技术的应用可以通过动态监控算法的运行状态,捕捉潜在的伦理风险并及时干预。此外,区块链技术的引入为决策过程提供了透明性和可追溯性。区块链的不可篡改性和分布式存储特性,使得算法的每一个决策步骤都可以被完整记录并标记,从而确保决策过程的透明性和可信度。事后追溯则要建立算法问责机制,明确算法设计者、应用者的连带责任。事后追溯的核心在于通过技术记录和法律框架,明确算法设计者和应用者的责任。首先,通过区块链等技术记录算法的运行日志和决策路径,可以在事后全面还原算法的行为轨迹,为责任划分提供依据。其次,责任划分需要结合教育场景的具体需求,明确算法设计者在算法偏见、歧视等问题上的技术责任,以及应用者在算法部署和使用中的伦理责任。
(二)教育伦理能力培养
教师作为直接参与者,其伦理判断与决策能力是防范技术风险的关键防线,将人工智能伦理纳入教师职前培养与职后培训体系。职前教育中,师范院校需开设“教育技术伦理”必修课程,讲授数据隐私保护、算法公平性分析等内容。职后培训通过案例研讨等形式,提升教师对智能工具的伦理评估能力。同时在人机协同教学中进行价值引导。教师需警惕“技术依赖”,在智能系统推送学习方案时,需结合学生情感状态、价值观形成等进行二次决策。学生作为主要服务对象,伦理能力培养需贯穿基础教育到高等教育阶段。将人工智能伦理纳入基础教育必修课程,通过编程教育、信息科技课程培养学生的“数据公民”意识。高等教育阶段需强化学生的技术伦理实践能力,构建人工智能家校社协同风险应对机制,鼓励学生参与校园智能系统的伦理评估。通过实践,学生不仅能提升自身伦理素养,更能形成“技术使用者—伦理监督者”的双重身份认知。教育管理者的伦理能力体现在政策制定与风险决策中。制定教育人工智能伦理素养标准,包括数据解读、技术治理、决策优化三大维度。同时对学校管理者进行数据伦理培训,使其掌握教育数据治理的法律规范与技术工具。技术开发者的伦理能力是源头防控的关键,制定技术开发者伦理标准,从需求设计阶段、开发测试阶段、部署运维阶段引入全生命周期伦理管理。
(三)多主体协同治理
教育人工智能伦理问题的复杂性,决定了其治理需要突破单一主体的局限,形成“政府主导—学校主体—企业协同—社会参与”的一核多元治理模式。“一核”强调政府在教育人工智能体系中的主导地位和确立以政府为核心的监督和指导模式。我国《新一代人工智能发展规划》《义务教育课程方案和课程标准(2022年版)》等政策文件,为教育人工智能伦理治理提供了宏观框架。同时政府部门需进一步细化相关政策,明确技术应用的负面影响。“多元”治理则凸显学校、企业、社会等多元主体的协同共治。作为教育人工智能应用的核心场域,学校需要构建校本化伦理治理机制,明确校长、教师、技术专员等不同主体的伦理责任体系:校长负责统筹智能系统采购的伦理审查,建立技术引入的前置评估机制;教师承担教学过程中的伦理风险识别责任,在教学设计与实施中融入伦理考量;技术专员则专职负责数据安全维护,构建全流程的数据治理体系。企业与高校的协同创新构成治理体系的重要驱动力。鼓励企业深度参与教育人工智能伦理研究,推动技术创新与伦理规范的同步发展;高校则应发挥理论研究优势,为政策制定提供理论支撑与实践路径设计。研究者还应持续开展教育人工智能应用伦理研究,尤其是教育人工智能伦理风险发生机理研究、师生人工智能应用的长期跟踪研究,从多维视角全面评估、探索教育人工智能伦理风险,进而提供透明、高效的解决方案。
参考文献:
- [1] 杨俊锋, 褚娟. 人工智能教育应用的伦理风险和规范原则[J]. 中国教育学刊,2024(11):21-27.
- [2] 司林波. “人工智能+教育”:现状、挑战与进路[J]. 国家治理,2024(13):28-36.
- [3] 徐瑞萍, 吴选红, 刁生富. 从冲突到和谐: 智能新文化环境中人机关系的伦理重构[J]. 自然辩证法通讯,2021,43(04):16-26.
- [4] 中国科技部印发《新一代人工智能治理原则》[EB/OL]. (2019-06-17) [2025-12-16]. https://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.
- [5] 王佑镁, 王欣颖, 柳晨晨. 教育领域生成式人工智能应用的伦理风险管理框架研究[J]. 电化教育研究,2024,45(10):28-34+42.
- [6] Floridi L. Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical[J]. Philosophy & Technology,2019,32(02):185-193.
- [7] Kamali J, Alpat F M, Bozkurt A. AI ethics as a complex and multifaceted challenge: decoding educators’ AI ethics alignment through the lens of activity theory[J]. International Journal of Educational Technology in Higher Education,2024,21(01):62.
- [8] 白钧溢. 教育人工智能伦理治理:现实挑战与实现路径[J]. 重庆高教研究,2024,12(02):37-47.
- [9] 陈倩倩, 张立新. 教育人工智能的伦理审思:现象剖析与愿景构建——基于“人机协同”的分析视角[J].远程教育杂志,2023,41(03):104-112.
- [10] 胡小勇, 黄婕, 林梓柔, 等. 教育人工智能伦理:内涵框架、认知现状与风险规避[J].现代远程教育研究,2022,34(02):21-28+36.
- [11] 崔宇路, 张海. 教育人工智能应用的困境、成因及对策[J].现代教育技术,2022,32(06):35-42.
- [12] 王斌伟,付圣莹. 人工智能教育应用中的伦理风险及其应对[J]. 学术研究,2025(04):1-9.
- [13] 冯永刚, 吕鑫源.生成式人工智能嵌入教育的伦理检视[J]. 中国电化教育,2025(11):18-25.
- [14] Roxana R. Steering the governance of artificial intelligence: national strategies in perspective[J]. Policy and Society,2021,40(02):178-193.
- [15] Gouseti A, James F, Fallin L, et al. The ethics of using AI in K-12 education: a systematic literature review[J]. Technology, Pedagogy and Education,2025,34(02):161-182.
- [16] Airaj M. Ethical artificial intelligence for teaching-learning in higher education[J]. Education and Information Technologies,2024,29(13):17145-17167.
- [17] Zawacki-Richter O, Marín I V, Bond M, et al. Systematic review of research on artificial intelligence applications in higher education – where are the educators?[J]. International Journal of Educational Technology in Higher Education,2019,16(01):1-27.
- [18] 秦渝超, 刘革平,许颖.生成式人工智能如何重塑教学活动——基于活动理论的模型构建与应用[J]. 中国远程教育,2023,43(12):34-45.
- [19] 郑伊贝, 曹辉. 人工智能教育应用的伦理隐忧及其超越[J]. 教学与管理,2025(06):7-14.
- [20] 王晓敏, 刘婵娟. 人工智能赋能教育的伦理省思[J]. 江苏社会科学,2023(02):68-77.
- [21] GDPR. General Data Protection Regulation[EB/OL]. (2016-05-04) [2025-12-16]. https://gdpr-info.eu/.
- [22] 中国人民政府网印发《中华人民共和国个人信息保护法》[EB/OL]. (2021-08-20) [2025-12-16]. https://www.gov.cn/xinwen/2021-08/20/content_5632404.htm.
- [23] 中国人民政府网印发《生成式人工智能服务管理暂行办法》[EB/OL]. (2023-07-10) [2025-12-16]. https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.
- [24] 赵磊磊, 张黎,代蕊华. 教育人工智能伦理: 基本向度与风险消解[J].现代远距离教育,2021(05):73-80.
- [25] 王佑镁, 利朵, 王旦, 等. 基于4R危机管理模型的教育人工智能伦理风险防范体系构建[J]. 中国电化教育,2024(09):32-40+85.
- [26] 赵磊磊, 张黎, 王靖. 智能时代教育数据伦理风险:典型表征与治理路径[J]. 中国远程教育,2022(03):17-25+77.
- [27] 张立新, 张雨露, 郑秋辉. 国际人工智能应用伦理研究及对教育应用的启示[J]. 浙江师范大学学报(社会科学版),2021,46(05):96-102.
- [28] 曾海军, 张钰, 苗苗. 确保人工智能服务共同利益,促进教育系统变革——《人工智能与教育:政策制定者指南》解读[J]. 中国电化教育,2022(08):1-8.
- [29] 陈群志, 李月雯. 教育人工智能的伦理问题及应对之策——基于海德格尔技术哲学的视角[J]. 浙江理工大学学报(社会科学),2024,52(06):686-692.
- [30] 国务院印发《新一代人工智能发展规划的通知》[EB/OL]. (2017-07-20) [2025-12-16]. https://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
- [31] 中国教育部印发《义务教育课程方案和课程标准(2022年版)》[EB/OL]. (2022-03-25) [2025-12-16]. https://www.gov.cn/zhengce/zhengceku/2022-04/21/content_5686535.htm.
- [32] 刘邦奇, 黄倩倩, 张金霞. GenAI教育应用伦理风险多主体协同治理框架及实践策略[J].现代远程教育研究,2025,37(05):48-58.
