
亚太职业教育
Journal of Asia-Pacific Vocational Education
- 主办单位:未來中國國際出版集團有限公司
- ISSN:3079-3653(P)
- ISSN:3080-0676(O)
- 期刊分类:教育科学
- 出版周期:月刊
- 投稿量:0
- 浏览量:117
相关文章
暂无数据
智媒时代职业化播音主持人才培养路径探究
Exploring the Pathways for Professional Training of Broadcast Hosts in the Era of Smart Media
引言
智媒时代的浪潮正以前所未有的速度重塑传媒生态,AIGC(人工智能生成内容)技术的突破性发展为播音与主持行业带来深刻变革。从虚拟主播的常态化应用、语音合成技术的普及,到生成对抗网络与多模态技术的深度融合,人工智能不仅重构了内容生产流程,更挑战着行业的传统价值逻辑。在技术赋能与职业替代的双重张力下,播音与主持行业的核心竞争力正从“信息传递的精准性”转向“人性化叙事与价值创造”。然而,当前人才培养体系面临课程滞后、校企合作浅层化、实践场景悬浮化等结构性矛盾,难以适应智媒体时代的复合型能力需求。本研究以技术迭代与行业重构为背景,探讨播音与主持人才核心能力模型的重构路径,旨在为破解教育供给与行业需求错配问题提供理论框架与实践策略,推动行业从“工具革命”迈向“价值升维”的可持续发展。
1 智媒时代播音与主持行业的变革与挑战
AIGC的定义可以从多种角度进行阐述,而其核心是通过人工智能技术自动生成内容。从狭义的角度定义,AIGC是利用人工智能技术,通过算法和模型生成特定内容的生产方式;从广义的角度定义,AIGC不仅是一种内容生产方式,更是一种技术集合,包括生成对抗网络、多模态技术、大型预训练模型等,这些技术共同推进了人工智能在内容生成领域的广泛应用。而AIGC技术通过提高生产效率、降低技术门槛、促进内容多样化和推动媒体融合,正在深刻改变媒体内容生产流程,推动播音与主持行业向智能化、个性化和高效化方向发展。
1.1 技术迭代与行业重构
在AIGC技术浪潮的冲击下,播音与主持行业正站在“工具革命”与“价值重塑”的十字路口。从虚拟主播的常态化落地到语音合成技术的平民化普及,AI不仅重构了内容生产的效率逻辑,更倒逼从业者重新回答了一个根本命题:当机器能够模仿人类的声音与形象,专业壁垒何在?“人机协同”的新范式——技术替代标准化的“技能重复”成为答案的指向,为播音与主持专业人才释放出创意深耕与情感共鸣的广阔空间。这一进程中,播音主持的核心价值正从“传递信息的精准性”转向“赋予内容以人性温度”,而驾驭技术而非被技术驾驭,将成为未来职业竞争力的关键锚点。
2022年全国两会期间,真人王冠与AI超仿真主播王冠同屏《“冠”察两会》,用全新的方式带给观众诸多惊喜。新华社推出全球首位AI合成主播“新小浩”,通过深度学习技术实现文本到视频的自动生成,播报效率较传统模式提升80%,且能够模拟真人主播的微表情与语调变化。截至2023年,全国已有27家省级电视台引入AI主播,承担天气预报、财经播报等标准化任务。天气预报、财经快讯等程式化播报岗位可能被AI取代。例如,韩国MBN电视台AI主播“金柱夏”已承担20%的日常新闻播报任务。全媒体时代下,非播音与主持专业的从业者(如网红、博主)亦可通过AI工具生成专业级配音视频,加剧行业竞争。
AIGC时代的到来,标准化播报、程式化配音等重复性工作必然面临着被人工智能所替代。但AIGC对播音与主持行业的影响本质是“技术赋能”而非“职业消亡”。机械重复的“工具型”岗位固然将被取代和淘汰,而全新的“创意驱动型”职业生态将迎来全面激活与升级。
1.2 职业化需求升级
AIGC技术的迅猛发展正在重塑播音与主持行业的职业生态,从底层技能结构到顶层价值逻辑均面临系统性升级需求。这一进程中,职业化需求的核心从“单一媒介表达能力”转向“技术驾驭力+人文创造力+人机协同力”的复合型能力模型。以语音克隆技术为例,Resemble AI仅需5分钟真人音频即可生成高度拟真的数字音色,这一技术正在改写配音行业规则。某省级电台主持人曾分享实践案例:利用Resemble AI克隆个人音色后,AI自动生成的广告配音效率提升3倍,但必须人工介入调整情感颗粒度——例如在公益广告中需强化“温暖感”,需手动调节语速、停顿和音高参数,避免机械感。而数字人技术的普及,则要求主持人掌握“虚拟分身”的运营能力。央视冬奥会期间,记者王冰冰与虚拟数字人“小C”的互动报道引发关注。这一案例背后,是团队对人工智能工具链的深度应用:主持人需理解表情绑定原理,通过48个面部混合形态调整虚拟人的微表情;同时需与工程师协作设计动作捕捉方案,确保数字人的肢体语言与真人主持的情绪同步。这标志着职业能力从“单一播报”转向“跨技术工种协同”。更前沿的挑战在于对生成算法的主动干预。湖南卫视《声生不息》节目中,技术团队使用AI修复老唱片音轨时,主持人需向观众解释降噪算法原理以增强互动可信度。这种“技术解释力”正成为新职业素养——主持人不仅要会用AI工具,更要理解Transformer架构如何处理音频频谱、扩散模型如何逐步去噪生成高清音轨。唯有如此,才能在AI生成内容出现偏差时(如修复过度导致音色失真)快速定位问题,实现精准人工纠偏。
技术认知层面,理解算法底层逻辑成为播音与主持专业的必修课。现已有高校播音与主持专业开设《生成式AI技术原理》课程,学生通过可视化工具观察扩散模型(Diffusion Model)的迭代过程:从高斯噪声逐步生成清晰图像,这一原理同样适用于AI语音合成。当主持人知晓Stable Diffusion的潜在空间(Latent Space)映射机制,就能更科学地设计提示词(Prompt)——例如在文旅节目中,输入“江南水乡+水墨质感+4K超清”等结构化指令,可使AI生成的背景画面更贴合节目调性。
垂直领域的专业化则呈现“技术赋能型知识深化”特征。凤凰卫视财经主播安东在报道美联储加息时,会调用彭博GPT分析历史数据,但需人工校验AI可能忽略的地缘政治变量;北京台《法治进行时》主持人则与法律AI系统协作,实时检索相似案例判决书,但必须结合司法实践解读法条适用性差异。这种“人脑+AI”的复合决策模式,要求主持人既掌握垂类知识框架,又熟悉领域专用工具的操作边界。
人文伦理素养的权重则被提到前所未有的高度。2023年某地方台AI生成的主持人形象因过度“网红化”引发争议,暴露出算法偏见问题——训练数据中的颜值偏好被无意识复刻。这要求从业者必须具备算法伦理审查能力:使用开源工具(如IBM AI Fairness 360)检测语音合成模型是否存在性别声调偏见,通过重采样技术平衡方言数据占比以避免文化歧视。更深层的挑战在于价值引导,如央视《经典咏流传》团队在AI生成古风音乐时,需人工确保旋律走向符合“哀而不伤”的中式美学原则,这依赖主持人对传统文化精神的深度把握。
在AIGC技术的渗透下,播音主持行业的职业能力已不再局限于传统的话筒前表达。从业者需深度融入AI生产全链条,成为“技术逻辑的翻译者”与“人机协作的指挥官”。
2 智媒体播音与主持人才的核心能力模型构建
智媒体的核心特征体现为万物皆媒、人机共生、自我进化。智媒体时代,AIGC技术推动播音与主持行业从“技能本位”向“价值创造”跃迁。核心能力模型需突破传统单一媒介表达能力框架,构建以“技术驾驭力+人文创造力+跨学科协同力”为支柱的复合型能力体系。
2.1 技术驾驭与算法干预能力
AIGC技术的出现使得传统播音主持行业对技能的需求发生了显著变化。传统播音主持专业强调语言表达和艺术表现力,但随着AIGC技术的普及,播音主持人才需要具备更多元化的技能。
播音与主持专业中有声语言的表达技巧是播音员与主持人进行有声语言表达创作的基础,播音与主持专业人才首先应对相关基础知识及技巧有扎实的储备。能够通过情景再现、内在语和对象感三项有声语言表达内部技巧深刻地理解创作依据,并灵活地通过停连、重音、语气和节奏呈现于声音形式上进行适情适境的表达。
同时,伴随AIGC技术的发展,智媒体播音与主持人才应掌握AIGC工具链,如语音克隆、数字人驱动平台等的操作技能。同时,应理解算法底层逻辑,熟悉人工智能架构的音视频处理机制,从而精准地设计提示词或调整参数以优化生成效果。将播音与主持专业的相关理论基础知识与AIGC技术相结合,才能够在AI生成内容出现偏差时(如语音情感失真、停连重音把握不当、事实性错误),快速定位问题,并运用播音与主持专业基础知识进行人工干预。
2.2 人文创造力与情感共鸣能力
智媒体播音与主持人才须具备符合时代语境的审美素养。语境(context)是1923年人类学家马林诺夫斯基(B.Malinowski)提出的概念,指语言运用的环境因素。其中,情境语境是现实的语言环境,文化语境是非语言性语境。无论传播方式和传播环境如何发展与变化,播音员与主持人在进行创作工作时把控语境的变化、重视有声语言表达的语境化处理是播音与主持工作需承载的文化传播的社会责任。在传统文化类节目中,主持人需通过声调韵律的“抑扬顿挫”传递诗词意境,或借助方言语音库的AI工具强化地域文化标识。2023年央视《中国诗词大会》中,主持人龙洋与AI虚拟诗人“曲水”的对话环节,既运用AI生成诗句扩展互动维度,又通过真人主持对诗句情感内核的解读(如《将进酒》中的豪迈与悲怆),实现了技术工具与人文精神的有机融合。
AI虽能模拟人类语音的“形”,却难以捕捉情感表达的“神”。例如在公益广告配音中,主持人需根据内容场景调整“共情阈值”——留守儿童题材需在语句尾音加入轻微颤音以表现心疼,而环保主题则需通过语速渐快、音调上扬传递紧迫感。中央人民广播电台《声音中国》栏目组曾进行AB测试:AI生成的“标准化”配音虽能准确传递文本信息,但观众情感共鸣指数仅为真人配音的63%,印证了人类在情感传递中的不可替代性。
在突发新闻播报中,主持人需结合AI实时数据分析与人文价值判断,例如在灾害报道中,AI可快速生成伤亡数据与救援进展,但主持人必须通过语气调控避免引发公众恐慌,同时提炼“生命至上”“众志成城”等核心叙事点,引导舆论正向发展。凤凰卫视在2023年土耳其地震报道中,主播全荃通过AI地图呈现灾情热力图,却刻意避免播放过于惨烈的现场音效,并插入“跨国救援中的温暖瞬间”等AI筛选的积极片段,展现了人机协同下的伦理智慧。
未来,播音与主持行业的核心竞争力将取决于人类能否在技术赋能下,持续创造具有情感深度与文化厚度的内容。唯有通过能力模型的重构,才能实现从“被替代者”到“价值主导者”的转型。
3 智媒体播音与主持专业人才培养路径探究
智媒体时代的技术迭代与行业重构,对播音与主持人才培养提出了系统性革新需求。当前,人工智能技术已深度渗透内容生产全链条,但教育体系仍存在课程滞后性、校企合作浅层化、实践实训悬浮化等瓶颈,导致人才培养与行业需求存在结构性错配。本章从现存问题出发,结合学界与业界的创新实践,探索以“技术赋能+人文引领+生态协同”为核心的人才培养新范式,为构建适应智媒体生态的专业人才体系提供理论支撑与实践路径。地方本科院校的播音与主持艺术专业应抓紧机遇,培养适应新传媒生态的播音与主持艺术人才来发展壮大自己。
3.1 智媒体播音与主持人才培养现存问题:结构性矛盾凸显
当前播音与主持专业课程仍以传统语言表达、新闻播报技能为主,对人工智能、多模态生成等技术的融合深度不足。截至目前,仍仅有少量高校开设《生成式AI技术原理》课程,且多停留于工具操作层面,缺乏对算法逻辑的底层认知。学科交叉性薄弱问题尤为突出,仅有少数院校(如浙江传媒学院)尝试“播音+数据科学”“播音+数字艺术”的跨学科课程设计,导致学生难以在AIGC技术飞速发展的全媒体时代下应对虚拟主播运营、AI内容纠偏等新兴职业场景。新媒体的发展带动了播音与主持艺术专业的人才就业,但同时这也对高校播音与主持专业的建设产生了结构性的影响。
尽管87%的高校宣称建立校企合作机制,但实际合作多局限于“参观实习”“讲座授课”等浅层互动。部分高校尝试引入AI配音平台合作,但因缺乏课程共建、师资共培等深度协作,最终沦为“工具借用式”实训。此外,行业头部技术资源(如华为盘古大模型、腾讯数字人引擎)向教育端渗透不足,学生接触的实训工具多为功能简化的开源软件,与业界技术代差高达3~5年。
现有实践教学仍以模拟传统广电场景为主,缺乏对智媒体生态的真实还原。某高校《全媒体主持》课程中,学生使用AI生成新闻稿的比例不足15%,且评价标准仍以“语音标准度”“镜头表现力”为核心,忽视对提示词设计、多模态内容联动的能力考核。调查显示,63%的毕业生入职后需重新学习AI剪辑、数字人驱动等技能,暴露出教育供给与岗位需求的严重脱节。
3.2 智媒体播音与主持人才培养创新路径:技术赋能与生态重构
针对播音与主持专业传统课程与智媒体技术脱节的痛点,需以“技术认知-交叉应用-伦理实践”为轴线重构课程体系。在教学中注重理论与实践的结合,通过案例教学、项目驱动等方式,使学生在实践中学习和成长,从而更好地适应行业需求。在技术认知层面,开设如《生成式AI技术原理》《多模态内容生成技术》等相关专业课程,通过可视化工具解析算法逻辑。将行业级工具嵌入教学,如教授Adobe Podcast AI进行智能降噪与语音修复,利用Resemble AI完成个性化音色克隆。中国传媒大学已试点“AI工具周课”,学生需在《智能配音实践》中对比人工智能工具的语音情感渲染差异,并撰写技术评估报告。在交叉应用层面,与各学科、各专业进行跨界融合,以真实需求驱动跨学科协作。如“乡村振兴直播助农项目”中,播音与专业与计算机专业相融合,开发方言语音识别系统,实现农产品介绍的“普通话方言”实时互译;在《文化类节目主持》课程中,学生可利用人工智能生成历史场景插画,并设计AR导览交互脚本。在伦理实践层面,运用人工智能进行案例库建设,编制《智媒体伦理争议100例》,涵盖AI换脸侵权、语音克隆诈骗等场景。例如,在《媒体技术伦理》课程中,学生分组模拟“突发新闻AI播报”决策:一组使用AI生成灾情视频以提升传播效率,另一组评估内容可能引发的公众恐慌风险,最终通过辩论形成伦理操作指南。
同时,智媒体播音与主持专业人才培养要破解校企合作“形式化”困境,构建资源、师资、项目、评价的全链条协同机制。与头部科技企业共建“智媒体技术实验室”,高校向企业开放“垂类语音数据库”,如四川音乐学院联合腾讯建设“方言保护语音库”,收录川渝地区特色方言音频10万条,用于优化AI方言合成模型。聘请企业技术骨干担任“产业教授”,如新华社AI合成主播团队负责人定期授课,分享“新小浩”数字人的动作捕捉优化方案。实施“教师AI能力认证计划”,要求专业教师通过百度飞桨AI开发工程师认证,并将工具应用嵌入教学设计。浙江传媒学院已有43%的播音专业教师获得AIGC技术认证。与地方广电联合开发“轻量化AI工具包”,如苏州广电总台与苏州大学合作推出“AI字幕生成插件”,可自动识别吴语方言并生成双语字幕,效率较人工提升70%。
在实训实践的专业人才培养方面,应突破传统实训的“场景悬浮化”局限,构建“虚拟仿真-赛事驱动-真实交付”的立体化训练体系。学生可在虚拟场景中训练“多模态内容协同”能力,例如在播报体育赛事时,同步操控虚拟大屏的AI实时数据可视化图表。部署智能实训辅助平台,如南京传媒学院引入的“播咖AI教练”,可实时检测学生语音的断句错误、情感偏离,并生成三维热力图显示气息控制薄弱点。在国家级赛事中开辟智媒体专项,如全国大学生计算机设计大赛设置“AI主播创意赛”,要求选手使用D-ID平台生成数字人,并为其设计“性格标签”(如幽默型、权威型),评审侧重人设一致性、跨模态叙事流畅性。与县级融媒体中心共建“智媒体服务工作站”,学生团队为农村地区定制“AI广播系统”。例如,湖南大众传媒学院团队在湘西州设计“苗语-普通话AI双语播报系统”,解决少数民族地区信息传播障碍。承接企业外包需求,如深圳大学播音系与喜马拉雅合作开发“AI有声书生产线”,学生负责审核AI生成的悬疑小说配音,标记“情感平淡”“节奏拖沓”段落并反馈优化,项目累计处理音频时长超5000小时,孵化3款付费Top100有声产品。实现从课堂到行业的无缝衔接。
3.3 智媒体播音与主持人才培养未来展望
随着大模型技术向教育领域渗透,未来播音与主持专业人才培养将呈现“一人一案”特征。通过AI学情分析系统(如基于Transformer架构的个性化学习路径推荐),系统可动态识别学生能力短板,自动匹配实训项目与导师资源。例如,对算法理解力较弱的学生侧重可视化教学,而对创意表现力突出者则强化跨界叙事训练。
播音主持人才的角色将向“人机协同生态设计师”演变。需掌握数字人IP运营、AI内容风控、多智能体系统调度等高阶技能,例如设计虚拟主播的“情感响应规则”(如瞳孔缩放与语料情感值联动),或构建AI生成内容的伦理审查流水线。职业评价标准也将从“播报准确度”转向“生态贡献度”,包括技术工具创新、人机协作模式优化等维度。
高校、企业、技术开发者共享教学资源与技术工具链,例如共建Prompt优化数据库、数字人开源模型库,形成“技术迭代-教学应用-反馈优化”的正向循环。此类生态将打破地域与机构壁垒,使偏远地区院校也能获取头部技术资源,推动教育公平与质量提升。
智能语音技术在播音与主持领域的应用日益广泛及深入,以其高效性、多变性以及准确性提升了传播效率,为受众的视听体验提供了更多元的选择。智媒体时代播音主持人才培养的革新,本质是一场“教育供给侧结构性改革”。通过课程体系的重构、校企合作的深化、实践场景的升维,教育主体需构建“技术为基、人文为魂、生态为体”的三维赋能模型。未来,唯有以动态适配回应技术变革,以价值升维超越工具理性,才能培养出兼具算法驾驭力、文化洞察力与生态构建力的新一代智媒人才,实现从“职业跟随者”到“行业定义者”的跨越式发展。
4 结论
智媒体时代播音与主持行业的变革本质是技术赋能下的人机关系重构。研究表明,AIGC技术虽冲击传统岗位,却为行业激活了创意驱动的新生态:人类从业者的核心价值在于通过情感共鸣、文化阐释与伦理判断,实现技术工具与人文精神的有机融合。人才培养路径需以“动态能力构建”为核心,打破学科壁垒,深化技术认知与人文素养的双向赋能。通过校企共建技术实验室、开发轻量化AI工具包、实施真实项目交付等实践,可有效弥合教育供给与行业需求鸿沟。未来,随着大模型技术向教育领域渗透,个性化学习路径与开源生态协作将成为关键趋势。播音与主持教育的革新不仅是技术适配,更是价值升维——唯有坚持“技术为基、人文为魂、生态为体”的三维模型,才能培养出驾驭智能工具、引领内容创新、守护传播伦理的新一代行业定义者,推动人机协同从效率革命走向文明共创。
参考文献:
- [1] 彭兰.媒介视角下的平台[J].现代出版,2025(04):1-12.
- [2] 聂志腾.媒介融合背景下地方本科院校播音与主持艺术专业人才培养模式转型探析[J].西部广播电视,2021,42(09):51-53.
- [3] 肖潇,安龙飞.媒介融合背景下播音与主持艺术专业人才培养的教学改革[J].中国主持传播研究,2019(01):68-76.
- [4] 任中坤.浅谈电视节目主持人的素质修养[J].中国广播电视学刊,2010(01):66.
