在我国深入推进实施教育数字化转型战略的背景下,数字教育市场规模不断攀高,产品形态加速升级。2022年在线教育、知识付费、在线阅读、智慧教育、教育硬件等数字教育类产品用户规模达3.14亿人、市场规模达3620亿元,增幅分别达到了5.36%和12.42%。国内仅教育类APP的数量就超过了15万款。2023年ChatGPT火爆全球,百度(文心一言)、抖音(云雀大模型)、智谱AI(智谱清言)等国内8家大模型产品成为新一代AIGC的弄潮者,其中也涵盖了多种数字教育应用内容。
以人工智能为核心的数字教育,既是教育强国发展的重大机遇,也是一种挑战,需要加强监管。为此,国家相关部门出台系列监管政策,规范内容使用边界、平台开发、行业应用等。如国家网信办发布的《生成式人工智能服务管理暂行办法》和中央网信办发布的《全球人工智能治理倡议》。国际上,联合国教科文组织在2023年初发布《数字平台监管指南》的基础上,9月推出《教育与研究领域生成式人工智能指南》,呼吁各国政府通过制定法规、培训教师等,规范生成式人工智能在教育中的应用。
在监管政策落地推进中,一些治理困境逐渐显露:现有的备案制度难以全景展现数字教育产品的使用过程,惰化思维、超纲教学、商业算法逐利等问题还处于社群举报为主的阶段;其他业务关联部委的监管口径对垂直行业应用指导有限;数字教育产品本身的形态推陈出新,从教育APP、小程序、云平台、资源库到大模型,亟须对教育规律下的线上线下认知发展进行系统性研究,来适应数字技术快速发展的时代带来的监管新挑战,克服一管就死、一放就乱的两极现象。
1挑战 数字教育应用发展中的监管挑战
数字技术变革教育的大趋势下,备案和通知整改的弱监管被动状态,将越来越不适应数字教育产品,在教学管评测全场景中复杂又深入的融合趋势,更需要关注在服务过程中进行实时监管。当前,推进事前、事中、事后一体化监管主要面临四类挑战。
第一,监管类型不完备。在官方“教育移动互联网应用程序备案管理”平台上,仅对教育类APP、小程序进行备案管理。校园在用的教学云平台、各类学科数字资源库以及教育类大模型都还未进入监管范畴。同时,备案级管理信息仅限于查阅产品名称、版本及变更、开发应用主体等信息,对数字教育产品中的过程性学情数据缺乏监管技术手段和数据要素获取渠道。
第二,链路溯源不完整。在广告、虚假宣传、引诱使用、价格欺诈和强制收费等链接的自动侦测方面已有较好的技术支撑,但对于数字教育产品中涉及未成年学生教育及成长类数据的无序公开、隐私泄露等不当情况的追踪技术还需加快攻关跟进,突破数据存储分散、传播环境复杂等现实痛点,才能保障线上学习环境的健康可持续发展。
第三,算法规则不科学。在商业算法重逐利和教育算法促认知的对弈中,前者带来的信息认知茧房效应已经引起社会感知,但改进效果还不明显:追求学习者偏好的推荐算法可能引发过早偏科,迎合博流量心理的生成算法会分散学习者在线注意力等。同时,在对育人导向的算法实现中,分年龄、分学科的科学设计还需更多的教育研究者共同参与,才能回归到数字教育应用围绕人才成长规律的主线上来。
第四,认知评估不全面。线下校园环境中的学业(含体质心理等)评估已是较为成熟的体系。但在线学习环境下,学习者的思考学习过程是否真实发生、个性化与规模化如何兼顾、学科内的前序知识与接续内容之间的关联设计是否契合认知规律、数字教育类应用对学习者的社会情感等健全人格培养产生何种影响等领域的认知评估工作还有很大的待研究空间。
2可能性 数字智能技术提供的新型监管可能性
随着分布式服务汇聚与编排、预训练大模型、多模态语义理解、认知图谱等数字智能技术的发展,为对数字教育服务进行更为深入的监管提供了新的可能。
一是,生成式语义挖掘技术的发展,将促进内容监管颗粒度更精准。传统技术应用对静态图文的语义解析较为成熟,但对新出现的音视频数字教育资源及生成式智能内容的筛查能力不足。数字智能技术在多粒度多模态表示技术的教育内容审查模型等领域的发展,将突破线上学科资源繁多,不当内容、不良信息隐匿性强的瓶颈,在实现人工智能驱动的数字教育内容深度语义理解、构建审查图谱、增强审查依据的可解释性方面有新的贡献。
二是,污点传播技术的发展,将促进数字资源可追踪性提高。数字教育平台中编码维度不全、各级规则不一致难以共享、数据扩散路径难以协同追溯的问题一直困扰着监管机构。在数字教育产品规模庞大、场景复杂,现有审查能力不足的现状下,基于新的数据智能标注技术、多标签图片识别等的协同研究,将覆盖提供者、使用者、监管者构建三维信息编码库,对未成年人数据使用不当问题,不当个人信息、学情传播问题,异常页面链接问题等动态监测需求,形成新的技术支撑力量,提升标记率和自动侦测率的精度升级。
三是,智能算法诊断技术的发展,将促进虚实融合学习场景更符合认知发展规律。由于数字教育应用的开发主体实际掌握着产品的算法话语权,备案信息与市场服务重点之间的鸿沟长期存在,监管主体难以直接纠正算法设计理念,多以事后不当行为约谈、罚款、下架等方式治理,相对被动。在算法透明度研究的支持下,从数据层、代码层、产品层构建算法透明度模型和自动纠偏机制,将有效抑制算法歧视、偏见、沉迷等问题,面向在线学习行为轨迹,刻画个体+群体学情画像,分学段、分场景、自适应地采集青少年认知发展的动态数据,提升认知评估精度。
3治理 技术向善原则下的治理建议
数字教育应当是公平包容、更有质量、适合人人、绿色发展、开放合作的教育。在以人工智能为代表的数字技术体系越来越深度融入教育教学活动的进程中,秉承技术向善、精准适切的原则推动数字教育应用的发展与治理,笔者提出4个方面的治理建议。
第一,治理理念上,呼应老百姓对个性化教育资源供给的需要,推动数字教育服务供给转型。教育理念上,越来越多的家长在接受孩子的独特性、培养路径多元化方面有了共识。智能技术上,对学习者在感觉、知觉、记忆、思维、想象等能力方面不同学段、不同区域、不同学科中呈现出的认知规律差异有了更多的探知手段支撑。由此建议,在数字教育应用的治理理念上,回应老百姓对个性化培养所追求的数字教育资源供给需要,统筹国家智慧教育公共服务平台中的数字资源供给体系,构建虚实融合的、开放的协作空间和灵活多元的协作机制;转变教育供给模式,形成社会化协同的教育公共服务供给新形态,实现供给方式从面向群体的统一供给转变为面向个体的基于全学习过程轨迹的适应性供给;供给形态从单一供给转变为全社会协同供给。
第二,治理手段上,牢牢把握数字教育产品的算法话语权,推动数字教育应用设计的透明公平。数据、算法和算力是人工智能技术的核心三要素。其中,算法是数字教育应用的设计灵魂。过往出现的一味迎合用户使用偏好,导致学习者偏科现象、超纲超标资源供给引发的家长焦虑、拍照搜题引发的思维惰化趋势等就是治理领域缺乏对算法话语权有效调节手段的后果。因此,治理的核心内容重点为强化对算法设计逻辑的备案和巡检;在当前事后治理的现状下,鼓励研究团队加快对算法透明度模型的研究,减少算法歧视、偏见、沉迷等不当现象的发生率;加快对数字教育应用校园级使用的准入标准研究,将治理周期推进到事前有标准—事中有监测—事后有策略的全周期治理模式。
第三,治理规范上,行政机关、各类学校、师生家长和开发者团队规约使用,推动数据要素有序流动和溯源可控。在两年来的教育数字化战略实施行动中,数据的采集工作已基本顺畅,后续的数据要素治理工作将进入到“加工—融通—维护”等环节。由此建议,在数字教育应用的治理规范上,行政机关、各类学校、师生家长和开发者团队四大类主体按照规约推进数据加工、数据融通和数据维护工作。加工方面,对各主体产生的元数据进行分类、命名、排序、汇总等步骤,以便于在不同类型的数据中进行统一的检索和可视化。融通方面,通过分析工具来对元数据进行关联分析、影响分析、统计分析等,以更好地理解数据之间的相互关系,发挥数据价值支撑治理决策。维护方面,由行政机关审批,开发者团队定期执行数据的更新、安全监测等工作。在此基础上,形成数据要素有序流动和溯源可控的良性局面。
第四,治理机制上,建立数字教育应用审核责任体系,推动分业务审核汇聚成多元共治的一盘棋保障格局。数字教育应用的使用场景对应线上学习环境或虚实融合环境。在网络空间治理领域,涉及教学内容—信息保护—风险监管等多个分项业务范畴。在数字教育应用类治理机制上建议:数字教学内容监管方面,按照谁上线谁负责原则,实施上线必审、更新必审、审必到位。重点对影响学生独立思考、无效重复性作业等不当学科教学内容和低俗恶俗、教唆诱导、校园欺凌等不良信息进行“技术监测+社群举报”治理。在信息保护领域,按照国家相关法律法规要求,重点对未成年学生教育及成长类数据的无序公开、挖掘滥用、隐私泄露等不当传播行为进行“标注技术研发+溯源”治理。在建立了风险预警能力及动态更新的数字教育应用黑白名单库的综合监管体系基础上,积极鼓励针对家庭、学校和社会场景,构建数字教育产品对认知发展的关键影响路径识别库,以客观真实的在线学习行为轨迹和学情画像,支撑推动技术向善原则下数字教育应用的健康可持续发展。
作者/童莉莉,系北京师范大学副教授、教育部教育信息化战略研究基地[北京]副主任
编辑/崔毅飞