教育人工智能伦理:基本向度与风险消解
摘要: 教育与人工智能的融合已成为教育改革的重要趋势。随着人工智能在教育领域应用的不断深化,教育人工智能伦理及其风险也引发了社会公众的广泛关注。通过对技术伦理和教育人工智能伦理的内涵与特征诠释,梳理了教育人工智能伦理原则的四个向度,即算法向度、关系向度、情感向度和资源向度。研究发现,教育人工智能伦理风险主要体现为:智能算法功能存在技术缺陷、师生的教育主体地位消解、数据赋能难以浸润情感体验、资源服务价值遮蔽与蜕化等多方面风险。据此,提出了构建人工智能算法伦理风险全过程监管体系、加强对智能教育主体动摇的风险调控、塑造助力情感智能与人文关怀相融的文化愿景、构建智能资源应用的校本化风险防范体系等风险消解路径。
教育与人工智能的融合已成为教育改革的重要趋势。随着人工智能在教育领域应用的不断深化,教育人工智能伦理及其风险也引发了社会公众的广泛关注。通过对技术伦理和教育人工智能伦理的内涵与特征诠释,梳理了教育人工智能伦理原则的四个向度,即算法向度、关系向度、情感向度和资源向度。研究发现,教育人工智能伦理风险主要体现为:智能算法功能存在技术缺陷、师生的教育主体地位消解、数据赋能难以浸润情感体验、资源服务价值遮蔽与蜕化等多方面风险。据此,提出了构建人工智能算法伦理风险全过程监管体系、加强对智能教育主体动摇的风险调控、塑造助力情感智能与人文关怀相融的文化愿景、构建智能资源应用的校本化风险防范体系等风险消解路径。
【关键词】教育人工智能;伦理;伦理原则;智能算法;消解路径
二十一世纪以来,大数据、云计算、物联网等信息技术实现快速升级与发展,并推动以深度神经网络、情感计算等为代表的人工智能技术飞速发展。人工智能(Artificial Intelligence,简称AI)与教育教学的融合逐渐成为社会关注热点,我国也逐渐对智能教育创新发展予以关注与重视。国务院2017年7月颁布的《新一代人工智能发展规划》提出要发展智能教育,利用智能技术加快推动人才培养模式以及教学方法的改革,推动人工智能在教学、管理、资源建设等方面的应用[1]。在人工智能与教育相互融合发展的过程中, 教育的“育人性”与人工智能的“技术效用性”时刻都在冲突与碰撞,数据泄露、算法偏见等伦理问题备受关注。2019年,联合国教科文组织发布的《北京共识人工智能与教育》提出了教育人工智能伦理的决策原则[2]。目前,在我国大力推进智能社会建设的背景下,认识、理解并规避教育人工智能的伦理风险成为智能社会教育发展的关键议题。为此,本文尝试诠释教育人工智能的技术逻辑、伦理向度与伦理风险,挖掘教育人工智能伦理风险的消解路径,以期能为新时代教育人工智能的合理化发展提供价值参照。
一、教育人工智能的技术逻辑
作为计算机科学的一个分支,人工智能的主要目标是优化常规运算流程,提高其运算速度和效率。在教育领域,教育机器人、智能教室、智能终端等成为教 育人工智能领域的热点词汇。哲学家赵汀阳认为“人工智能没有必要像人”,然而,当前层出不穷的教育人工智能产品或系统大多将“类人”属性作为产品的关键属性,不断追求技术产品对“人”的个体功能的超越,忽视技术本身所存在的工具局限性,从而陷入哗众取宠的技术误区,引发出现人工智能应用的失范现象。基于人工智能的决策与服务并非完全是价值中立的,无论是数据采集、挖掘与使用,均离不开“人”的因素参与其中,因此,教育人工智能的实际应用也是人与智能技术互动的过程。人工智能的技术逻辑与作为个体的人是否存在冲突也是教育人工智能伦理问题产生的根源。
从人工智能的技术特性来看,张鑫等认为人工智能不同于常规计算机技术依据既定程序执行计算或控制等任务,其具有生物智能的自学习、自组织、自适应、自行动等特征[3]。刘瑛等指出,当前的人工智能呈现出两个发展特点:第一,学习能力增强。人工智能依赖学习算法,在每次运行过程中自我纠正、自我改进;第二,不定性处理能力增强。人工智能不仅仅是按照算法的指令按部就班地处理问题,而是根据实际状况灵活变通[4] 。综合来看,追求类人思维和认知能力的人工智能逐渐形成了三个基本特征:一是学习,即获取和处理新体验,创建新行为模型;二是自我纠正,即改进算法以确保最准确的结果;三是推理,即应用特定算法来解决特定任务。
由此可见,人工智能的技术逻辑是一种基于知识库(数据)和逻辑规则(算法)的“计算与表征”系统,包括知识的搜集、处理、生成、匹配和推荐[5]。具体而言,人工智能需通过度量现实世界而得到数据,基于智能算法的机器学习可从大量数据样本中自动学习数据的隐性结构和存在规律,进行数据训练与数据模型构建,并依此模型来进行相关决策。个人因算法模型的决策而受到影响时,将进一步映射到现实世界。当这些决策作用于个人并得到反馈,可用于进一步优化算法模型。在此基础上,聚焦于教育领域,可将教育人工智能的技术逻辑借助图1予以可视化表征,其本质上是对教育人工智能场域中的算法技术、数据度量、数据决策、机器学习等要素的思量与审视,由此,可进一步将教育人工智能技术逻辑的主要应用归纳为以下四个方面。
(一)智能算法助力个性化教学的精准实现
算法设计与运行是决定教育人工智能服务功效的基础条件,也是决定教育人工智能的技术逻辑存在与改进的关键所在。从技术赋能的角度来看,当前学界对于信息技术赋能个性化教学的研究并不少见,然而,传统信息技术很难通过机器学习过程在个性化教学决策与反馈层面实现技术突破。与传统信息技术相比,人工智能在助力精准教学实现层面具有独到优势,智能算法的设计与运行有助于个性化教学的精准实现。在具体的教育情境中,教师能通过智能算法分析掌握每个同学的真实学习情况,更具精准性地开展个性化教学。人工智能算法借助机器学习与数据挖掘过程,能够对学生已有知识经验、学习情况和学习轨迹作出精准捕捉与分析,并能精确定位不同学习者的学习需求,根据不同学习者的具体需求定制个性化学习方案,从而有助于精准提升学习者的学习效率。
(二)智能度量助力教育主体知能多维延展
感知与度量是教育人工智能实践得以有效推进的信号源,智能度量有助于促进教育主体知能多维延展。人工智能不仅可促进教育主体(即师生)教学需求或学习需求的动态监测,而且可通过情感计算、自然语言处理、人脸识别、语音识别等智能技术对教育状态进行智能度量与监测,致力于满足师生的个性化 需求,从而达成师生个体知能高质量发展的高阶目标。一般而言,知能是指智慧才能,泛指观察、想象、判断和思考等各种能力。人工智能通过对教育场域下人、事、物的状态感知与智能度量,促使教育主体获取教育资源的机会与方式发生重大转变,可通过资源共享、精准帮扶等方式促进教师专业发展,也可为有 学习问题或者位处不利状态的学生开辟新的互动方式与空间,为教育主体知能多维延展提供更多便利,促进师生在人工智能工具的帮扶下实现知识与能力 的训练与发展。
(三)数据决策助推教育服务质量有效改进
数据智能是教育人工智能服务得以供给的关键支撑,基于数据的决策机制有利于助推教育服务质量有效改进。对于课程教学而言,人工智能技术的数据分析及决策功能可帮助教师减轻工作负担,促进教育服务质量的有效改进。在教师的日常工作中包含许多需要通过数据处理来进行决策的工作,如考勤、评分和回复学生等。在人工智能辅助下,教师能够训练AI驱动的分级工具来显示每个学生的学习进度信息,从而更好地进行教学与评价。对于课外辅导而言,AI导师的引入能够助力学习者更好地跟上课程进度,基于AI的聊天机器人或虚拟个人助理能够响应一系列学习风格,使课业辅导和学习规划变得越来越先进便捷,同时也能帮助教师节省时间、减轻工作负担。
(四)机器学习助力数字化教学资源生成与创新
机器学习是人工智能技术逻辑的关键环节,其在一定程度上有助于数字化教学资源生成与创新。借助机器学习与文本挖掘,人工智能在教学内容生成、整合与更新方面也具有独特优势。目前,数字课程与教材的建设已逐渐常态化,数字资源智能共享与推荐成为助推在线教学资源库建设的有效途径,能够更为高效地收集不同时间段和不同空间区域的多种资源类别。随着机器学习、大数据等技术的持续升级,未来人工智能有可能在数字学习接口与定制、数字教科书和自适应学习指南等方面实现重大突破,机器学习的存在有助于数字化教学资源库建设。智能时代数字化教学资源建设不仅应关注多类网络教学资源的智慧整合,而且应注重数字化教学资源的个性化定制与生成,诸多基于教情与学情的人性化在线教学资源将有可能在智能时代实现动态整合与实时共享。
二、技术伦理:教育人工智能伦理的本质属性
(一)技术伦理的概念诠释
对于技术伦理的本质探讨最早可追溯到先秦的“抑奢”主张及墨子的“道技合一”思想。老子的“道法自然”告诫我们不能以反自然的技术方式改变自然,而要对他人、自己和天地自然保持敬畏。古希腊亚里士多德认为所有的技术、计划和实践都是为了某种善,这一思想也包含了技术方面的伦理问题。18世纪,卢梭开启了对技术进行伦理批判的先河,他指出,科技作为工具被应用的过程必然面临着道德伦理问题。马克思在《资本论》中提出了深刻的技术批判,并指出了未来技术伦理的可能。20世纪70年代以来,以汉斯·萨克瑟(Hans Sachsse)和汉斯·尤纳斯(Hans Jonas)等为代表的欧美技术哲学界开始关注技术伦理问题。计算机伦理学创始人詹姆斯·摩尔(James H. Moor)根据机器人可能具有的价值与伦理因素将计算机分为四类,分别是有伦理影响的计算机 (Ethical impact agent,即有价值和伦理意图的计算机)、隐形伦理计算机(Implicit ethical agents,即内置了隐含的伦理设计的计算机)、显性伦理计算机(Explicit ethical agents,即根据形势变化采取合理行动的计算机)和完全伦理计算机(Full ethical agents,即和人一样具有意识的计算机)[6]。基于技术伦理的研究爬梳,本研究将技术伦理界定为:在技术开发、应用等过程中,涉及技术与人、技术与社会之间关系的道理与准则。
(二)教育人工智能伦理的概念诠释
伴随着人工智能技术的蓬勃发展,教育形态由“互联网+教育”升级为“人工智能+教育”。教育人工智能的伦理问题成为亟待解决的核心议题。于雪等按照“界定一理解一表述”的逻辑顺序,提出人工智能伦理的定义:在人工智能产品、服务、应用与治理中,智能体(人与智能机器)所应该遵循的一般伦理原则和行为规范[7]。Ryan 等认为,人工智能伦理是人工智能在解释外部数据、利用数据学习、通过灵活的自主调适以实现特定目标和任务等过程中应当遵守的指导准则[8]。综合多位学者对于人工智能伦理的内涵界定,本研究将人工智能伦理界定为“人工智能开发、应用等方面所应遵循的道理及准则,其聚焦人工智能的道德发展和部署”。
聚焦于教育领域人工智能伦理,多数学者倾向于从人的角度出发以理解教育人工智能伦理的本质,辨明教育人工智能开发与应用过程中的关系与行为。例如,刘三女牙等指出,教育人工智能伦理是教育领域人工智能伦理的具体体现,也可视为人工智能伦理在教育场域的映射,其本质上仍属于技术伦理研究范畴,其研究范畴主要涉及教育主体与具有技术属性的人工智能间的道德关系[9];李晓岩等认为,在教育伦理范畴视角下,教育人工智能伦理的内涵即教育教学过程中“人”与“人工智能”间的道德关系[10]。综合上述观点,可将教育人工智能伦理视为“在教育人工智能开发、应用、治理等过程中,教育主体与智能机器所应遵循的道德关系、伦理准则及行为规范” 。
作为一种技术伦理,教育人工智能伦理探讨主要参照人工智能原则,即重视问责、隐私、安全等要素。2019年5月,联合国教科文组织发布的《北京共识 人工智能与教育》指出,各国教育人工智能政策的制定应遵循以人为本、跨界协作、公平全纳等三个原则。梳理相关学者的已有研究发现(如表1所示),大多将教育人工智能伦理原则聚焦于问责、公平、透明和自治等。归纳可知,虽有学者尝试从教育伦理与技术伦理整合的角度来理解教育人工智能伦理,但“技术伦理”仍可看作伦理分析的核心主体,教育人工智能伦理分析很难跳脱教育人工智能的技术逻辑,数据隐私、算法稳定、决策公平等方面依然是诸多教育人工智能伦理研究的焦点向度。与此同时,已有研究虽高度重视教育人工智能伦理并论及了相关原则,但缺乏进一步的分析与探讨,亟待构建更具普适性、更能突出教育本质和价值追求的教育人工智能伦理分析向度。
(三)教育人工智能伦理的特征解读
在教育人工智能的运转过程中,没有哪个技术环节是可以脱离人类参与而自主进行的:数据需要经过采集、分类、挑选并以机器可以识别的方式输入;训练 的初始算法需要设计者编写;模型的生成和应用更是需要工程师对其进行集成、部署和调试。从一定程度来看,教育人工智能还无法脱离“人”的辅助而独立存在,而且,教育教学情境具有复杂性与多维性,人工智能的教育应用结果也存在多元性,教育人工智能运行的各个环节无一不存在伦理风险。教育人工智能对于师生利益的负面影响应引起社会公众的广泛关注,无论是一般性伦理问题(如隐私泄露、决策偏误、算法歧视等),还是特殊性伦理问题(如教育公平受损、个体主体性功能削减等)[15],其对师生等教育主体与人工智能之间和谐关系的塑造而言均可产生极大冲击。由于人工智能与教育教学领域的融合过程必然是一种技术赋能的过程,因此,对于教育人工智能伦理问题的审视可从技术赋能过程中的限制与障碍分析入手。
不同于纯粹的技术风险,教育人工智能伦理风险的产生渊源是人工智能系统的应用对现有的伦理与社会秩序的冲击。当人工智能赋能教育教学时,主要有两个方面的根本限制。其一,人工智能对教育决策结果的伦理判断能力不足。这表现在人工智能系统无法全面把握算法设计者真正的教育设计意图或者缺乏对技术伦理的整体关照,这往往导致无法产生道德化的教育人工智能指令。其二,教育用户在解决真正的伦理难题时往往意见不一、难有共识。人工智能 系统执行指令需要的时间极短,所产生的伦理问题具有突发性与应急性,若教育用户未能及时响应教育人工智能伦理难题的破解诉求,则最终造成人类对人工智能系统的错误无法进行有效干预。上述两个根本限制只有前者可以通过改善技术或者治理来应对,后者则是人类社会长期面对的困境。
综上,与其他技术带来的风险相比,教育人工智能引发的伦理风险具有独特性。其一,它与师生等人的切身利益密切相关,如果将智能算法应用在教学监测、情绪感知、学业评估等关切师生利益的场合,一旦产生歧视,将从很大程度上损害教育公平以及师生关系。其二,引发算法歧视的原因通常难以确定,深度学习是一个典型的“黑箱”算法,连设计者可能都无法知晓算法决策的具体细节,要在教育人工智能应用过程中及时识别是否存在歧视及其根源困难重重。其三,教育人工智能的发展位处多元利益的博弈过程之中,资本的逐利本性促使技术开发商更容易放任人工智能对教育权益的侵害。例如,平台等基于师生用户行为历史的数据,实现对师生等人的决策歧视;技术开发商利用人工智能有针对性地向用户投放虚假网站的广告,从中获取巨大利益等。其四,人工智能的教育应用使其一定程度上具备了公共性,教育人工智能伦理原则设计应重点关照教育系统的公共利益。
三、教育人工智能伦理的基本向度
明晰教育人工智能伦理的向度是从整体上把握教育人工智能伦理本质的关键,具体而言,可从教育人工智能伦理内容的角度,对教育人工智能伦理的基本向度予以拆解。不少学者从伦理挑战或风险的角度对教育人工智能伦理的具体向度予以阐述。例如,谭九生等认为教育人工智能存在着伦理关系失调、伦理规范失控、伦理价值失调、伦理行为异化等风险样态[16]。杜静等认为教育人工智能在技术滥用、数据泄露、智能教学机器的身份与权力边界等方面存在伦理挑战与困境[11]。冯锐等认为教育人工智能伦理风险主要表现在人工智能与教育主体的权利嬉变、算法 推荐与学生个性的发展异化、人工情感与人机互动的 情感危机、智能感知与教育数据的价值困境等四个方面[14]。王嘉毅等认为教育人工智能存在人的主体性地位实现、学习效果控制、教育与生活的关系、社会竞争和教育公平等多个方面的隐蔽性伦理风险[17]。归纳来看,以上学术观点主要涉及了算法伦理、关系伦理、情感伦理和资源伦理四个维度。结合前文所述之教育人工智能的技术逻辑,从教育人工智能的开发与应用流程来看,智能算法是其基础工具,逻辑关系是 其存在载体,人工情感是其关键特色,资源服务是其根本目标。
首先,在人工智能所涉及的伦理问题中,算法伦理居于基础地位[5],教育人工智能作为人工智能的重要组成,算法伦理向度也居于教育人工智能伦理的基础地位。其次,作为教育共同体内部最为基本的关系,师生关系是最具有伦理意义的关系[18] ,教育人工智能的介入,也让关系伦理向度有了新的内涵。再次,赫尔曼·施密茨认为,情感是整体性的气氛,是道德准则的最后一道防线。因此,作为教育人工智能的道德准则约束,情感伦理也是教育人工智能伦理向度的重要构成。最后,随着教育人工智能应用的深入,其作为资源的特性愈加明显。如有学者论述了互联网教育资源共享中的伦理问题[19] 。资源伦理是教育人工智能在更高层面的伦理审视。因此,教育人工智能伦理的基本伦理向度为算法伦理向度、关系伦理向度、情感伦理向度和资源伦理向度。
一是算法伦理向度。教育人工智能本质上是数据驱动的算法应用,算法是构成人工智能的基石,也是促进人工智能教育应用的基础。教育人工智能的技术路线是基于算法基础的形式化逻辑规则。教育人工智能作为人工智能与学习科学结合的产物,其基本属性便是算法。教育人工智能伦理在算法伦理向度上的内涵包括防止功能片面化、算法运算封闭化和算法黑箱风险等。
二是关系伦理向度。当前,教育人工智能被广泛运用到教和学,这引起了社会各界对教育主体和教育主权的深思。随着人工智能与教育的深度融合,在原有课堂的师生交互、生生交互外,还存在着人机交互、人与非人的交互[20] 。人与教育人工智能的关系边界不断被打破,且有彼此融合的趋势。教育人工智能的介入,使传统的教师主导、学生主体的教育关系受到冲击。教育人工智能伦理在关系伦理向度上的内涵包括学生的学习自主性、教师的教育主权、教育人工 智能的主权等。
三是情感伦理向度。学生的生理与情感体验是在学习交互中得到发展的,随着以理性为基础和价值取向的现代文明的昌盛,人的情感不断被压抑和边缘化。人工情感是教育人工智能尤其是社交机器人的典型特征之一,而人工虚拟感情和具有真实性的人类情感之间的失衡引发了众多伦理风险问题。受技术的工具性所限,教育人工智能很难做到对人的情感的全方位模拟,在情感体验层面的仿真功能较为薄弱。教育人工智能伦理在情感伦理向度上的内涵包括关照学生学习体验的具身性、社会情感学习等。
四是资源伦理向度。当前,教育人工智能主要作为教育过程的资源和技术支撑。从资源层面讲,教育人工智能能够改变原有的教育数据采集和运行方式,对技术理性和价值理性造成一定程度的冲击。教育人工智能伦理在资源伦理向度上的内涵包括防范数据的监管与服务风险、关照人文主义价值等。总之,就伦理向度来讲,教育人工智能伦理是算法伦理、关系伦理、情感伦理和资源伦理的统一体。
四、教育人工智能伦理的风险表征
基于教育人工智能伦理基本向度的划分,可从以下儿个方面对教育人工智能伦理风险的表征形式予以解读。首先,从算法伦理来看,智能算法功能存在技术缺陷,例如算法设计难以覆盖复杂教育情境、算法运算固化不利于学生创新思维培养、算法监管存在黑箱风险等;其次,从关系伦理来看,在人工智能场域下,师生的教育主体地位消解,例如学生丧失学习自主性教师让渡教学主权、教育人工智能在主体功能方面存在越位争议等;再者,从情感伦理来看,数据赋能难以浸润情感体验,例如学习体验“单一”化、社会情感学习淡化等;最后,从资源伦理来看,资源服务价值遮蔽与蜕化,例如数据服务面临隐私泄露与失真风险、智能化资源服务存在人文价值蜕化现象等。
(一)智能算法功能存在技术缺陷
教育人工智能功能的发挥依赖于智能算法。作为计算机代码,智能算法具有模块化特性,教育人工智能在算法的设计、运算与执行等方面存在一定的技术风险。其一,算法设计难以覆盖复杂教育情境。算法设计一般遵循简化高效原则,为了让教育过程便于量化分析,算法模型必然会去除各种无法处理的复杂因素,从而导致富含人文价值的育人成分难以被精准度量,尤其是教育过程中有很多隐性知识和暗知识无法评价或衡量,更无法嵌入算法中。其二,算法运算固化不利于学生创新思维培养。教育人工智能算法在设计、运算与执行过程中遵循固定的线性思维,相对固化的技术形式化路径会削弱教育用户对于人、社会与自然的多样化认识。如智能算法会基于学情分析推送定制化资源,然而,长此以往,学生有可能形成 资源依赖并丧失创新探究的主动性。其三,算法监管存在黑箱风险。教育人工智能算法运行过程涉及数 据输入、数据转换和数据输出三种过程,但数据转换过程之中存在难以预知的“黑箱”,教育用户难以预先洞悉算法的目标、意图与风险,更谈不上对其进行合理评估与有效监管,由此易引发算法决策偏差与偏见。
(二)师生的教育主体地位消解
教育的本质是一种培养人的社会活动,而且,此种培养过程是一种主体间的交互过程。学生、教师等在享受着教育人工智能“智能成果”的同时,也承担着一定的关系伦理风险。其一,学生丧失学习自主性。人工智能具有强大的数据获取和分析能力,能根据学生学习的风格与薄弱环节精准推送学习资源。若学 生长期坐等教育人工智能定时定量的“投喂” ,学生将有可能形成“智能”依赖,易丧失学习的主动性与好奇心。其二,教师让渡教学主权。当前,教师在教学决策、诊断、反馈、评价等方面的部分职能已被教育人工智能取代,教师的“知识权威”地位不断被消解和重构。教育人工智能的高效与便捷会造成教师的工具依赖性,进而导致教师成为技术的附庸,从而消解教师对于教学的热情与创造性。其三,教育人工智能在 主体功能方面存在越位争议。2016年,欧盟委员会将人工智能定义为电子人,赋予其著作权、劳动权等相关权利与义务,对人类主体地位有一定的削弱作用[21] 。本来是作为技术工具的教育人工智能,若可以完全模仿人类的一切,其是否应该享有教育主体的权利并承担相应教育责任?相关问题尚难以得到清晰回应与解答。
(三)数据赋能难以浸润情感体验
教育人工智能可通过数据赋能的方式对一些教学行为、状态等进行数据度量,但并非所有教育元素均可数据化度量,而且数据本身并不存在温度,这导致人工智能缺乏对于人与人之间情感互动的关注,进而产生情感伦理风险。其一,学习体验“单一”化。智 能算法设计虽可在情感感知与计算等方面实现对师 生情绪表情等的监测,但其很难覆盖复杂的情感互动情境。教育人工智能不能像教师那样以具身的形式将实践操作等默会知识教给学生,同时也很难为学生品德、品性与性格等方面的培养提供润物细无声式的师生互动体验,学生的创造性思维培育易被技术遮蔽。其二,社会情感学习淡化。当教师和学生间的交互作用大多需要借助数据智能这一中介系统来实现时,原本人与人之间充满温情的关系氛围与情感交流被数据采集与共享削弱。目前,数据智能尚难以对复杂且多维的情感体验进行数据计算,人工智能的情感盲区会在一定程度上束缚学生的社会情感学习过程,进而制约学生的情感意识、情感管理、情感关系和情 感责任等社会情感能力要素的深度培育。
(四)资源服务价值遮蔽与蜕化
人工智能的教育应用一般涉及两类资源,一是数据资源,二是教学资源。作为技术工具,教育人工智能的“技术理性”是否契合资源的“价值理性”尚未可知,这使得教育人工智能存在一定的资源伦理风险。其一,数据服务面临隐私泄露与失真风险。数据的意外泄露会给师生的数据安全造成隐患,数据产权的相对模糊会让师生无意识出让的数据被过分暴露,低质量的数据则可能带来负面影响,数据的偏向性采集、简单化采集会造成数据失真。最终也可能会存在数据滥用而被用来牟利的现象。其二,智能化资源服务存在人文价值蜕化现象。传统意义上的教育是一个帮助人们“去蔽”的过程,即人们在寻求客观真理与普遍精神的同时达到启蒙。智能资源推送专注于从学生行为数据那里获得所谓的“事实” 并设计可数字化、可逻辑表达的“规则” ,忽视了对“生命完整性”的人文关照,智能化的数据处理与资源供给易使育人过程简单化、机械化和线性化。在此情况下,育人活动失去了生命的完整性,学生可能会因厌于思考、惰性膨胀而面临人文思维退化的风险,从而导致育人的价值和意义遭受忽略与遮蔽。
五、教育人工智能伦理风险的消解路径
对于教育人工智能伦理风险的审思与化解,决定了未来教育人工智能发展的走向,也直接关系到人类社会自身发展的前途命运。建立教育与人工智能“交往”的秩序,由技术控制走向人机共生,实现教育人工智能的可持续发展是教育人工智能伦理研究的最终旨归。基于教育人工智能风险的分析可知,教育人工智能伦理风险消解应针对算法、关系、情感和资源风 险予以突破。为此,提出以下教育人工智能伦理消解路径,以便引导教育人工智能真正成为助推教育发展的有利因素。
(一)构建人工智能算法伦理风险全过程监管体系
智能算法是支撑教育人工智能发展的核心,对于人工智能算法风险的监管与消解是保障智能算法与模型有序运行的关键。构建指向人工智能算法风险消解的监管体系需从法律规制、风险评估和安全保障等层面入手。首先,在法律规制层面,算法的结果看似是自动化的,但实质上遵循着一套人工编译的运算法则,尤其是回报函数的设计和运算,集中凸显了编译者的意识形态和价值观念。应当完善政府监管职责与法律规制,避免教育人工智能实践中产生“权责不清”的体制障碍[15],将法的价值融入算法程序里,将算法权力视为智能社会的组成部分而进行驯化[22]。其次,在算法风险评估层面,应在智能算法设计与运行的过程中加入对风险评估的考量,做到“事前防范、事中应答”。事前防范即通过强化算法风险的伦理审查以加强算法安全设计[23]。事中应答则是在算法运行的过程中配套对于风险安全的处理应急机制,进一步提升智能算法的安全性。再者,在安全保障层面,应致力于构建基于区块链技术的算法安全保障体系。目前,区块链已广泛应用于信任背书、信息加密和智能合约风险诸多领域,并且在教育领域也显示出巨大的潜力[24]。区块链技术的去中心化特性有助于打破信息壁垒并解决信息不对称问题,实现算法设计者、算法监管者等人的信息共享互通。相关部门应有效运用区块链技术,重建教育人工智能算法安全保障机制,以便降低算法设计与运算风险。
(二)加强对智能教育主体动摇的风险调控
当越来越多的教育人工智能产品取代教师职业角色,便形成了对于教育中教与学主体的“主权”挑战,其在一定程度会损害教育的育人本质,对人技关系产生不可逆转的消极影响。因此,极有必要加强对于智能教育主体动摇风险的调控。其一,明晰人工智能场域下教育主体动摇风险的伦理边界。边界问题是伦理学研究不可忽视的整体性问题,故亟需实现对于教育人工智能“伦理边界” 的确定,避免人类“主权失语”和“边缘化”情况的产生。政府需要出台相关法律或制度为智能教育主体职责与权利确定伦理地位,明晰智能教育主权的伦理归属,规范教育人工智能开发及应用的风险责任;学校则需进一步加强对教师的培训,强化其在“人工智能+教育”场域中的主体责任意识,构筑教育人工智能伦理风险防火墙。其二,构建智能教育主体偏位与错位风险监测体系。应建立教育人工智能主体动摇风险审查机构,从主动干预的角度消解教育人工智能相关利益主体的偏位与错位问题。不应局限于讨论教育人工智能的法律人格问题,而应以现阶段教育人工智能所涉及的主体偏位与错位风险为基础,清晰识别教育人工智能伦理利益相关者之间的主权诉求,通过将责任合理分配给人或教育人工智能,确定合理的问责程序与问责方式。
(三)塑造助力情感智能与人文关怀相融的文化愿景
情感关怀是教育生命力浸润的重要体现,面对教育人工智能情感关怀的缺失,应在学校内部塑造助力情感智能与人文关怀相融的文化愿景。其一,应在“人工智能+教育”场域下回归关于育人本质的探讨。目前,智能教育的蓬勃发展使教育理论与实践者的目光大多聚焦于技术本身的应用、改进、优化与创新,而逐渐忽略了对于育人本质的探讨。未来的智能教育必将逐渐回归教育的人文价值,打破数据至上的教育误区,以此实现人与机器更好地有序共处。教育必须在文化的意义上寻求人为之人的本质属性、人存在于世的合理性以及人们各种行为的合法性[25]。要更加关注人性、关照人的尊严及其人格,体现人的生命的在场性,彰显人的主体性价值。其二,以情感识别与情感干预促进师生情感交互与共鸣。可借助多模态情感识别技术促进师生情感交互,将人脸识别技术、语音识别技术和自然语言处理技术融合,综合不同模态的情感信息来提高情感识别的准确度,优化教师的情感表达和情感决策。而且,教师应适时对学生进行情感干预,及时消解情感计算技术对师生情感互动产生的负面影响。其三,构建面向具身的教育文化。为破除教育人工智能下学生认知层面的身心二元对立,教师应在情感智能技术的辅助下构建具身的学习环境,引导学生在具身环境下进行实践参与和主动感知,并在具身的教育文化的指引下,使学生在大脑、身体和环境有机统一的过程中实现知识建构。
(四)构建智能资源应用的校本化风险防范体系
人工智能与教育的融合最为突出的贡献便是加强了教育资源的短时集聚与整合。然而,智能资源共享、整合等功能并不一定绝对符合教学要求以及学生的多元化学习需求,而且,对于资源的甄别与筛选易陷入工具理性的“陷阱”,构建智能资源应用的校本化风险防范体系具有一定现实意义。其一,应搭建校本化资源伦理风险审查机制。应明确校本化数字资源伦理风险可能存在的主要形式(例如资源依赖、学习自主性丧失、资源同质化等),基于学校自身的数字资源建设需求,在资源引入的各个环节设置动态监督与问责机制,尽可能地规避资源引入中的伦理风险。其二,建立对于资源伦理风险的监管与问责机制。应提高地方教育行政部门、学校等在资源应用全过程的预测、预警、预防数字资源智能化共享风险的能力,可对资源伦理风险进行实时监控与有效预测,设定基于数字资源智能化共享的决策流程和监督机制以及建立漏洞治理全流程监督处罚机制。其三,加强教师对于智能资源推荐系统的全过程监督。目前,学生对于智能学习资源的使用易陷入“过度自由”的情境中,如果仅仅依靠个性化推荐系统向学生推送学习资源,可能会导致学生偏离学习目标,陷入对碎片化学习的盲目依赖。因而,教师应进一步加强对于学生智能资源使用的干预,对学生的学习资源起到引导和鉴别作用,既要对教育人工智能推荐的内容进行再筛选和确认,也要根据学生的“最近发展区”进行资源创新设计。
六、结语与展望
事实上,语音识别、人脸识别和智能传感等智能技术己对社会变革产生巨大的推动作用,也促进社会变革逐渐迈向“智能时代”,人工智能正在迅速成为我们日常生活不可分割的一部分。与此同时,人工智能也悄然走进了教室,“智能”“自适应”“ 个性化“学习系统正越来越多地部署在世界各地的学校中。科技巨头亚马逊、谷歌和Facebook等也正在斥资开发教育人工智能产品。然而,此类教育人工智能的研究、开发和部署往往忽视伦理规范,很少有政府机构或专业组织颁布条例来解决教育人工智能伦理问题,教育人工智能伦理研究往往停留在原则构建或理论构想层面。本研究致力于探索教育人工智能伦理的基本向度与风险消解路径,回应当前教育人工智能发展过程中的核心议题。对于教育人工智能伦理而言,明晰教育人工智能的伦理价值与现实困境,有利于在智能技术快速变革背景下,拨开技术“迷雾”并回归教育本质。作为教育人工智能实践的主阵地,学校亟需在教育人工智能引入、审查、改进等方面遵循相应的伦理原则,秉承技术治理理念,真正通过教育人工智能来促进“人的学习”,实现科技向善、人机协同。对于未来的教育人工智能伦理研究领域而言,如何预警与化解相应的伦理风险并确保教育安全极具价值,有关教育人工智能伦理风险及其治理问题亟待进一步研究和关注。
本文由《现代远距离教育》授权发布
作者:赵磊磊 张黎 代蕊华
责任编辑:中国伦理在线