打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
欧盟《人工智能法案》如何影响教育?

2023年12月8日,经过长达一周的马拉松式磋商和激烈辩论,欧盟委员会、欧洲议会以及欧盟各成员国的代表们就《人工智能法案》AI Act)达成了初步共识。“靴子落地。”中国现代国际关系研究院欧洲研究所欧洲经济项目负责人董一凡表示,这是一个标志性进展,《人工智能法案》在全球范围内是一份比较领先的整体性监管规则,具有很强的欧盟特色。目前,法案的技术性细节仍在讨论阶段,其最终文本尚未向公众披露。

“欧盟就《人工智能法案》达成的协议具有里程碑意义”,欧盟委员会内部市场专员蒂埃里·布雷顿在社交媒体上表示,“《人工智能法案》不仅是一本规则手册,也将成为帮助欧盟初创企业和研究人员引领全球人工智能领域竞赛的重要指南。”

近年来,欧盟把人工智能技术监管作为关键政策,采取“以人为中心”的发展路径。从2019年开始,欧盟通过非强制性“软法”着手监管AI,逐步转向制定全面的法案。2021年4月,欧盟委员会提交了《人工智能法案》草案。经过多次修订,2023年6月,欧洲议会高票通过该草案。联合报告员德拉戈·图多拉奇表示:“《人工智能法案》将为全球人工智能的发展和治理定下基调。”

美国哥伦比亚大学法学院教授、欧盟数字监管领域专家阿努·布拉德福德指出,欧盟制定了一套强有力且全面的监管措施,这“将为众多考虑实施监管的政府提供优秀示范,其他国家或许不会完全复制每一项条款,但其中许多条款所涉及的关键要素很可能被效仿。”

01

欧盟《人工智能法案》概述

《人工智能法案》旨在为全球AI技术应用和发展设定全面标准,确保其符合道德和法律双重标准,同时提升欧盟在AI领域的竞争力和影响力。法案适用于AI系统的供应商、使用者,包括欧盟内部和第三国相关方。

法案主要内容包括:统一AI系统在欧盟市场的投放和使用规则;禁止某些AI实践;明确高风险AI系统的要求和责任;规定AI系统透明度的协调规则;涵盖市场监测、监管、治理及执法。法案还特别鼓励创新,关注中小企业和初创企业。

考虑到AI技术对欧洲价值观和基本权利的潜在影响,法案采用审慎的风险权衡方法,将AI风险分为四个层级。

1.不可接受的风险(Unacceptable Risk):包括那些可能威胁人们生命、安全和权利的AI系统。这类风险涵盖使用敏感特征的生物特征分类系统(如政治、宗教、性取向等)、无目的的人脸信息收集、工作场所和教育机构内的表情识别、基于社会行为的评分系统,以及能够操纵或绕过人类自由意志的AI。欧盟委员会明确表示,这些构成明显威胁的AI系统将被禁止。不过,法案为执法部门设定了例外,允许其在严格条件下使用非实时远程生物识别技术,如在重大刑事案件中定位嫌疑人。这一规定体现了欧盟立法者与成员国政府在权力平衡方面的协商结果。

2.高风险(High Risk)。可能发生高风险的AI应用领域包括关键基础设施、公民教育、产品安全组件、公民就业、公共服务、涉权型执法、出入境管理、司法及民主进程等八大类。对于这些领域的AI系统,在市场投放前必须遵守七项义务:进行全面的风险评估,提供高质量数据集以降低风险和偏见,记录操作以确保可追溯性,提供完整的系统信息供审查,向用户明确传达信息,实施人为监督以使风险最小化,并确保系统的安全性和准确性。

3.有限的风险(Limited Risk)。法案特指对用户具有明确透明度要求的特定AI系统,例如聊天机器人。在提供聊天机器人服务时,服务提供方需要明确告知用户,他们正在与机器进行对话。此外,使用深度伪造技术或其他AI生成的内容时,应当对其进行明确标注以告知用户。同样,当使用表情识别或生物特征分类系统时,提供方也应当向用户透露这一信息。

4.最小风险(Minimal Risk)。涉及已经被广泛应用且风险极低的AI系统,例如垃圾邮件过滤器、电子游戏中的AI系统等。这一类别涵盖了绝大多数人工智能系统。鉴于这些系统的风险极小,法案并未对此进行干预。

《人工智能法案》强调AI系统的设计和开发应受公民监督,由国家市场监督机构负责执行新规。法案计划设立欧洲人工智能委员会,负责推动规则实施、标准制定、协助国家机构确保统一应用法案、发布AI技术意见,并在成员国间分享最佳实践。法案鼓励非高风险AI技术提供者遵守行为守则,并引入监管沙盒模式以激励创新。成员国需根据本国情况严格执行规定,违反者可能面临高达3000万欧元罚款或年营业额的2%至6%的处罚。法案细节将进一步完善,预计最早于2025年全面实施。

02

欧盟《人工智能法案》

对教育的影响

欧盟《人工智能法案》引起了全球关注。北京师范大学法学院博士生导师兼中国互联网协会研究中心副主任吴沈括指出,该法案将对欧盟乃至全球的人工智能发展和立法环境产生深远的影响。法案一旦颁布并实施,将对人工智能的研发,以及人工智能产品和服务的设计与运营产生重大的直接影响。其影响不仅限于人工智能开发商,还将波及教育、医疗保健、银行等使用该技术的多个领域。

在该法案中,“教育”被认定为一个积极应用人工智能的领域,同时也被划分为人工智能应用的“高风险”类别。法案指出:“在教育领域部署人工智能系统至关重要,它不仅可以助力整个教育系统的现代化,提升线上线下教育的质量,加速数字化教育的发展,还能使更广泛的人群受益。特别是那些在教育或职业培训中用于决定入学、录取或分配人员的人工智能系统,以及用于评估学生的测试、评定个人教育水平的人工智能系统,或在测试期间用于监控和检测学生行为的人工智能系统。由于这些人工智能系统对个人未来教育和培训水平以及职业生涯产生重大影响,应被归类为高风险。如果设计和使用不当,这类系统可能具有侵入性,侵犯人们受教育和培训的权利及不受歧视的权利,甚至可能使历史上的歧视模式永久化,例如针对妇女、特定年龄组、残疾人、某些种族或民族血统或性取向的人的歧视。”

然而,关键问题在于,如何区分那些促进教育发展的人工智能系统与那些可能对特定学习者造成歧视的系统,特别是在某些情况下,这两种系统可能会同时存在。

此外,法案明确提出要将人工智能素养纳入教育体系和项目中。这为教育机构开发专门针对学生的人工智能项目提供了便利,并确保所有学生都能接受基本的人工智能素养培训。从高等教育机构的视角来看,这一修正案强调了将人工智能素养和技能纳入各个学科课程的迫切性。这一点不仅适用于工程和计算机科学领域,还包括艺术、人文学科、社会科学等领域。同时,它还突出了确保学生能够应对人工智能系统风险的重要性。因此,大学应当将人工智能素养视为一项核心能力,这符合许多机构的“通识教育”或“跨学科研究”的要求。

目前,学生使用生成式人工智能(特别是在完成作业方面的不恰当应用)已成为许多教育机构的关注焦点,各机构为此已投入大量资源使用人工智能来检测和应对这类违规行为。然而,该法案将在多大程度上限制教育工作者管理课堂上人工智能使用的能力,或者限制在欧洲境内运营的公司开发用于检测人工智能工具的能力,目前尚不得而知,有待进一步观察。

总体而言,在欧盟《人工智能法案》的影响下,教育机构需要做出相应调整:首先,建立完善的合规体系,积极应对AI技术的风险,并确保其在教育中得到安全有效应用。其次,提高基于AI的教育工具的透明度和风险评估,确保技术符合高标准。此外,将AI道德和数据素养纳入课程,让学生准备应对AI主导的未来,并强调要遵守版权法。同时,重视个人数据保护,提升数据保护和伦理规范。另一方面,要鼓励教育机构在AI领域内的创新和研究,包括与企业合作开发新应用。还要为在职人员提供AI法律和伦理培训,并促进国际合作,以使得教育实践与全球标准保持一致。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
欧盟《AI法案》简析
欧盟最新AI监管草案:全面禁止大规模监控及基于AI的社会信用体系
申军:ChatGPT掠起的两项法律风险
​抢占监管先机 欧盟《人工智能法案》进入最终谈判
欧盟如何监管人脸识别技术?
“信息茧房”、隐私外泄,如何应对人工智能带来的伦理风险?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服