• 教育人工智能隐私保护问题研究

    普通类
    • 支持
    • 批判
    • 提问
    • 解释
    • 补充
    • 删除

    摘要:大数据、云计算、人工智能等新一代信息技术对教育发展产生了革命性影响,但我们在享受智能应用带来便利的同时,面临着个人隐私空间被不断侵犯的风险。人工智能时代教育隐私保护俨然已经成为教育数据治理的迫切需求,亟待展开系统深入的研究。 立足国家新一代人工智能技术发展的战略背景与教育隐私保护的现实需求,本文针对已出现的案例,结合国家政策发展,提出了有关隐私保护的相关建议,以期为未来隐私保护技术的发展提供借鉴。

    关键词:教育,人工智能,隐私保护

    一、引言

      在信息时代背景下,随着大数据和人工智能等技术的盛行,个人隐私泄露的问题愈发严重,个人信息的收集和处理在不知不觉中渗透到生活中的方方面面。2021年11月1日,《中华人民共和国个人信息保护法》正式施行。该文件的正式施行体现了国家对于个人隐私保护的关注,并在国家层面建立健全个人信息保护制度,预防和惩治侵害个人信息权益的行为。其实早在2016年,我国的《中华人民共和国网络安全法》就提出要对数据的采集和处理提出严格的规范。在《教育信息化 2.0 行动计划》中,也指出要深入应用教育大数据助力教育教学,同时需要重点保障师生数据安全,加强隐私保护。最新发布的《中华人民共和国个人信息保护法》因此,如何保护个人隐私,防止在个人不知情的情况下隐私被随意收集及处理,对个人生活产生影响逐渐成为当下研究的热点问题。本研究通过分析当前国内外的研究现状和个人隐私泄露的典型案例,提出了个人隐私保护的措施建议,以期为在人工智能领域的隐私保护提供理论借鉴与实践指导。

    二、教育人工智能隐私保护研究现状

       教育隐私保护已经成为人工智能时代教育数据治理面临的迫切挑战。近年来,学习者隐私泄露、数据不法交易以及算法“杀熟”“歧视”等现象时有发生,引起 了学生及家长的强烈不满,也促使教育学、教育法学和计算机科学等领域研究者呼吁建立教育数据 安全法律条例和研发更安全的教育人工智能技术。

       1.国外研究现状

       2016年10月,美国白宫科技政策办公室 (The Office of Science and Technology Policy, OSTP) 发布了名为《为人工智能的未来做好准备》 (Preparing for the Future of Artificial Intelligence) 和《国家人工智能研发战略规划》 (The National Artificial Intelligence Research and Development Strategic Plan) 两份重要报告, 这两份报告指出人工智能技术对社会各领域的影响越来越深刻, 教育是人工智能应用的一个重要领域。教育人工智能 (Educational Artificial Intelligence) 是人工智能与学习科学相结合的一个新领域。国外较早意识到人工智能可能带来的隐私保护问题。针对人工智能应用可能出现的学习者隐私数据泄露甚至被滥用的问题,各国都积极出台了相应的法律法规,对数据的收集、管理、 使用提出了严格的要求。如2018年欧盟开始执行的《通用数据保护条例》(General Data Protection Regulation, GDPR),美国联邦层面发布的《家庭教育权利和隐私权法》、《儿童在线隐私权保护法》(COPPA)、《学生数字隐私和家长权利法》(SDPPRA)及州立《学生在线个人信息保护法》(SOPIPA)等法规,以及2016年我国的《中华人民共和国网络安全法》,都对数据的采集和处理提出严格的规范。目前我们仍缺乏针对教育数据隐私保护的专门法律,因此可以借鉴国外立法经验对现有法律进行完善和细化。

       2.国内研究现状

       在国内,隐私保护在近几年成为一个热点话题,从2012年只有361篇相关文章到2019年相关文章数量达到最多,高达1141篇,这几年相关文章的发行量剧增足以证明隐私保护问题在信息社会的重要性。乐洁玉等认为如何保障教育数据安全,对教育数据进行合理、合规的分析和利用是当前亟须解决的问题。田贤鹏认为怎样使用数据并使得数据价值得到合理发挥是教育数据治理迫切需要回答的问题。从治理诉求看,隐私保护与开放共享是人工智能时代教育数据治理的核心内容。在最新发布的《个人信息保护法》中也强调了信息保护不能使用禁止收集个人信息的方式来实现,而是要严格把控在信息收集、传输和处理等过程中出现数据泄露问题。

       研究者们热衷于从技术和法律两端提供应对方案。技术层面如注重区块链安全保障技术、基于联邦学习的教育数据挖掘隐私保护技术、信息安全技术等的运用,法律层面如建议出台《教育大数据安全管理办法》《教育大数据应用发展指导意见》《教育大数据权利法》等。从研究现状看,既有研究从教育数据伦理本体论与价值论、教育人工智能伦理问题与原则、教育数据治理的伦理架构、教育大数据伦理诉求的实现等方面进行了探讨,具有重要的意义。但针对性地对教育数据安全的伦理诉求及表达、伦理困境及出路的研究较少。即便对教育大数据引发的隐私侵害等伦理问题进行了关注,依旧无法有效回答教育数据安全的伦理实现。

       总体而言,教育人工智能隐私保护面临诸多问题,如教育隐私保护制度缺失、数据共享监管形同虚设、隐私保护与数据共享矛盾突出、师生数据隐私保护意识及素养不够、技术应用僭越隐私规范、隐私安全边界模糊、数据持有方数据霸权、人工智能算法“歧视、杀熟”等。需要进一步加强研究:① 加强教育人工智能隐私保护立法,明确隐私权的范围,列明各主体在隐私保护过程中的 权利和义务,以及侵犯隐私行为发生后应承担的责任和救济方式;② 设计数据共享机制规范,加强共享过程的监管透明度,让数据所有权、数据价值权回归师生;③ 设计新的教育人工智能应用技术框架,解决隐私保护与数据共享矛盾。例如可以利用联邦学习技术,通过数据及参数加密传输方式构建教育人工智能应用智能模型,实现保护师生隐私安全的同时深入挖掘教育数据价值。

     

    三、教育人工智能隐私泄露案例分析

       教育人工智能引发的隐私泄露、侵犯案例分析研究。数据共享不规范、数据滥用、不法利益输送是造成教育隐私泄露的主要原因。

       1.印度在线教育平台Unacademy发生数据泄露事件

       Unacademy是印度最大的一家教育科技初创公司,于2015年创办。该公司主要为用户提供免费在线学习平台,教育工作者通过Unacademy的移动应用可以在平台上创建在各种科目的教学课程。2020年5月份, Unacademy承认发生数据泄露事件,暴露了大约1100万用户的个人详细信息。 事件发生前,Unacademy刚完成4亿美元融资并在新冠疫情期间业务发展迅猛。泄漏的数据包括用户ID、名称和用户名、加密密码、电子邮件地址、加入日期和上次登录时间。

       这一事件对Unacademy公司造成了很大的利益损失,这一事件也说明了现有的数据保护机制存在很多的漏洞,Unacademy是一家大型的教育公司,并且据该公司所说他们使用了带有SHA256哈希算法的PBKDF2方法严格加密数据,但还是产生了如此严重的数据泄露问题,数据的保护技术还没有发展成熟,有待进一步提升。

       2. 俄罗斯大学毕业生信息泄露

       2018年1月,俄罗斯技术社区网站Habrahabr上,一名昵称为NoraQ的用户(黑客)发文称1400万名俄罗斯大学毕业生信息泄露,即十分之一俄罗斯人的信息泄露。NoraQ在俄罗斯联邦教育科学联督局服务网站的网站上发现了一个SQL注入漏洞,通过这个漏洞他下载了1400万名俄罗斯大学毕业生信息,这些信息包括姓名、出生日期、个人账户的保险号码、纳税人识别号码、电子邮件地址等。NoraQ表示找到这个漏洞并没有花太多时间。但是下载这份5GB的信息库却花了不少时间。

       此外,教育人工智能侵 犯隐私的事情也时有发生,如:教师或学生在不知情情况下信息被收集、数据处理权不在教师或学生手中、数据被随意篡改、大数据或人工智能技术因算法缺陷造成“杀熟、歧视”等。随着人工智能技术在教育应用的不断深入,大量教育应用数据正被第三方收集和掌控,师生只能被动接受。种种案例表明,教育人工智能造成的隐私泄露和侵犯现象严重。现在迫切需要细化教育隐私保护制度,完善教育数据开放共享中隐私保护设计,发展教育人工智能隐私保护技术。

    四、教育数据开放共享中隐私保护机制研究

       1.教育人工智能隐私保护制度设计研究

       教育人工智能在采集、存储传输、共享使用等各环节都存在泄露隐私的风险。例如,在采集阶段,存在未获得学习者知情同意采集数据和过度采集数据的问题;在存储传输环节,存在由于管理不当或技术不达标、软硬件有安全漏洞导致的泄露问题;在共享使用环节,存在过度挖掘以及被用于非教育行为等问题。故研究围绕以下几个方面展开:(1)教育人工智能隐私保护法律制度体系研究,完成对现有法律的完善和细化,明确隐私权的范围,列明各主体在隐私保护过程中的权利和义务;(2)教育信息隐私认证体系研究,设立专门教育隐私保护机构,强化监管指导,促进隐私保护和教育大数据应用之间的平衡;(3)师生数据隐私保护素养和能力提升研究,加强关于隐私数据保护法律法规的宣传教育,培养隐私数据保护的基本技能。

       2. 教育数据开放共享中隐私保护机制研究

       将隐私保护规范及技术贯彻到数据共享的整个流程,并邀请数据生产者监督整个共享环节;研究数据开放共享原则、标准和需遵守的法律规范及协议规定,将学习者隐私信息归为不开放、部分开放以及完全开放三种类型,严格控制“不开放”隐私信息的使用,维护学习者的核心利益;强化对“部分开放”“完全开放”隐私信息的利用,以满足其他利益群体的正当需求;研究数据开放共享的安全保密设计,可根据隐私信息类型采用不同的保密技术进行开放共享。

       3. 面向隐私保护的教育人工智能模型研究

       针对个性化学习推荐场景中不同数据持有方协同训练个性化学习推荐模型,本研究提出一种基于跨学龄知识图谱的纵向联邦个性化学习推荐,为保障数据安全要求数据不能共享(即不集中上传到中央服务器)。并且采用非对称加密算法 RSA 和哈希的办法,使交换数据持有方之间的信息得到加密处理,保证各数据持有方能在数据加密的情况下找到相同的用户。并且采用深度知识点追踪技术与神经网络技术相结合的方法,进行预测分析;再根据=预测出的结果与知识图谱信息相结合,为学习者提供个性化学习推荐;基于半诚实敌手或诚实敌手的假设,展开对上述人工智能模型的模型反演攻击和成员推理攻击,以验证人工智能模型中的隐私保护技术的健壮性。

    参考文献

    [1] 王春晖. 《个人信息保护法》要点解析[N]. 人民邮电,2021-11-12(008).

    [2] 闫志明,唐夏夏,秦旋,张飞,段元美.教育人工智能(EAI)的内涵、关键技术与应用趋势——美国《为人工智能的未来做好准备》和《国家人工智能研发战略规划》报告解析[J].远程教育杂志,2017,35(01):26-35.

    [3] 乐洁玉,罗超洋,丁静姝,李卿.教育大数据隐私保护机制与技术研究[J].大数据,2020,6(06):52-63.

    [4] 田贤鹏.隐私保护与开放共享:人工智能时代的教育数据治理变革[J].电化教育研究,2020,41(05):33-38.DOI:10.13811/j.cnki.eer.2020.05.005.

    [5] 苟学珍.智能时代教育数据安全的伦理规约简论[J].电化教育研究,2021,42(09):35-40.

    [6] Sparse online collaborative filtering with dynamic regularization,SCI,JCR-1 区

    [7] 梁秀波,吴俊涵,赵昱,尹可挺.区块链数据安全管理和隐私保护技术研究综述[J/OL].浙江大学学报(工学版):1-15[2021-12-22].http://kns.cnki.net/kcms/detail/33.1245.T.20211209.1739.002.html.

    [8] 朱禹睿.大数据背景下隐私保护技术的探究[J].网络安全技术与应用,2021(09):76-77.

    [9] 李艳,陈新亚,孙丹,朱雨萌,翟雪松.从“透明人”到“践行者”:高校信息安全面临的挑战与应对——《2021地平线报告(信息安全版)》之启示[J].远程教育杂志,2021,39(03):11-19.DOI:10.15881/j.cnki.cn33-1304/g4.2021.03.002.

    [10]王昱兴,袁博.从大数据杀熟到隐私泄露:软硬件视角下隐私问题的伦理分析与思考[J].科学·经济·社会,

    2021,39(03):72-81.DOI:10.19946/j.issn.1006-2815.2021.03.006.

    [11]李青,李莹莹.大数据时代学习者隐私保护问题及策略[J].中国远程教育,2018(01):29-36.DOI:10.13541/j.cnki.chinade.2018.01.003.

    [12]周春萍,徐长棣.人工智能技术在大数据网络安全防御中的应用探究[J].网络安全技术与应用,2021(11):61-63.

    [13]李默妍.基于联邦学习的教育数据挖掘隐私保护技术探索[J].电化教育研究,2020,41(11):94-100.DOI:10.13811/j.cnki.eer.2020.11.013.

    [14]刘梦君,姜雨薇,曹树真,杨兵.信息安全技术在教育数据安全与隐私中的应用分析[J].中国电化教育,2019(06):123-130.

     

    • 标签:
  • 加入的知识群:
    学习元评论 (0条)

    评论为空
    聪明如你,不妨在这 发表你的看法与心得 ~



    登录之后可以发表学习元评论
      
暂无内容~~
顶部