本博客概述了一些例子,展示了借鉴好想法的一些相似之处和机会。
我们正在研究人工智能 (AI) 在学校系统中的使用,这是我们构建更智能的教育系统愿景的一部分,在这个系统中,教师和学习者可以利用技术和数据。我们知道,人工智能在解决学校面临的一些最大问题方面具有巨大潜力——从教师工作量过大到一刀切的学习方法。尽管如此,教育领域关于人工智能的讨论不如医疗等其他领域那么深入。像所有优秀的研究人员一样,我们希望从其他领域找到最好的想法,看看我们能学到什么。关于医疗保健领域人工智能的讨论更为深入(例如,Nesta 最近的“对抗机器人医生”报告或上议院特别委员会的人工智能报告),因此我们首先研究我们的医疗系统。
那么,医疗领域的人工智能能告诉我们有关教育领域的人工智能什么信息呢?
尽管背景截然不同,但也有类似的共同利益。
1. 协助处理行政事务
虚拟医疗助理等人工智能工具可以为医生提供帮助,减轻他们的行政任务,使他们能够专注于患者。教育工作者也可以这样做。例如,“Jill Watson”是一位人工智能教学助理,佐治亚理工大学的一位教授用它来回答学生在在线论坛上提出的问题。虽然这个人工智能教学助理的例子是在大学里使用的,但类似的解决方案也可以在学校里实施。SnatchBot 等公司帮助教师完成安排课程和回答有关课程计划和截止日期的问题等任务。随着人工智能减轻行政负担,教师能够更加专注于学生的学习进度。
2.个性化
人工智能正在帮助实现医疗服务的“个性化”,从个性化咨 垃圾数据 询到精准医疗。同样,人工智能正在为更加个性化的教育方式铺平道路。例如,自适应学习平台利用从个别学生那里收集到的见解来改变学习的速度和重点。
我们还发现卫生和教育领域也存在类似的挑战。由此我们可以学习卫生领域成功的经验(和失败的经验)。
1. 信任和隐私
当前形式的人工智能需要大量数据。在享受人工智能的好处和确保信任与隐私之间找到平衡非常棘手。
这个问题在医疗保健领域得到了体现,当时皇家自由 NHS 基金会信托与 DeepMind签署了一份为期 5 年的协议。此次合作需要转移真实患者数据,而ICO 调查发现该基金会没有遵守《数据保护法》。
从 DeepMind 的惨败中可以看出,最终用户(在本例中是患者)需要知道他们的数据将如何被使用。
需要针对教育领域的信任和隐私问题制定专门的方案,以避免犯类似 DeepMind 的错误。例如,教育领域的人工智能涉及未成年学生的数据,因此制定一个负责任的数据共享的稳健结构非常重要。
那么,我们可以从卫生部门的背景中学到哪些对学校有用的知识呢?
上议院 AI 报告建议 NHS Digital 和国家卫生和护理数据保护机构构建一个数据共享框架。如果该框架明确规定了允许患者了解其数据将如何使用的机制,则可以确保更高水平的公众信任。教育部门可能会实施类似的、强大的数据共享和处理框架,也许由一个负责任的公共机构监督。