英国高校正在被一组数字逼着做出改变。
根据英国高等教育政策研究所(HEPI)与电子教材平台 Kortext 发布的最新调查,在接受调查的 1000 名本土及国际大学生中,92% 表示在学习或作业中使用过 AI 工具。
这一比例在一年内出现了明显跳跃——2024 年还是 66%,如今只剩下 8% 的学生完全不用 AI。
其中,使用生成式 AI(如 ChatGPT)的学生比例达到 88%,相比去年同期的 53%,增长速度被研究者形容为“几乎前所未见”。
这份调查也因此向英国高校发出明确警告:现有的作业和考试形式,已经经不起 AI 的压力测试了。
从学生的使用方式来看,AI 并不只是被拿来偷懒。多数学生表示,他们主要用 AI 来解释难懂的概念、总结学术文章、帮助生成研究思路。
但调查同时也显示,近五分之一(18%)的学生承认,曾直接把 AI 生成的内容写进作业中。
当被问及为什么使用 AI 时,学生给出的理由相当现实:一半以上的人认为它节省时间,也有约一半的人觉得 AI 能提升作业质量。
但顾虑同样存在,最主要的担心来自两点:被指控学术不端,以及 AI 给出错误或有偏见的信息。
一名学生在调查中直言:“我喜欢用 AI,它让写作业轻松很多,但我也一直担心会不会被发现。”
在政策层面,学生的感受并不完全一致。
约 80% 的学生认为学校的学术诚信政策是清晰的,也有 76% 相信学校有能力识别 AI 的使用痕迹。但真正接受过系统 AI 技能培训的学生,却只有 36%。
来自家庭条件较好背景的学生,使用 AI 总结文献的比例明显更高;STEM 专业学生、男性学生以及经济条件较好的群体,对 AI 的接受度也更高。
研究者指出,此前已出现的“数字鸿沟”,正在进一步扩大。
与此同时,完全拒绝使用 AI 的学生,正在成为少数派。帝国理工学院研究学术诚信的计算机科学家 Thomas Lancaster 博士指出,不使用生成式 AI 的学生,不仅在学习效率上吃亏,也可能在未来就业竞争中处于劣势。
英国大学联盟(Universities UK)也在回应中表示,大学需要在培养学生适应 AI 时代和维护学术诚信之间找到平衡。所有高校都设有严格的学术规范,对提交非原创作业的学生依然会实施严厉处罚。
但可以确定的是,单纯依靠“查重”和“禁止”,已经很难解决问题。对英国高校来说,真正的挑战,是如何重新设计学习与评估方式,让 AI 成为工具,而不是漏洞。
而美国绝大部分学生——大约85%——表示他们在过去一年里用过生成式AI来处理课程作业。从一大堆选项里挑出的前三大用途是:
脑暴想法(55%)、像问导师一样提问题(50%),以及备考考试或小测(46%)。
把它当成高级搜索引擎的用法也排得很靠前。还有些其他选项就有点灰色地带了,能不能真正支持真实学习还不好说,比如编辑作业或者生成摘要。(教育者们得想想这些问题:学生有没有先读过要总结的内容?编辑改动有多大?)
较少的学生表示用生成式AI来帮他们完成作业(25%)或者写完整的论文(19%)。
但在调查中,那些说用AI写论文的学生,比起用AI来学习的学生,更容易觉得AI对他们的批判性思维有负面影响(分别是12%对比6%)。
整体而言,这些回应为当前AI教育价值的讨论增添了新维度——AI不仅存在风险,更蕴含潜力。
不同学生群体间存在差异:
25岁以上的成年学习者更倾向于将作弊归因于工作、家庭或其他义务导致的时间不足,以及对自身能力缺乏信心;
而年轻学生则更可能认为同龄人不在乎相关政策,或对课程内容缺乏兴趣。
尽管各院校的学术诚信政策存在差异,但仅有6%的学生认为教授对AI作弊的定义和政策期望不够明确。
学生支持度较低的AI政策选项包括:
· 将AI相关内容纳入各专业课程:18%
· 由教授或院系自主决定:16%
· 设立AI相关新专业或学术项目:11%
· 提供涉及AI的雇主对接或实习机会:9%
· 高校无需针对AI采取特定措施:5%
总体而言,生成式AI并未贬损高等教育的价值,反而为部分学生提升了其价值。