当老师开始兼职“AI侦探”:ChatGPT 正把大学课堂拖进一场消耗战

课堂没消失,只是悄悄变了味
这篇来自 Ars Technica 的文章,标题很直白,甚至带着一点疲惫后的苦笑:在 ChatGPT 时代教书,就是知道什么叫痛。作者是一位长期教授大学地球科学课程的兼职教师,原本喜欢和学生打交道,哪怕收入不高、岗位也不稳定。但在生成式 AI 普及之后,他对教学的感受,从“有成就感”一路滑向了“多数时候都很痛苦”。
如果你以为这只是某位老师对新技术的保守抱怨,那恐怕低估了问题的复杂度。真正刺痛教师的,不是学生偶尔用一下 AI,而是整套教学逻辑开始松动。尤其在异步在线课程里,老师看不到学生的表情,抓不住课堂节奏,原本就更依赖作业、小测和讨论来判断学生是否真的理解了内容。可现在,这些本来用来“帮助学习”的环节,越来越像是在给大模型做性能测试。
教师过去的工作是讲课、答疑、反馈、鼓励。现在还得加上一项副业:侦查。作业像不像 AI 写的?学生到底是理解了,还是只是把 ChatGPT 的回答换了几个说法?更麻烦的是,这种判断没有像考试夹带小抄那样干脆。大模型生成的内容,正把学术不端从“是或不是”变成一片灰色沼泽。老师不光要怀疑,还要准备证据链,防着学生申诉,防着学校审核,最后把大量时间消耗在一场谁都不体面的拉锯战里。
真正被偷走的,不是答案,而是“费劲”本身
这篇文章里有一个特别形象的比喻:用 LLM 写作业,就像把叉车开进健身房。杠铃是被举起来了,训练却没发生。这个比喻好就好在,它一下子点中了教育里最容易被误解的地方——学生以为“得到正确答案”就是学习,实际上,学习的核心往往是那个磕磕绊绊、费劲巴拉的过程。
教育里有个常被忽略的事实:很多作业不是为了筛选谁聪明,而是为了让人卡壳、犯错、修正、再理解。所谓 formative assessment,也就是形成性评价,本来就是低风险练习。老师并不一定在乎你答对没有,更在乎你思考到了哪一步、哪一个概念还没打通。可一旦学生把这些练习交给 AI,训练本身就被抽空了。
作者举了一个很具体的例子。他让学生思考,如何研究风蚀作用,而不用等几辈子去观察一块巨石被慢慢磨损。这个问题的目标,不是背标准答案,而是让学生自己“撞见”自然实验这个科学方法概念。2019 年到 ChatGPT 出现前,大约三分之一学生能自己想明白;过去两年,答对率升到一半以上。乍一看,教学效果像是变好了,但老师清楚,真正增长的不是独立思考能力,而是大模型的答案扩散率。
这正是今天教育里最尴尬的一幕:数据看起来更漂亮了,学习却可能更空心。学生交上来的东西越来越“像样”,老师却越来越不知道,那份像样究竟来自脑子,还是来自提示词。
教育系统正在被迫“退化”——不是回归本质,而是回到防作弊时代
为了对抗 LLM,不少教师开始回撤到几种相对安全的评估方式:口试、课堂手写、现场监督完成的考试。这些手段不是新发明,某种意义上甚至有点复古。它们确实更难被 AI 代劳,但代价也很明显:成本高、效率低、规模化难,而且会伤害一部分本来就依赖在线教育的学生。
这也是这场 AI 教育风波里最容易被忽略的现实问题。异步在线课程不是“偷懒教学”的代名词,它对残障学生、偏远地区学生、全职工作者、照顾家庭的人都很重要。很多人不是不想进教室,而是现实不允许。如果为了防 AI,把大量课程重新变成必须线下、必须监考、必须口试,那牺牲的不是技术理想,而是教育可及性。
更讽刺的是,许多原本很好的作业形式,正在因为太容易被 AI 模仿而被迫消失。作者提到,他曾让学生为一门自然灾害课程写好莱坞灾难片剧情:其中既要有科学合理的灾害机制,也要有故意夸张、不合理的部分。这种作业其实很妙,既练写作,也逼着学生灵活应用知识,还挺有趣。可现在,大模型十秒钟就能吐出一篇“像那么回事”的东西。哪怕质量不高,老师识别和处理一次 AI 作弊的精力,可能远比批改一篇真作业高得多。结果很现实:这类作业被砍掉了。
这不是教学升级,而是教学收缩。过去大家常说,别出那种在维基百科上抄一抄就能完成的题,要设计更高阶、更开放、更贴近现实的任务。今天的问题是,AI 连“反思题”“开放题”“结合个人经历谈理解”都能一本正经地胡说八道,而且比复制粘贴更容易。它不只是让低质量作业泛滥,而是让高质量作业也失去了防线。
管理层在谈“AI素养”,一线教师却先学会了筋疲力尽
文章里最扎心的一段,是作者对高校管理层态度的吐槽。面对教师普遍的无力感,很多学校管理者的回答是:既然 AI 是未来,那老师就该教学生“如何有效使用 AI”。这句话表面上很进步,实际落到课堂里,常常变成一种逃避。
什么叫“有效使用 AI”?现在常见的设计是,让学生先用 AI 生成一篇文章,再去批判它。听起来很现代,但问题是,如果教学目标是让学生明白“不要轻信 AI 的输出”,那为什么要先让 AI 接管原本该由学生完成的思考过程?互联网从来不缺人类写得好的、写得糟的、值得分析的文本,为什么非得让机器先制造一份半成品,再围着它打转?
说到底,技术管理者喜欢的是“接纳趋势”的叙事,教师处理的却是“具体的人”。学生会走捷径,这不新鲜。新鲜的是,这次捷径被包装成了生产力革命、学习助手、未来通行证,还带着一种几乎不可质疑的政治正确:谁反对,谁就落后。可一线教师感受到的,不是解放,而是被架空。学校一边购买机构级大模型服务,一边要求老师维持学术标准,这种拧巴像极了让消防员边灭火边卖打火机。
数据也支持这种挫败感。文章援引的一项针对约 3000 名大学教师的调查显示,85% 的受访者认为 LLM 会削弱学生发展批判性思维的可能性,72% 表示在管理学生使用 LLM 上遭遇困难。这不是个别人的情绪,而是正在扩散的系统性疲劳。
这场争议真正重要的地方,不是“该不该用 AI”,而是教育还剩下什么
关于 AI 进入教育,公众讨论常常陷入两个极端:要么把它吹成私人家教,要么把它骂成作弊神器。现实比这复杂得多。AI 当然可以帮老师备课、帮学生梳理知识点、帮非母语写作者改善表达,甚至在某些结构化任务上提供很实用的辅助。问题不在“能不能用”,而在“由谁主导、在什么环节用、替代了什么”。
如果 AI 帮学生整理参考文献,但论文的论证、取舍和写作仍由学生完成,那它像计算器,是工具;如果 AI 直接代替了阅读、思考、组织与表达,它就不再是工具,而是代打。教育最怕的,不是机器比人快,而是学生越来越习惯把最能锻炼自己的那部分外包出去。
文章最后写了一个小细节,很有冲击力。作者听到几名大学生聊天,其中一人抱怨晚上要做作业,另一人很诧异地问:你为什么不直接让 ChatGPT 做?前者回答说,这门课是我的专业课,我真的得学东西;AI 是给其他课用的。你看,学生并不傻,他们知道自己有没有学到东西。某种意义上,这比任何教师控诉都更诚实。AI 在不少学生眼里,不是什么智慧导师,而是 workload management——工作量管理工具。
这才是今天最该警惕的信号。不是学生被骗了,而是他们清醒地选择:哪些知识值得自己爬山,哪些课可以坐缆车混过去。可问题来了,如果越来越多课程都被视为“可以混”,大学教育最后会不会只剩下学分统计和文凭包装?当学习的摩擦力被技术一层层磨平,所谓效率提升,很可能只是把成长里最必要的阻力给一起抹掉了。
生成式 AI 当然不会退出校园,它已经来了,还会继续渗透。但教育界真正需要的,恐怕不是一套更漂亮的宣传口号,而是更诚实地承认:有些事情,机器做得越轻松,人就越学不会。这个矛盾如果不正视,课堂接下来失去的,就不只是作业的真实性,而是老师和学生对“学习”这件事本身的信心。"