ChatGPT“学习模式”悄然消失:当AI教育功能只是一个提示词,产品承诺还算数吗?

一个按钮消失了,用户才发现自己真的在用它
这条消息最早出现在 Hacker News 上,标题很直白:OpenAI 悄悄移除了 ChatGPT 的 Study Mode,也就是“学习模式”。发帖人语气并不激烈,甚至带着一点普通用户式的失落——“希望它很快回来,因为我真的很喜欢它。”
这类帖子在今天的 AI 产品世界里并不罕见。真正让人有点感慨的是,它不是在抱怨模型变笨了,也不是吐槽价格变贵了,而是在怀念一个“陪你学东西”的界面入口。换句话说,用户不是把 ChatGPT 当作一个答题机器,而是开始把它当作一种学习环境。这比单纯的“AI 帮我写作业”要更值得关注。
从评论区的反应看,确实有不少人用过这个功能,甚至包括 Plus 付费用户。也有人坦言自己从没见过,说明这个功能本身可能并没有被广泛铺开,或者只在特定界面、特定账户、特定阶段中出现。OpenAI 一向擅长灰度发布、A/B 测试和悄悄调整产品,这种“有些人觉得它一直都在,有些人突然发现它没了”的局面,几乎已经成了 AI 时代的新型产品体验:功能不是上线,而是漂浮;不是下架,而是蒸发。
所谓“学习模式”,可能只是一层精致包装
最有意思的讨论,不在于“它没了”,而在于“它到底是什么”。Hacker News 上多位用户提到,Study Mode 很可能本质上就是一个 system prompt——也就是系统级提示词。有人甚至贴出了 GitHub 上保存的相关 prompt 文本,认为只要没有额外 UI 交互设计,这个模式“几乎可以 100% 复刻”。
这句话戳中了当下很多 AI 产品的命门。今天大量看起来像“新功能”的东西,底层未必是新的模型能力,也可能只是对已有能力做了一层更友好的包装。把“请像老师一样循序渐进引导我,不要直接给答案,多提问、多提示”这样的指令预置进去,再配上一个叫“学习模式”的按钮,用户体验立刻就不一样了。
这并不意味着它没价值。恰恰相反,产品设计的价值很多时候就在这里。普通用户未必知道怎么写 prompt,更不知道怎样约束模型别一上来就把答案全端出来。一个好的默认模式,可以让 AI 从“会做题”变成“会教人”。教育技术行业这些年反复证明了一件事:真正有用的,不一定是最强能力,而是最合适的交互方式。
问题在于,如果一个被当成功能宣传、被用户形成依赖的体验,实际上只是可随时删改的一段系统提示,那它的稳定性就会非常脆弱。用户以为自己拥有的是“功能”,平台眼里可能只是“实验中的配置项”。这中间的落差,才是这次争议真正让人不舒服的地方。
AI 教育产品的竞争,拼的不是聪明,而是克制
从用户留言看,有人说 Gemini 还保留着类似的学习模式;也有人提到,完全可以通过 Custom GPT 或 Projects 里的 instruction 来手动重建一个“学习教练”。这说明一个趋势已经很清楚:主流 AI 厂商都意识到,“教育场景”不是边角料,而是大模型最容易形成高频使用习惯的入口之一。
但教育场景有个很微妙的悖论。大模型最擅长的是快速生成结果,而学习最需要的恰恰是延迟满足。学生问一道题,AI 如果立刻把标准答案、解题步骤、变体练习、拓展知识点一股脑倒出来,短期看爽,长期未必真学会。真正好的学习模式,应该懂得“憋住”,要学会像一个有经验的老师那样反问、拆解、留白,甚至故意不直接说透。
这也是为什么“学习模式”哪怕只是一个 prompt,也依然重要。因为它代表的是产品价值观:你到底是在帮用户更快完成任务,还是在帮助用户真正掌握知识?这两件事在 AI 时代并不总是同一回事。过去一年,围绕 AI 教育的争议已经很多,从“学生拿 ChatGPT 写论文”到“老师用 AI 出题改作业”,大家都在问:AI 到底是在促进学习,还是在缩短思考?
如果 OpenAI 真的移除了这类模式,哪怕只是暂时下线测试,也会让外界担心一个问题:在增长压力、算力成本和产品统一性面前,这类强调引导、克制与耐心的功能,会不会总是最先被牺牲?毕竟,一个会少说话、少给答案的 AI,从平台指标上看,未必是“效率最高”的那个。
大厂“悄悄改产品”,正在成为新常态
今天的互联网公司,尤其是 AI 公司,很少再像过去那样郑重其事地宣布每个小功能的生死。功能上线可能只是一场区域测试,功能消失也可能没有一行公告。这种打法对产品团队很高效,但对用户来说,体验却越来越像住在一个不断被重新装修的房子里:昨天厨房在左边,今天门没了,物业也不解释。
OpenAI 并不是唯一这样做的公司。Google 这些年也常被用户吐槽“功能说没就没”,很多看起来前景不错的实验产品,最终都消失在版本更新和服务整合中。只不过,当这种风格迁移到 AI 助手上,影响更直接。因为用户不只是点一个按钮,他们会把学习习惯、工作流程,甚至一部分认知外包给这些工具。产品的轻微变化,可能都会放大成效率波动甚至心理落差。
更何况,AI 产品还有一种特别微妙的“拟人错觉”。人们会说“我喜欢跟它一起学习”“它今天怎么不像之前那样回答了”,仿佛在谈论一个性格变了的搭档。但现实是,背后可能只是 prompt 改了、模型路由换了、某个实验关闭了。用户感受到的是关系变化,厂商操作的却是配置文件。这种错位会越来越常见,也会越来越值得警惕。
从这个角度看,这次“学习模式”风波虽然小,却很有代表性。它提醒我们,大模型产品最不稳定的地方,也许不是模型能力本身,而是包裹能力的那层产品外壳。按钮、语气、默认行为、上下文注入方式,这些看似细枝末节的东西,实际上决定了用户认为自己在使用什么。
当功能可以被用户自行复刻,平台的护城河还剩什么
评论区里还有一个细节很耐人寻味:不少人都在讨论如何自己复刻 Study Mode。有人说可以用 Custom GPT,有人说可以在 Projects 里写 instruction。也就是说,这个“消失的功能”并没有真正消失,只是从官方入口,退回到了高级用户手动折腾的层面。
这对 OpenAI 其实是个略显尴尬的信号。一方面,说明它的产品足够灵活,用户能自己搭建个性化体验;另一方面,也说明某些功能的技术门槛并不高,真正稀缺的不是能力,而是组织能力——谁能把 prompt、界面、默认流程和用户心理预期打包得最顺手,谁就能赢。
这也是为什么垂直 AI 应用仍然有机会。Hacker News 上就有人提到,自己原本担心大厂会把这类功能全部做掉,结果现在反而觉得,专业化应用依然有生存空间。这个判断我基本同意。通用模型越来越像电力,谁都能接;但教育产品真正难的是课程设计、反馈机制、学习动机维持和长期陪伴。一个“学习模式”按钮可以被复制,但一个真正让人愿意持续打开的学习体验,不会只靠一段提示词完成。
更大的问题在于,未来用户会不会越来越倾向于把关键工作流掌握在自己手里,而不是完全依赖平台的官方开关?如果是这样,AI 产品可能会从“功能消费”走向“能力编排”:用户不再问“平台有没有这个模式”,而是问“我能不能自己配置出想要的模式”。这对高级用户是好消息,对大众用户则未必,因为门槛又悄悄升高了一截。
所以,这件事表面看像是 OpenAI 少了一个小按钮,实质上却折射出整个行业的一个真问题:当 AI 产品的很多体验都建立在可随时替换的提示词和后台策略上时,用户究竟在购买什么?是模型能力、产品承诺,还是一种随时可能改变的临时体验?这个问题,恐怕不只是 OpenAI 需要回答。