当 AI 冒充“专家”:Grammarly 这场翻车,戳中了生成式内容最尴尬的地方

一场看似聪明、其实很冒犯的产品实验
很多人认识 Grammarly,还是因为它那个老老实实帮你改语法、挑错别字的浏览器插件。它像一位脾气不错的英语老师,不会抢你的风头,只在句子边上轻轻拍你一下:这里时态不对,这里语气太硬。可过去两年,随着生成式 AI 一路狂奔,这家公司显然不满足于只做“文字校对员”了。
在被重新包装进更大的 AI 叙事之后,Grammarly 开始试图从“帮你写得对”升级到“帮你写得像某个人”。问题也恰恰出在这里。它在 2025 年悄悄上线了一项名为“Expert Review”的功能,宣称可以提供来自“顶尖专业人士、作家和领域专家”的洞见。用户点击按钮后,系统会以某位知名作者、学者或媒体人的名字,给出一组 AI 生成的修改意见,旁边甚至还配着一个近似“认证”的勾选标记。
这套设计乍一看很会做产品营销:谁不想得到“斯蒂芬·金式”的修改建议,或者“卡尔·萨根式”的表达优化?但只要多想一秒,就会觉得哪里不对。因为它传递出的暗示太强了——像是这些真实存在的人,真的以某种形式参与了你的稿件审阅。事实却是,他们很多人根本不知情,也没有授权,甚至有些人早已去世。
从“灵感来自”到“像是本人背书”,只差一个 UI 设计
真正引爆争议的,不只是用了谁的名字,而是产品把“灵感来源”包装得太像“真人在场”。The Verge 的记者测试后发现,系统甚至会在分析新闻稿时,直接调用该媒体编辑部成员的名字,比如 Nilay Patel、David Pierce、Tom Warren 等,再配上 AI 自动吐出的建议。更尴尬的是,这些建议并没有体现出本人鲜明的编辑风格,反而经常是一些空泛、黏糊、像把十篇“爆款写作课”搅拌在一起后的词语沙拉。
这就像你走进一家餐厅,菜单上写着“由王家卫指导摆盘”“莫言风格炖汤”“鲁迅式冷盘评论”,结果厨师根本没见过这些人,只是翻了几页采访和作品摘要,凭想象拼了盘。顾客会觉得被糊弄,当事人会觉得被冒犯,平台则会觉得自己只是做了“内容聚合”。三方理解完全不在一个频道上。
Grammarly 方面曾试图用一句典型的 AI 时代解释来自保:这些专家之所以会出现在功能中,是因为他们的公开作品“广泛可得且被广泛引用”。听上去很合理,实际上问题很大。公开发表的文章,当然可以被阅读、分析、学习,但“可阅读”不等于“可人格化调用”。一个作者写过很多公开文字,不代表任何公司都能把他的名字贴在自动生成的建议旁边,仿佛这就是他的意见。
更让人皱眉的是,The Verge 测试时还发现,一些所谓“来源链接”要么失效,要么跳转到毫不相干的页面。这等于连“我们参考了什么”都说不清。你一边借别人的名气,一边又拿不出扎实的出处,最后只剩下一层薄薄的免责声明,写着“这不代表其与 Grammarly 有关联,也不代表对方认可本功能”。这类免责声明在法律顾问眼里也许有用,在普通用户眼里却更像一句心虚的补丁。
这件事为什么重要:AI 正在从“生成内容”滑向“借用人格”
如果只是一次产品翻车,它本不至于引发这么大讨论。真正让人警觉的是,这件事踩中了生成式 AI 行业一个越来越模糊的边界:模型究竟是在总结公开知识,还是在挪用一个人的身份信誉?
过去两年,我们已经见过不少类似争议。AI 语音公司模仿名人声线,图像模型生成“某某风格”的插画,聊天机器人模仿作家语气写信,招聘平台用 AI 生成“拟人化”的职业建议。每一次,企业都喜欢强调“这是基于公开数据训练”“这是风格,不是复制”“这是帮助用户提高效率”。但现实是,当产品界面上出现真人姓名、头像、认证符号、专家标签时,用户接收到的不是技术过程,而是一种非常直观的社会信号:这个人参与了,他为你背书了。
问题因此不再只是版权问题,而是更难处理的“身份权”“声誉权”与“表示权”问题。尤其对记者、作家、学者、评论员这类职业来说,名字本身就是职业资产。一个人花十几年建立起的判断力、语气、公众形象,不能因为文章在互联网上公开,就被科技公司顺手打包成一个可调用的产品组件。
这也是为什么这次反弹比普通的“AI 幻觉”更刺痛人。幻觉往往是技术能力不足;而“冒充专家感”则是价值判断出了问题。它暴露出某些 AI 产品团队一种危险的思维方式:只要技术上能拼出来、法务上能绕过去、文案上写个免责声明,就可以把真实世界的人类信誉拿来做交互素材。
Grammarly 的撤退,不只是公关止血,更像一次行业预演
在舆论发酵后,Grammarly 先是给专家们开了一个邮箱,允许他们申请退出这个功能。这个动作本身就很有时代特色:先默认你被纳入,再给你一个“如不愿意请发邮件”的退出通道。放在十年前,这样的产品逻辑大概会被批得更惨;放在今天,居然已经算不少 AI 公司会采用的标准应对流程了。
但很快,事情还是压不住了。公司最终宣布直接停用 Expert Review,并表示会重新思考如何让功能更有用,同时让专家真正掌控自己愿意如何被呈现,或者完全不被呈现。这个表态至少说明他们意识到,问题不是文案写得不够谨慎,而是产品立意从源头上就跑偏了。
我反而觉得,这次撤退对 Grammarly 是件好事。因为它提醒了所有正在做“AI 助手”“AI 协作”“AI 顾问”的公司:别太迷信“人设即功能”。让 AI 学习优秀写作范式,没问题;把这些范式抽象成“更简洁”“更有说服力”“更有叙事张力”的维度,也没问题。但如果非要把它们套进某个真实人物的名字里,产品立刻就会从“有帮助”滑向“有点 creepy”。
这对整个行业也像一次预演。未来类似争议不会少,只会更多。因为 AI 产品正从后台工具走向前台代理,越来越像“一个替你说话、帮你做判断的人”。而一旦涉及“像谁”“代表谁”“借谁的声望说话”,就会撞上技术公司过去不太擅长处理的社会伦理问题。
AI 当然可以当老师,但别假装它请来了真人
说到底,用户并不排斥 AI 给建议。相反,很多人已经非常习惯让 ChatGPT、Claude、Notion AI 或 Grammarly 帮自己润色邮件、改简历、起标题。大家真正反感的,是产品明明只是模型生成,却偏要把它包装成某位专家隔空附体。这不是增强可信度,反而是在透支信任。
更健康的方向,其实已经很清楚了。AI 可以诚实地说:我综合了新闻写作、学术写作、营销写作中的常见策略;我检测到你的文本可能需要更强的结构感;你的标题缺少信息密度和情绪张力。这种表达不会神乎其神,但它足够透明,也尊重真实人物的边界。
而且,从用户体验看,所谓“某某风格建议”也未必真的比明确的方法论更有用。很多写作者最终需要的不是一个虚构出来的“尼尔·德格拉斯·泰森正在给你改稿”的戏剧效果,而是扎实、具体、可验证的建议:删掉废话、补上证据、明确论点、改善节奏。AI 若真想成为生产力工具,最好少演一点,多干一点。
这件事还留下了一个很值得继续追问的问题:未来如果 AI 平台希望合法地提供“专家风格”“作者模式”“名人审稿”,应不应该建立明确的授权与分成机制?音乐行业已经在讨论 AI 声音授权,影视行业在讨论数字肖像,出版和新闻业迟早也会碰到同样的问题。到那时,真正成熟的公司,可能不是最会“抓数据”的那家,而是最先把授权链条、人格边界和利益分配讲清楚的那家。