AI会议笔记应用Granola被曝默认“公开分享”:你的会议纪要,可能比你想象中更容易外泄

安全 2026年4月3日
AI会议笔记应用Granola被曝默认“公开分享”:你的会议纪要,可能比你想象中更容易外泄
主打“默认私密”的AI会议笔记应用 Granola,实际上将笔记链接默认设为“任何拿到链接的人都可查看”,同时对非企业用户默认开启数据用于模型改进。这不是一个简单的设置细节,而是当下AI办公软件普遍存在的老问题:产品追求顺滑分享与智能增强时,常常把真正的隐私控制藏得太深。

在 AI 办公工具越来越像“数字秘书”的今天,很多人已经习惯把会议、灵感、待办事项一股脑交给软件处理。它们听你开会、帮你写摘要、提炼重点,甚至还能回答“刚刚谁承诺了下周交方案”。这种效率提升很诱人,但也有一个老生常谈、却总被重新验证的现实:越聪明的工具,越需要更谨慎的默认设置。

最近,AI 会议笔记应用 Granola 就撞上了这个敏感点。根据 The Verge 报道,这款宣称笔记“默认私密”的产品,实际上在链接分享设置上默认允许“任何拿到链接的人查看”。如果用户不小心把链接发错人、贴进群聊、同步进别的文档,甚至只是被转发出去,相关会议笔记就可能被陌生人直接打开。而且,非企业版用户的数据还默认会被用于改进其 AI 模型,除非手动关闭。

这事听上去像个不起眼的设置项,但如果你开过融资会、并购会、法务会、人事会,或者只是普通公司里那种“说出来就会让公关部头疼”的内部会,你就会明白:所谓“谁拿到链接谁就能看”,其实已经足够让人后背一凉。

一个写着“私密”的产品,为什么会把门留着

Granola 的定位很清晰:它是一款给“连轴开会的人”准备的 AI 笔记本。它会接入用户日历,记录会议音频,再自动生成条目式摘要,也就是它所说的“笔记”。你可以继续编辑这些 AI 生成内容,也可以邀请他人协作,或者直接向内置 AI 助手追问某个会议细节。

问题就出在这里。AI 笔记工具最核心的价值之一,就是“分享”。团队协作需要分享,跨部门同步需要分享,老板没来但想知道会议内容更需要分享。于是,很多产品会把“分享便利”做得极度丝滑——复制链接、发出去、别人点开就能看。对产品经理来说,这几乎是转化和传播的捷径;但对安全团队来说,这往往是事故的起点。

The Verge 的记者实测发现,自己生成的 Granola 笔记链接,在浏览器隐私窗口里无需登录也能打开,页面还会显示笔记属于谁、创建于何时。虽然完整转录内容未必全部开放,但只要点开某个由 AI 生成的要点,仍能看到对应转录引文,以及 AI 补充的上下文摘要。换句话说,即使不是“整本会议记录裸奔”,也至少算是“把几页关键内容摊在桌上”。

Granola 网站上写着“笔记默认私密”,但应用设置里又写着“默认情况下,你的笔记可被任何持有链接的人查看”。从传播语言角度看,这很容易让普通用户误解。很多人理解的“私密”,是“除了我主动授权的人,别人都进不来”;而不是“搜索引擎搜不到,但谁捡到钥匙都能开门”。这两者之间,隔着的不是文案修辞,而是安全预期的巨大落差。

AI办公工具最危险的,不是泄密,而是“顺手泄密”

如果这是一款社交产品,默认链接公开也许还能辩护为“利于传播”。但 Granola 处理的是会议内容,而会议内容恰恰是企业内部最容易含有敏感信息的数据形态之一。它不像公开文档那样天然准备被分享,也不像客服记录那样通常有规范流程。会议里说的话,往往夹杂着半成品判断、未披露计划、人员评价、预算取舍,甚至法律风险讨论。

更麻烦的是,很多泄露并不是恶意行为,而是“顺手”。现实里的事故通常很琐碎:有人把链接发进了错误的 Slack 频道;有人把纪要同步进对外共享的 Notion 页面;有人离职后仍保留旧文档;有人截图时忘了带上链接;还有人把会议内容喂给另一个 AI 工具,结果权限边界彻底混乱。这类问题不靠用户教育就能解决,默认设置本身就应该尽量保守。

过去几年,类似争议已经在协作文档、网盘、代码托管和客服平台上轮番上演。Google Docs、Notion、Dropbox、GitHub 都曾让行业反复讨论“链接可访问”到底该怎么设默认值。经验其实很明确:对低敏感内容,可以追求分享顺滑;对高敏感内容,宁可多点一次权限确认,也别让用户在无感知状态下暴露信息。

而会议笔记,显然属于后者。尤其在 AI 时代,这类笔记不只是记录,还会被结构化、摘要化、标签化。过去一份冗长会议录音就算泄露,外人可能也懒得听完;现在 AI 已经把重点自动整理好了,泄露内容的“可消费性”反而更高。这是一个被低估的变化:AI 不只提高了工作效率,也提高了信息泄露后的可读性和可利用性。

默认拿用户数据训练模型,这件事为什么总让人不舒服

Granola 的另一个争议点,是非企业用户默认加入了模型改进计划。根据其支持页面,平台“可能使用匿名化数据”来改善 AI 模型;企业客户默认退出,但其他套餐用户不是,必须手动关闭“Use my data to improve models for everyone”选项。

看到“匿名化”三个字,很多公司法务和安全负责人大概还是不会放松。原因很简单:匿名化不是万能护身符。会议记录这种数据,本来就常常包含项目代号、时间节点、职务描述、合作对象和事件细节,哪怕拿掉姓名,也未必难以重识别。尤其在小团队、垂直行业或重大项目场景里,几句上下文就可能暴露真实身份。

更值得玩味的是,Granola 明确说不会把数据交给 OpenAI、Anthropic 等第三方公司用于训练。这个表态当然比“我们不保证”要好得多,但它也恰好说明,今天用户最担心的已经不只是“数据会不会被存”,而是“会被谁用、怎么用、默认是不是开着”。AI 产品行业这两年最缺的,往往不是安全白皮书,而是那种一眼就看明白、不玩文字游戏的授权界面。

企业版默认退出、普通用户默认加入,这其实已经是很多 SaaS 厂商的标准动作:把更强的隐私保护放进更贵的套餐。商业上能理解,体验上也常见,但价值观上仍有争议。因为这相当于在说:出得起钱的企业,才能拥有更体面的默认隐私;个人用户和小团队如果没仔细看设置,就只能先“贡献一点数据”。从行业趋势看,这种分层只会越来越被质疑。

这件事为什么发生在现在,格外值得警惕

2026 年的 AI 办公市场,已经从“能不能做出来”转向“谁敢放心用”。过去一轮竞赛比的是摘要准不准、转录快不快、聊天助手聪不聪明;下一轮真正决定企业采购的,往往是权限体系、数据边界、审计能力和合规能力。说白了,AI 工具正在从“好玩”走向“能不能进公司内网”。

Granola 遭遇的这场风波,恰好踩在这个时间点上。越来越多大公司开始收紧对 AI 工具的使用,尤其是会议记录类产品。The Verge 提到,已有大型企业因安全疑虑拒绝让高管使用 Granola。这个信号非常现实:高层开的会,往往比普通团队会更敏感;而一旦连高管场景都过不了安全评估,产品在企业市场的天花板就会提前出现。

更大的问题是,这可能不是 Granola 一家的问题,而是整个 AI 办公赛道的一面镜子。大家都想把产品做成“第二大脑”,但第二大脑装的可不是无害的备忘录,而是组织内部最宝贵、也最脆弱的语义资产。会议、文档、邮件、聊天记录,这些数据一旦被 AI 统一整理,价值飙升,风险也同步放大。行业接下来要回答的,不是“AI 能总结什么”,而是“默认谁能看、谁能学、谁来负责”。

对普通用户来说,现在最实际的建议也很朴素:如果你在用这类产品,别只试功能,多看看设置。Granola 目前允许把默认链接分享改成“仅公司成员”或“私密”,也可以关闭数据用于模型训练。如果你的会议涉及客户、财务、人事、法务或未披露业务,最好把“分享便利”当成一件需要刻意克制的事。

技术行业这些年反复证明一个道理:真正的隐私,不是藏在帮助中心第七页的开关,而是产品第一次启动时就替你守住边界。谁把这个边界画得更清楚,谁才更配成为下一代办公入口。

Summary: Granola 这次暴露的不是单一漏洞,而是一种越来越常见的产品逻辑:为了协作顺滑和模型迭代,把风险留给用户自己兜底。我判断,未来一年 AI 办公软件会迎来一轮“默认权限”大清理,企业客户也会把隐私与审计能力放到比功能创新更高的位置。谁还在用“默认开放、用户自改”的思路做会议工具,谁就可能先被市场踢出局。
Granola隐私泄露默认公开分享AI会议笔记数据用于模型改进链接访问控制The Verge默认私密AI办公工具模型训练数据