“隐身模式”不隐身?Perplexity被诉把AI聊天记录悄悄喂给谷歌和Meta

一场看上去很现代的隐私事故
AI 搜索公司 Perplexity 最近摊上了大事。根据美国一桩拟议中的集体诉讼,Perplexity 所谓的“Incognito Mode(隐身模式)”几乎是个摆设:用户即便打开这个功能,聊天内容仍可能被分享给谷歌和 Meta,而且还可能连带邮箱地址等可识别身份的信息一起送出去。
如果指控成立,这不是普通意义上的“隐私条款写得不够清楚”,而更像是把用户最敏感的对话直接放进广告机器里跑一遍。诉状称,Perplexity 会通过页面中嵌入的 Meta Pixel、Google Ads、DoubleClick 等追踪工具,传输用户的提问内容,部分情况下甚至能通过特定 URL 访问整段对话。原告特别强调,这不仅影响注册用户,也影响没登录、甚至没付费的人。
这件事最刺眼的地方,在于产品命名本身。所谓“隐身模式”,普通人自然会理解成“别记、别传、别看”。今天大家对浏览器无痕模式已经够容易误解了,AI 产品再来一个“Incognito”,却被指照样把聊天记录喂给第三方,这种反差很难不让人感到被戏弄。科技公司总爱说“用户信任最重要”,可一旦信任成了营销文案,事情就开始变味了。
用户拿AI聊税务、健康和法律,广告系统却只看到“高价值线索”
原告 John Doe 在诉状里提到,他会用 Perplexity 处理税务、投资、法律咨询等问题,结果发现涉及家庭财务的信息可能已被共享给谷歌和 Meta。你几乎能想象那种后背发凉的感觉:前一秒还在问“我的资本利得税怎么申报”,后一秒广告系统可能已经把你识别成“高净值、强决策、值得投放”的用户画像。
更麻烦的是,AI 聊天和传统搜索不同。搜索引擎里,我们常常只输入几个零散关键词;但在对话式 AI 中,用户会自然地补充背景、上传文件、解释处境,甚至把原本只会对医生、律师、家人说的话告诉机器。人面对聊天框时,警惕性往往会下降,因为界面设计让它看起来像一个“理解你”的助手,而不是一个广告漏斗。
诉状里提到了一个颇有代表性的例子:如果用户问“肝癌最佳治疗方案是什么”,Perplexity 可能进一步引导用户上传扫描报告、活检结果、治疗计划等更详细资料。从产品体验角度看,这当然很“聪明”,因为更多上下文能换来更准确回答;但从隐私角度看,这就是高风险时刻。用户补充得越真诚、越具体,潜在泄露的后果就越严重。健康、财务、法律、家庭关系,这些都不是普通的行为数据,而是一个人生活里最不愿意被精准营销盯上的部分。
说白了,AI 公司想要的是“深度交互”,广告平台想要的是“可归因的数据”,二者一拍即合,用户的私密表达就成了中间那块最肥的肉。过去十多年,互联网公司已经证明,凡是能被追踪的,最后大概率都会被商业化。AI 时代的问题不是这个逻辑会不会变,而是它会以多快的速度、在多么敏感的场景里重演。
这不只是Perplexity的问题,而是AI产品集体踩中的老地雷
如果你觉得这像是 2015 年的隐私丑闻,只不过换了个 AI 壳子,那你的感觉没错。Meta Pixel、Google 广告追踪、第三方分析代码,这套东西本来就长期游走在合规边缘。前几年,美国多家医院、税务服务平台、教育网站都因在页面中嵌入 Meta 或 Google 追踪器,被曝可能把患者信息、报税数据、学生行为数据传给广告平台,随后招来一连串诉讼与监管调查。
今天 AI 公司的问题是,它们继承了互联网最糟糕的一部分基因,却把交互深度提升了一个数量级。以前用户在网页上点两下,泄露的是点击流;现在用户跟 AI 聊半小时,泄露的可能是人生困境。聊天记录不是普通日志,它往往是一段压缩过的人生现场。
这也是为什么 Perplexity 这起案件格外有象征意义。它提醒我们:AI 不只是“一个更聪明的搜索框”,而是一个更强的收集器、更会诱导表达的界面。用户越觉得 AI 有帮助,就越愿意倾诉;而公司越想提高留存、广告转化和产品训练效率,就越有动力把这些交互接进现成的数据基础设施。对工程团队来说,接一段广告代码也许只是半小时工作;对用户来说,代价可能是自己最敏感的信息进入了一个再也收不回来的商业系统。
更耐人寻味的是,Perplexity 的隐私政策据称既不显眼,也没有在首页明确展示,用户甚至得靠搜索才能找到。到了 2026 年,一家主打 AI 搜索体验的公司,居然还能让用户自己去“搜索”隐私政策,这多少带点黑色幽默。谷歌对此的回应也很典型:平台只提供工具,数据由业务方管理。这个说法当然不新鲜,但它也准确揭示了一个现实——广告生态里每个人都能说自己只是“中间环节”,可最终没人愿意承认自己对伤害负责。
“隐私”正在成为AI时代最容易被包装、也最容易被透支的卖点
这件新闻真正重要的地方,不是 Perplexity 会不会输掉官司,而是它把一个行业趋势撕开给人看了:AI 产品越来越喜欢用“私人助手”“你的第二大脑”“安全对话”“隐私优先”这类语言塑造亲密感,但后台的数据流转机制,很多时候仍停留在广告互联网那一套。
这会带来一个很现实的问题:我们该如何理解 AI 里的“私人”?如果聊天内容会被用于模型改进,用户能否清楚选择退出?如果产品接入第三方追踪器,是否应该像医疗同意书一样显眼提示?如果一个功能叫“隐身模式”,那它的保护边界是不是应该被写得像药品说明书一样明确,而不是靠法务术语蒙混过去?
从竞争格局看,这也会成为 AI 搜索市场的分水岭。OpenAI、Google、Anthropic、Microsoft 这些玩家都在争夺“用户日常提问入口”,但谁能率先把隐私边界讲明白,谁才更有可能赢得高频、长期、甚至高价值场景的信任。尤其是在企业、医疗、教育、法律等领域,答案质量固然重要,可如果用户总担心“我这句话会不会变成广告标签”,再聪明的模型也很难真正进入核心场景。
我个人的判断是,AI 公司接下来会被迫面对一个残酷现实:你不能一边鼓励用户把人生问题全盘托出,一边又把“数据共享”藏在技术实现和法律术语后面。过去互联网平台靠默认勾选、深层页面、模糊措辞就能混过去,AI 时代恐怕没这么容易了。因为对话本身比点击更私密,也更容易激起公众情绪。用户可能容忍网页知道自己想买鞋,但很难容忍系统知道自己在看癌症治疗方案、家庭债务和离婚咨询。
接下来会怎样:法院之外,监管和用户习惯都可能变
这起诉讼覆盖的时间跨度从 2022 年底到 2026 年初,潜在涉及数百万条聊天记录。如果法院认可相关主张,Perplexity、谷歌、Meta 面临的就不只是罚款和赔偿,还可能是对整套追踪实践的禁令式约束。对整个行业而言,这种判例价值比赔多少钱更重要,因为它可能直接影响 AI 应用里第三方脚本、广告归因和分析工具的部署方式。
监管层面也大概率不会无动于衷。过去几年,美国和欧洲对健康数据、儿童数据、敏感信息广告定向已经越来越敏感,而 AI 对话又把这些问题集中到了一起。用户与聊天机器人之间的交流,究竟应被视作普通网页行为、通信内容,还是某种新的“高敏感数字交互”?这是值得认真讨论的边界问题。一旦法律把它往更严格的类别上靠,很多 AI 产品现在的默认设计都得重做。
对普通用户来说,这件事的教训其实朴素得有点无奈:别轻易把 AI 当成树洞,尤其别在没有确认数据政策前上传医疗报告、财务报表、身份证明、合同草稿。不是因为 AI 不好用,而是因为它太好用了,以至于你会忘记自己面对的仍然是一家平台公司,而不是一个守口如瓶的朋友。
AI 公司常说,未来的搜索将是一段持续对话。我同意这句话。但如果这段对话默认坐着广告商、分析平台和各种追踪器,那它就不是“未来的搜索”,更像是“升级版监听”。而这,恰恰是用户最不愿接受的未来。