3百万张约会照片流向人脸识别公司,OkCupid这场旧账为何现在才清算

安全 2026年4月1日
3百万张约会照片流向人脸识别公司,OkCupid这场旧账为何现在才清算
美国联邦贸易委员会指控,OkCupid曾在未明确告知用户、也未提供退出选项的情况下,将近300万张用户照片连同位置等信息交给人脸识别公司 Clarifai。这起发生于2014年的旧事,拖到2026年才以“零罚款”和解收场,表面看像轻轻放下,实际上却再次把一个老问题推到台前:我们的脸,到底是不是平台可以随手拿去训练AI的原料?

一桩来自2014年的隐私旧案,刺痛了2026年的AI神经

如果你曾经用过约会软件,大概率会认真挑过头像。有人选海边旅行照,有人选健身房镜前自拍,还有人纠结半天,到底该放一张看起来“像自己但比自己状态更好”的照片。问题在于,这些本该只用于“找对象”的照片,后来可能被拿去做了另一件完全不同的事:训练人脸识别系统。

美国联邦贸易委员会(FTC)本周披露,OkCupid及其母公司 Match Group 与监管机构达成和解。FTC 指控称,OkCupid 在2014年将近300万张用户照片,以及地理位置和人口统计等信息,提供给了 AI 公司 Clarifai,而用户既没有被充分告知,也没有获得选择退出的机会。更扎心的是,FTC 还称,OkCupid 当时并未对这批数据的使用方式设置正式合同限制,等于把一批高度敏感的个人信息“裸奔”交了出去。

这件事让人不舒服,不仅因为数据量惊人,更因为场景本身非常私密。约会平台上的照片,和社交平台头像、公开新闻照片不是一回事。它们往往带着更强的真实身份线索、更明确的年龄与性别判断,也可能包含位置、生活状态和亲密关系预期。说得直白一点,用户上传这些照片,是为了被潜在约会对象看见,不是为了进入算法流水线,更不是为了被未来可能服务于警方、军方或政府机构的人脸识别系统“学习”。

真正让人后背发凉的,不只是“分享了”,而是“怎么分享的”

从 FTC 披露的细节来看,这起事件最令人警惕的,并不是企业之间有数据合作本身,而是这次合作的边界几乎像不存在。监管文件称,Clarifai 的 CEO 当年直接给 OkCupid 联合创始人发邮件索要大量照片数据,而促成这次共享的背景,是 OkCupid 创始人与 Match 高管对 Clarifai 有财务投资关系。随后,OkCupid 方面提供了近300万张用户照片,且公司总裁和 CTO 直接参与了数据转移。

问题来了:有没有签正式协议?没有。有没有明确约束对方怎么用这些照片?没有。对方有没有为这些数据付费,或者为 OkCupid 提供明确服务?也没有。这样的安排,在今天看几乎是隐私治理教科书里的反面案例。

更糟糕的是,FTC 认为,OkCupid 后续还试图淡化甚至否认与数据接收方的关系。早在2019年,《纽约时报》就报道过 Clarifai 曾用 OkCupid 图片建立面部数据库,并训练系统识别年龄、性别和种族。那篇报道当时已经足够震动行业,因为它揭示了一个很多普通人并不熟悉的现实:互联网平台上的照片,并不会因为“只是上传在某个 App 里”就自动停留在那里,它们可能跨平台流动、被重新标注、重新训练,最后出现在你从未想象过的应用场景中。

而一旦进入人脸识别系统,事情的性质就变了。普通照片是静态记录,人脸识别数据库却是一种可检索、可匹配、可归类的基础设施。它把“你的脸”从社交表达,变成了机器可调用的身份特征。今天它可以拿来估年龄,明天就可能被用于监控、执法、边境管理,甚至商业画像。用户的同意,在这个链条里往往是第一个被省略的环节。

零罚款和解,看上去便宜,留下的问题却不便宜

这次和解最耐人寻味的一点,是 Match 和 OkCupid 不需要支付任何金钱罚款。公司也很快对外表态:虽然不承认有不当行为,但很高兴能在“无罚款”的情况下解决一桩2014年的遗留问题,并强调如今的隐私治理已经改善。

从企业公关角度说,这当然是个不错的结局;但从公共治理角度看,这种结局多少有点轻。FTC 要求两家公司今后不得歪曲其对个人数据的收集、使用、披露、删除与保护方式,这当然是必要的,可它更像一道“以后别再这么说了”的禁令,而不是一次真正有痛感的惩戒。

为什么会这样?一个背景是,美国 FTC 的执法环境正在变化。报道提到,特朗普政府时期 FTC 已由共和党人完全掌控,此前还发生过总统解雇民主党委员的争议。同时,法院近期对 FTC 的部分执法权也施加了限制。虽然这类限制主要针对 FTC 内部行政程序,不妨碍其继续向法院提起欺骗性行为指控,但现实效果很明显:监管机构要打赢、打疼平台,难度变高了。

这也解释了为什么这起看上去性质不轻的案件,最后落点却如此“温和”。可问题是,没有经济处罚的和解,很难给整个行业建立足够清晰的威慑信号。对大平台来说,十几年前的数据操作失当,拖几年、谈一谈、改一改措辞,最后就过去了,这样的成本未免太低。尤其在 AI 公司对训练数据如饥似渴的今天,这样的先例并不让人放心。

从 Clearview 到约会软件,AI最爱吃的总是“现成数据”

把这件事放进更大的行业背景里看,它其实一点都不孤立。过去几年,围绕人脸识别和训练数据的争议层出不穷。最著名的例子之一是 Clearview AI,这家公司通过大规模抓取社交媒体和公开网络图片,建立了庞大的人脸搜索数据库,引来多国监管机构和隐私倡议者的持续炮轰。

Clarifai 的路径虽然不同,但底层逻辑相似:AI 行业总是倾向于从“已经存在”的数据池里寻找低成本燃料。社交平台、求职网站、图片社区、约会应用,都可能在某一刻突然从“服务场景”切换成“训练语料”。技术公司会把这种转化包装为研发合作、算法改进、降低偏见、提升模型能力,听上去甚至有几分理想主义色彩。但对普通用户来说,最核心的问题从来都很朴素:我有没有被清楚告知?我有没有真实选择?

尤其是人脸数据,它和一般浏览记录、点击偏好不同。密码可以改,手机号可以换,邮箱可以注销,但脸几乎是无法撤销的生物特征。一旦被收集、标注、复制并进入下游系统,你很难知道它将漂流到哪里,更难要求每一个接收方彻底删除。有人把这称为“不可重置的隐私损失”,我觉得这个说法非常准确。你可以重装手机,删掉 App,却删不掉自己的脸已经被谁学会。

这也是为什么约会产品尤其应该被更严格地审视。因为这类平台天然掌握的不只是照片,还有年龄、性别、兴趣、位置、取向、交往意图等高敏感信息。把这些信息与面部图像拼接在一起,本质上是在为机器建立更完整的人类档案。技术上这很诱人,伦理上却很危险。

这件事真正追问的,是“同意”两个字到底还值多少钱

很多互联网用户今天已经对隐私弹窗麻木了。打开 App,点“同意”;注册新服务,点“我已阅读”。可这起事件恰恰提醒我们,形式上的隐私政策和真正有意义的同意,差别很大。FTC 指出,OkCupid 当年的隐私政策曾向用户表示,除非在政策中说明,或在分享前告知并提供退出机会,否则不会把个人信息分享给他人。换句话说,连它自己写下的规则,都没有真正守住。

这就是平台治理里最棘手的地方:很多时候,用户和平台之间并不是平等交易。用户看到的是一款找对象的软件,平台看到的却可能是一座高价值数据矿山。前者的期待是匹配和聊天,后者的诱惑是推荐系统、广告画像、风险控制,甚至外部 AI 合作。只要边界模糊,平台总会有动力把“用户上传给服务的数据”,解释成“企业可灵活运营的资产”。

我一直觉得,AI 时代最需要被重新定义的,不是算法效率,而是数据使用中的“上下文边界”。你把照片发给朋友,不代表你同意它进入商业图库;你把声音上传给客服,不代表你同意它被训练成语音模型;你把约会照片传到 App,不代表你同意它去给人脸识别系统打工。技术公司最喜欢模糊的,就是这种边界;用户最需要守住的,也正是这种边界。

所以,这起旧案今天仍然重要,不是因为它有多戏剧化,而是因为它像一面后视镜,照见了 AI 产业一路走来的老毛病:先拿数据,后谈规则;先做产品,后补伦理;先说创新,出了事再说那是“历史问题”。如果连约会软件里的脸都能悄悄流入识别系统,那么下一个被“合理利用”的,又会是什么?

Summary: 在我看来,这次“零罚款”和解并不意味着风波结束,反而像是给整个行业敲了一记闷钟:平台对生物特征数据的使用,不能再停留在模糊授权和事后解释的旧时代。未来几年,围绕人脸、声音、行为轨迹的监管只会更细、更硬。谁还把用户数据当成可以顺手挪用的AI燃料,谁就可能在下一轮监管和公众反弹中付出更高代价。比起技术能做什么,今天更该问的是:它凭什么这么做。
隐私泄露人脸识别OkCupidFTCClarifai用户照片AI训练数据生物识别数据Match Group数据合规