Reddit开始给“像机器的人”验明正身:当真实人类,成了互联网最贵的资产

Reddit 这次的动作,很像在互联网门口贴了一张新告示:欢迎人类,机器人请挂牌。
3 月 25 日,Reddit CEO 史蒂夫·霍夫曼(Steve Huffman)表示,平台接下来会要求那些表现出“自动化或其他可疑行为”的账号,去验证自己是否由真人控制。按照他的说法,这类验证只会针对少数被系统怀疑的账号,不会波及大多数普通用户;但如果账号无法证明自己是“人”,它的功能就可能被限制。
这条消息表面上看是在打击机器人,实际上却点中了今天互联网最敏感的一根神经:当 AI 已经能写帖、回帖、吵架、安利产品,甚至假装“一个有点笨拙但很真诚的普通网友”,平台还怎么证明,屏幕对面真的是个人?
Reddit为什么现在动手:因为“真人感”正在变成稀缺品
如果把过去十几年的社交平台比作热闹广场,那么 2026 年的广场上,已经出现了越来越多“看着像人、说话像人、发言效率甚至比人还高”的 AI 账户。它们不一定都带着恶意,有些是营销号的升级版,有些是自动化客服披着网友外衣,也有些干脆就是大模型驱动的内容工厂。平台如果再不设门槛,讨论区很容易从“社区”变成“模拟社区”。
Reddit 对这件事尤其敏感。因为它最核心的价值,从来不是短视频平台那种算法爽感,也不是即时通讯工具那种熟人关系,而是一个老派、甚至有点笨拙的承诺:你在这里看到的大量内容,来自真实用户的真实经验。有人会认真告诉你,怎么修一台十年前的洗衣机;有人会半夜发帖讨论焦虑;也有人会在冷门论坛里写一篇比专业评测还真诚的使用心得。正因为这些内容带着强烈的人味,Reddit 才能一边吸引用户,一边把这些年积累的海量文本卖给 AI 公司训练模型。
问题就在这里:如果 Reddit 的内容越来越多地由 AI 自己生成、自己回复、自己点赞,那么它赖以生存的“人类互联网样本库”会迅速贬值。广告主买的是触达真人,AI 公司买的是人类表达,普通用户想看的也是人的经验,而不是机器之间互相捧场。换句话说,Reddit 不是单纯在打机器人,它是在保卫自己的商业护城河。
怎么验证你是不是人:从 Passkey 到虹膜扫描,手段一个比一个微妙
霍夫曼给出的方案听起来很克制:Reddit 会借助第三方工具做验证,并强调 Reddit 本身不会看到用户的真实身份、用户名和站内活动之间的直接关联。理想状态是,平台只拿到一个结论——“这个账号背后大概率是人”——而不是一整套你的实名档案。
目前 Reddit 考虑的路径包括 Passkey、生物识别服务,甚至在某些地区使用政府身份证件验证。Passkey 算是其中最温和的一种,它本质上依赖设备和加密密钥来证明“这个操作由一个真实设备上的人完成”,安全性比短信验证码和密码高得多,但它解决不了更深层的问题:它能证明“有人按了按钮”,却不一定能证明“这是独一无二的一个自然人”。
这也是为什么 Reddit 还在研究像 World ID 这样的第三方生物识别服务。后者的思路更激进——通过虹膜等生物特征,给每个人生成一个难以伪造的唯一身份凭证。支持者认为,这可能是 AI 时代互联网恢复秩序的一条路;反对者则担心,平台为了证明你是人,最后却逼你先把身体数据交出去。这种担忧一点也不夸张。过去十年,科技公司已经让用户习惯了用手机号、证件、面容去换便利,但每次“只用于安全验证”的承诺,最终都要经受住权限扩张和数据泄露的现实考验。
霍夫曼也承认,政府 ID 验证是“最不安全、最不隐私、最不理想”的最后手段。不过在英国等监管更严的地区,平台本来就已经被迫这么做了。问题不在于 Reddit 想不想要更多身份信息,而在于,未来的大型平台很可能会越来越频繁地被监管和风控逻辑推向这一步。于是我们看到一个略带讽刺的局面:互联网曾经因为匿名而自由,如今却要靠更复杂的身份证明来维持匿名空间里的可信度。
平台并不打算封杀AI内容,它只想让机器人别混进“人群”里
这次政策里最有意思的一点,不是“严”,而是“分层”。Reddit 并没有宣布禁止 AI 生成内容。也就是说,一个真人用户借助 ChatGPT 写帖子、润色评论,甚至让 AI 帮自己组织观点,平台眼下仍然允许。真正要被盯上的,是那些自动化运行、行为模式像机器人、且没有明确标识的账号。
这就引出了 Reddit 同步推出的新标签制度:允许合规使用机器人的账户或应用,会获得一个 App 标签。这个思路很像给自动驾驶测试车贴上醒目标识——不是不许上路,而是你得告诉别人你是谁。它背后的逻辑并不复杂:未来的互联网大概率不可能完全排斥 AI 代理,问题只在于,机器能不能诚实地承认自己是机器。
这种分层处理,其实比“一刀切封禁 AI”更现实。因为今天很多内容生产已经处在半人半机状态:真人提出想法,AI 帮忙整理;真人写初稿,AI 做润色;甚至一些开发者会用机器人协助管理社群、整理 FAQ、做客服响应。把这些全部打成“非人内容”既不现实,也会误伤正常使用者。Reddit 的选择是守住一条底线:AI 可以帮人说话,但不能悄悄假装自己就是人。
只是,这条线执行起来并不容易。谁来定义“fishy”,也就是“可疑”?高频发言算不算?深夜连续在线算不算?一个热情过头、表达过于工整的新用户,会不会被系统错当成机器人?在反垃圾和反自动化这件事上,平台向来容易误伤边缘用户,尤其是那些行为模式不够“典型”的人。技术上能做风险识别,治理上却未必能做到足够公平。
一场比反垃圾更大的战争:互联网正在争夺“人类证明”
如果把时间线拉长,Reddit 这次动作就不只是一个社区平台的运营更新,而是整个行业正在形成的共识:未来几年,证明“你是人”会变得和“你记得密码”一样重要。
这种变化并不只发生在 Reddit。Cloudflare 等基础设施公司已经多次预警,在线 bot 流量可能很快超过人类流量。重启后的 Digg 甚至因为“前所未有的机器人问题”暂停开放测试。搜索、社交、电商、评论区、票务系统、招聘平台,几乎每个依赖用户互动的地方,都开始面临同一个困境:当 AI 代理能低成本、大规模、24 小时在线地模拟人类行为时,原有的信任机制会被迅速冲垮。
这也是为什么“人类证明”正慢慢从边角料功能,变成平台基础设施。以前网站验证你是不是机器人,主要靠验证码——选路灯、点斑马线、认消防栓,把人类训练成兼职图像标注工。现在这套东西越来越难用,因为模型本身已经很擅长识别图像和模拟点击行为。接下来平台需要的,不只是一次性的“不是机器人”,而是持续性的“这个账号背后一直是同一个真实的人”。
可麻烦也恰恰在这里。平台越想确认“你是真人”,就越可能侵犯隐私;越想减少误伤,就越要收集更多行为数据;越想建立可信身份层,就越容易形成新的准入壁垒。对于那些依赖匿名表达的人——比如举报者、少数群体、政治敏感地区用户——“证明自己是人”这件事永远不是一句轻松的口号。它背后牵扯的,是权利、匿名、安全和平台控制力的重新分配。
所以我对 Reddit 这次动作的看法有点复杂。一方面,它确实抓住了问题本质:如果社区不能分辨真人和机器,那社区就会失去讨论价值。另一方面,任何“人类认证”机制都不能只看技术上是否可行,更要看它是否会在不知不觉间,把互联网改造成一个处处要出示通行证的地方。平台想要保住人味,别最后把人先吓跑了。
Reddit真正想卖的,不只是内容,而是“这里还有真人”
从商业角度看,Reddit 这套策略几乎是必然的。它每天据称已经删除 10 万个使用恶意机器人、发送垃圾内容的账号,而且很多删除在用户看到之前就完成了。这个数字本身就说明,平台和自动化账户之间早就进入高强度对抗,只不过现在 AI 让这场战争更隐蔽,也更昂贵。
Reddit 这些年一边向广告主推销“这里的人会认真讨论产品”,一边向 AI 公司出售海量论坛文本的训练访问权,还一边起诉或封禁未经授权抓取内容的公司。它已经越来越清楚:真正值钱的不是页面浏览量,而是带有人类经验、情绪和语境的讨论。说得更直白一点,在 AI 时代,Reddit 卖的不是帖子本身,而是“这些帖子像人写的,而且大部分确实是人写的”这件事。
这也解释了一个看似矛盾的现象:Reddit 现在不急着消灭 AI 生成内容,却急着区分账号背后到底是不是人。因为在平台眼里,内容是否完全由人手写,和账号是否属于真人,是两个层次的问题。前者还有模糊空间,后者一旦失守,整个社区的信任结构都会塌。一个论坛里偶尔出现 AI 辅助写作,用户未必会离开;但如果大家开始怀疑回帖的、点赞的、抬杠的、安利的,大半都不是人,那社区气氛会瞬间变味。
未来几年,我们大概会越来越频繁地看到类似政策:平台要求“高风险账号”做更多证明,机器人要被打标签,匿名仍被保留,但会建立在某种“只验证人性、不暴露身份”的技术方案之上。问题在于,这种理想方案到底能否真正成立。科技行业最擅长发明中间态概念,比如“去身份化身份验证”“隐私保护型实名”“零知识证明的人类凭证”,听起来都很美。但只要执行落到具体产品、具体监管、具体商业利益上,用户就会发现,抽象承诺和实际体验之间,常常隔着一条很长的路。