你的机票为什么比别人贵?科罗拉多要对“监控定价”下手了

商业 2026年3月28日
你的机票为什么比别人贵?科罗拉多要对“监控定价”下手了
科罗拉多州众议院近日通过一项法案,试图限制企业利用个人数据和不透明算法为不同消费者定制价格,甚至影响工资设定。这不只是一次消费者保护立法,更像是对“数字时代差别待遇”发出的警告:当手机变成我们的第二大脑,谁有权拿这些数据来给你贴价签?

当价格开始“认识你”,问题就不只是贵一点

你大概有过这种感觉:同样一张机票,你和朋友几乎同时查询,价格却不一样;同样一份外卖、同一家超市、同一个酒店页面,刷新几次后,数字像是长了眼睛,专门盯着你钱包的厚度变化。过去我们把这类现象归因于“平台套路深”,现在,越来越多州议员开始把它说得更准确一点——这可能是“监控定价”。

美国科罗拉多州众议院本周通过了一项颇有时代气息的法案,编号为 HB26-1210。它要限制企业把个人数据丢进算法里,用来决定商品价格或劳动者工资。法案瞄准的数据范围并不窄:搜索记录、财务状况、上网习惯、用户在网站和 App 上的点击和停留行为,甚至地理位置,都可能被纳入画像。简单说,就是你以为自己只是随手搜了一下“儿童退烧药”,平台可能已经在推测:这个人着急、这个人愿意多付钱。

这种事真正让人不安的地方,不是平台会不会做促销,而是它开始把每个人变成一个单独的定价对象。传统市场里的“同货同价”,正在被一种更安静、更隐蔽的逻辑替代:价格不再只由供需决定,也由你是谁、你看起来有多急、你有多难离开这个平台决定。技术上,这当然很先进;社会意义上,它却未必体面。

从推荐系统到“榨取消费者剩余”,算法已经走得太远

科罗拉多州议员的话说得很直接。民主党籍议员 Javier Mabrey 把手机形容成“人脑的延伸”,我们把最私密的内容塞进手机里:短信、搜索、定位、浏览痕迹。问题在于,这些数据最终并不只是帮助平台“更懂你”,还可能帮助商家“更会收你钱”。这句话听着像口号,但放在今天的互联网商业里,几乎就是现实。

过去十几年,互联网平台最擅长的事是推荐:给你推荐视频、商品、广告、路线、新闻。可一旦推荐系统和定价系统打通,事情就变味了。平台不只知道你想买什么,它还想知道你最痛的时候能承受多高的价格。尤其在机票、酒店、药品、日用品这些领域,消费者常常不是在“悠闲比价”,而是在赶时间、带孩子、准备出差、处理突发情况。人在焦虑时,算法最会做生意。

美国联邦贸易委员会 FTC 在 2025 年的一份报告里提到,随着人工智能技术进步,企业越来越有能力依据极其细致的个人特征调整价格。报告用了一个很关键的表达:价格正在变成“多维”的。翻译成人话就是,以前一个商品对应一个标价,现在可能对应一套动态矩阵,而你只是其中一行数据。平台不一定会赤裸裸地说“你更有钱,所以多付 20%”,它完全可以通过受众分层、行为预测、风险评分等方式,让结果看上去既自动化,又难以追责。

这也是为什么这项法案的重要性,远超一州一地的监管新闻。它其实在逼问整个数字经济:个性化服务和个性化剥削之间,边界到底在哪?

这次立法想禁什么,又没禁什么

HB26-1210 并不是要把一切价格波动都打成违法。法案明确留了几个口子:会员积分、忠诚度计划、优惠券,以及面对教师、退伍军人等特定群体的折扣,不在打击范围内。基于供需关系的价格变化——比如节假日机票涨价、暴雨天网约车加价——也不被视为“监控定价”。

这点很关键,因为它说明立法者并不是反对市场机制,而是反对那种消费者看不见、也很难拒绝的数据驱动型差别定价。换句话说,商家可以公开地说“今天需求高,所以价格上调”,但不能偷偷地根据你的搜索焦虑值、支付能力和行为习惯,给你生成一个专属高价,再假装这一切只是系统自动计算。

更有意思的是,法案不仅盯着消费者,也盯着劳动者。它要禁止企业利用类似的数据和算法来决定工资。为什么工资也会被卷进去?因为在不少企业的人力资源系统里,算法早已不只是“辅助决策工具”,而是隐性权力的一部分。它可能根据绩效、历史薪酬、跳槽频率、教育背景,甚至员工在内部系统中的行为痕迹,给出一个“合理薪酬区间”。听起来高效,但也可能把旧有偏见包装成数学结论。

如果一家公司的算法默认某类人“不太可能谈薪”,或者依据历史工资推算新工资,那么它就可能把过去的不公平,批量复制到未来。放在 AI 加速进入企业管理流程的今天,这绝不是小问题。

支持者和反对者,其实都说到了点子上

支持法案的一方认为,这就是 21 世纪版本的消费者保护。民主党籍议员 Jennifer Bacon 提到,反垄断法和反欺诈法的存在,本来就是为了保证消费者能在相对公平的环境里做决定。今天的欺骗不一定发生在广告文案里,也可能藏在看不见的算法规则中。你以为自己面对的是市场,其实面对的是一套针对你个人的行为预测机器。

反对者的担忧也并非全无道理。共和党议员 Chris Richardson 认为,法案措辞可能过宽、过模糊,尤其是在“工资设定”的定义上,可能误伤企业日常的数据分析。比如一些人力资源软件会根据绩效推荐薪酬带宽,这究竟是合理管理,还是算法越权?监管如果写得太粗,企业会担心连正常分析工具都不敢用了。

我倾向于认为,方向上这项法案是对的,但执行细则将决定它是不是一把好刀。今天很多技术治理争议都卡在这里:原则非常正确,落地异常复杂。你不能因为定义难,就默认平台有权“先用再说”;但也不能只凭一句“禁止算法定价”,就把所有数据分析一锅端。真正考验立法能力的,不是喊口号,而是能不能把“个性化服务”和“个体剥削”划出一条操作性边界。

为什么偏偏是现在?因为 AI 正在把“区别对待”变成基础设施

这项法案出现的时间点,很有象征意味。过去两年,生成式 AI 抢走了大部分头条,仿佛技术革命的主题全都围着聊天机器人打转。但对普通人更直接的影响,往往不是 AI 会不会写诗,而是 AI 会不会悄悄决定你买菜要花多少钱、面试能拿多少薪水、贷款利率是多少。

纽约州去年 11 月已经先走一步,成为首个要求企业披露“是否使用个人数据进行算法定价”的州。其他州也在跟进。不过目前多数立法仍停留在“告知义务”层面:告诉你,平台用了算法。可问题是,知道自己被算计,并不等于有能力反制。科罗拉多这次更进一步,直接奔着限制使用去,这才让它显得更有冲击力。

更大的背景是,数字平台的商业模式正在从“卖广告”走向“卖预测”。广告时代,平台预测你会点什么;AI 时代,平台开始预测你能承受什么。对企业来说,这是提高利润率的自然演进;对消费者和劳动者来说,这却可能意味着一种前所未有的细粒度不平等。每个人都被单独测量、单独估值、单独报价,表面上高度个性化,实际上高度失衡。

我一直觉得,技术社会最危险的时刻,不是机器犯了明显错误,而是机器把不公平做得异常顺滑、异常高效,以至于大多数人根本察觉不到自己被区别对待。今天谈“监控定价”,本质上不是反技术,而是在追问:技术究竟该用来提升效率,还是用来榨干信息不对称带来的最后一点利润?

科罗拉多这项法案接下来还要进入州参议院审议,能否最终成法还未可知。但至少,它已经把一个很多人隐约感到不舒服、却很难准确命名的问题,摆到了政治台面上。对科技行业来说,这种变化值得认真对待,因为下一个被质疑的,可能不是某个具体平台,而是整套“以数据换便利、以画像定价值”的默认商业逻辑。

Summary: 我看好这类立法会越来越多,而且会从“要求披露”逐步走向“限制使用”。原因很简单:当 AI 把个性化定价和算法工资设定做得越来越精准,社会迟早会追问公平边界。科罗拉多这一步未必完美,甚至可能在细则上反复拉扯,但它踩中了一个关键趋势——未来真正的监管战场,不只是模型能力,而是数据如何被拿来对待人。
监控定价科罗拉多州HB26-1210个人数据算法定价消费者保护价格歧视用户画像动态定价数据隐私