你的门铃、手表和心脏,都可能成为法庭证词:数字时代的“自我监控”正在改写隐私边界

每个人都知道,手机会“懂你”。它知道你几点出门,走过哪条路,在咖啡馆停留了多久,晚上是回家还是去了健身房。门口的智能门铃知道谁按过门,客厅里的音箱知道你说过什么,手表知道你昨晚睡得浅不浅,甚至某些医疗设备还知道你的心跳何时加快、何时紊乱。
过去几年,科技公司一直把这些能力包装成“更方便”“更安全”“更健康”的承诺。它们确实兑现了一部分:Google Maps 让人告别问路,Ring 让独居者多一分安心,Apple Watch 甚至真的救过人命。但美国乔治·华盛顿大学法学教授 Andrew Guthrie Ferguson 最近接受 Ars Technica 采访时抛出了一个让人不太舒服的提醒:这些设备不仅是智能设备,它们本质上也是监控设备,而且很多时候,监控的不是别人,正是我们自己。
这也是他新书《Your Data Will Be Used Against You》想讨论的核心:在“自我监控”时代,我们每天主动制造的大量数据,正在成为司法系统和执法机构可以调取、分析、甚至反过来指控我们的证据。问题的尖锐之处在于,技术早已进入千家万户,但法律还卡在上个世纪,很多边界根本没画清楚。
当便利成为默认选项,退出反而变得奢侈
Ferguson 的一个观察很准确:今天的隐私困境,已经不是“你是否自愿分享数据”这么简单了。理论上,你当然可以拒绝使用某些应用,关掉定位,不装智能门铃,不戴手环,不买联网家电。但现实是,现代社会的很多基础体验,本身就是建立在数字连接之上的。没有导航软件,陌生城市出行会立刻变回上个时代;没有手机定位,网约车、外卖、即时通信、甚至部分工作协作都变得磕磕绊绊。
这也是为什么“你勾选了同意条款,所以你放弃了隐私”这类说法越来越站不住脚。很多同意,并不是真正意义上的自由选择,更像是一张数字社会的入场券。你不点“同意”,你可能就没法正常生活。法律如果还把这种处境理解成彻底自愿,那显然有点刻舟求剑。
更麻烦的是,监控的外延正在悄悄扩大。过去,警方监控和高强度数据收集往往更多落在少数群体、边缘群体身上,这背后有长期的种族与执法问题。但如今,智能设备的普及让更多原本自认为“离监控很远”的普通人也进入了数据网。记者、抗议者、异见者、科学家,甚至只是某个政治风向里的“麻烦人物”,都有可能突然意识到:原来我家门口的摄像头、邮箱里的记录、手机里的位置轨迹,早就足够拼出完整画像。
说得直白一点,今天很多人买智能设备时想的是“这能保护我”,却很少认真想过“它也可能在某天出卖我”。
1791年的宪法,管得了2026年的传感器吗?
Ferguson 作为长期研究警务技术与刑事司法的法学教授,把问题直接指向了美国第四修正案——那条诞生于 1791 年、原本是为了防止政府进行不合理搜查和扣押的法律原则。它当年要防范的,是英国殖民官员闯进你家里翻箱倒柜,检查你有没有藏逃税货物,或者有没有写反对国王的信件。
听上去很古老,但神奇的是,这种对“政府随意翻查私人生活”的警惕,放到今天并不过时。只是翻箱倒柜的动作,已经从木柜、抽屉、纸信件,变成了云端备份、位置数据库、穿戴设备日志和家庭摄像头素材。换句话说,物理时代的“搜家”,在数字时代可能变成了“搜你的生活痕迹”。
法律的尴尬也正在这里。很多如今仍在沿用的重要隐私判例,来自完全不同的技术世界。比如围绕“第三方持有数据”建立起来的法律逻辑,曾经讨论的是银行微缩胶片记录;著名的隐私期待判例,则涉及 FBI 监听公用电话亭。今天的学生听这些案例时,可能还得先补一节“什么是公用电话、什么是微缩胶片”。但法院却还在用这些前智能手机时代的框架,去处理传感器遍地、手机信号无处不在的现实。
这不是法学家的学院派焦虑,而是实打实的制度滞后。因为技术不是在等待法律完善后才落地,它是一边扩张,一边把新的证据类型送上法庭。
从门铃视频到心跳数据:你以为最私密的,也未必安全
采访里最让人背后一凉的案例,是智能心脏起搏器。这个设备会持续记录患者的心脏数据,并把信息发送给医生,本意当然是为了救命。但在一个保险欺诈和纵火案里,警方通过搜查令拿到了嫌疑人的心跳记录,用来证明他的陈述不可信——他说自己当时在火场里奋力抢救财物,但心率数据并不支持这种激烈活动。
从侦查角度说,这套逻辑并不离谱,甚至可以说非常“聪明”。警方不是靠口供,而是靠客观数据拆穿谎言。可让人不安的是,心脏起搏器不是普通消费电子,它几乎是一种维持生命的基础设施。你能说患者“自愿”放弃了自己的生理隐私吗?这就像说,一个人为了继续活着,不得不接受设备联网,于是默认同意这些数据未来也可能被用于刑事指控。这样的“同意”,总觉得哪里不对。
起搏器只是一个极端但真实的例子。更常见的,是门铃摄像头、Google 搜索记录、Gmail 内容、经期 App、智能牙刷、睡眠监测器、车载系统。每一样单独看都不吓人,拼在一起却足以构成一个比你朋友还了解你的“数字分身”。而法律对于这些数据到底需要什么级别的授权才能调取,很多时候并没有一致答案。
这也是 Ferguson 反复强调的重点:问题不是“数据坏不坏”,而是默认规则太偏向“只要数据存在,警方基本就能拿”。有时需要搜查令,有时甚至连搜查令都未必明确需要。对于普通人来说,这种不确定性本身就是风险。
谷歌的位置库争议,暴露了一个更大的现实
在这场讨论里,Google 是一个绕不开的名字。因为只要你在用 Android 手机、Google Maps、Gmail 或其他 Google 服务,你在相当长一段时间里都可能被纳入其庞大的位置数据库。美国警方过去曾广泛使用所谓“地理围栏令”(geofence warrant)调查案件:比如某地发生抢劫后,要求平台提供案发时段附近出现过哪些设备。先圈定一大片区域,再逐步缩小范围,最后识别出具体用户。
Google 曾设计过一个三阶段流程,尽量在配合执法和保护用户之间找平衡:先提供匿名化设备数据,再逐步缩小,最后在更明确的法律程序下揭示身份信息。这套流程听起来像是合理的企业治理,但它本质上不是国会立法,也不是最高法院强制要求,而只是 Google 法务团队自己搭出来的一道“护栏”。说得现实一点,公司今天愿意这样做,明天也可以改。
问题正在于此:对如此敏感、覆盖面如此之广的位置数据,社会不能只靠企业自觉。尤其当相关案件已经走到美国最高法院面前时,结果可能影响的不只是 Google,而是整个数字时代的位置隐私原则。如果法院最终认定这类数据不构成“搜查”,那传递出的信号就会非常明确:因为数据是你自己产生、你自己交给平台的,所以政府获取它并不需要太高门槛。
这几乎会把“自我监控”合法化为一种常态。今天是定位,明天可能就是家庭摄像头的音视频,后天则是更多生物识别与健康数据。技术一旦铺开,执法机构自然会希望使用;而只要法律不给更高门槛,这种使用就会不断扩张。
真正值得讨论的,不是禁用设备,而是重建规则
Ferguson 的态度其实并不极端。他并没有主张大家把智能音箱全拔电,把运动手表都扔掉,也没有简单地把“数据侦查”描绘成洪水猛兽。他承认,指纹库、DNA 数据库、视频监控、面部识别、AI 分析,在某些案件中的确能帮助破案,甚至能救人。这不是“要不要技术”的二选一,而是“技术在什么规则下使用”的制度问题。
我很认同他提到的一点:我们其实不是没有治理经验。美国《窃听法》就是个典型例子。监听你家客厅里的对话,按理说是极度侵入式的手段,但社会之所以没有天天活在“政府随时监听”的恐惧里,很大程度上是因为程序门槛足够高:需要更严格的司法审批、必须针对严重犯罪、还得向法官持续报告使用情况。它不是完全禁止,而是通过高标准程序限制权力滥用。
这个思路完全可以移植到今天的数字数据上。调取 Ring 门铃数据、Google 位置记录、穿戴设备健康日志,也许不该只用普通搜查令对待,更不该让企业协议和模糊判例决定边界。某些数据天生敏感,某些检索方式天生过宽,就应该有更高一级的审查机制。否则,“为了破案所以都可以查”最终会变成“只要想查就总能找到理由”。
如果把视线放大一点,这件事对中国读者也不陌生。我们同样生活在一个智能设备飞速普及的社会:智能门锁、行车记录仪、可穿戴设备、家庭摄像头、外卖和打车平台、无处不在的位置服务。不同法域有不同制度,但一个共同现实是,个人数据早已不是抽象概念,而是和出行、医疗、居住、安全感紧密绑定的基础资源。谁能调用它、为谁调用、在什么边界内调用,这些都不是“专家讨论一下就行”的技术细节,而是每个普通人都绕不开的生活问题。
真正值得警惕的,不是设备越来越聪明,而是我们可能太快接受了“只要便利,隐私总要让一点”的交换逻辑。问题在于,这种“让一点”往往没有明确止境。今天你让出门口,明天让出卧室,后天让出心跳。等到你发现时,可能已经很难退回去了。
所以,这本书和这次采访的价值,不在于制造恐慌,而在于逼我们面对一个常被忽略的问题:数字时代的隐私,不会靠默认设置自动存在,它只能靠更明确的法律、程序和社会共识去争取。如果规则不尽快跟上,那么下一次在法庭上“出庭作证”的,也许不是证人,而是你手腕上的表、口袋里的手机,或者你身体里那颗努力维持你生命的芯片。