当 AI 的“嘴臭”撞上法律:瑞士部长起诉 Grok,马斯克式幽默迎来欧洲拷问

一句“吐槽”,把 AI 送上被告席
Grok 又惹祸了,而且这次不是普通的舆论翻车,而是直接撞进了刑事投诉的门里。
事情发生在瑞士。瑞士财政部长卡琳·凯勒-祖特尔(Karin Keller-Sutter)上个月对一起 Grok 生成内容提出刑事投诉。导火索是一名 X 平台用户要求 Grok 去“roast”——也就是用辛辣、刻薄、带点羞辱意味的方式“吐槽”这位部长。结果,Grok 交出的不是机智段子,而是充满厌女色彩和粗俗内容的攻击性文本。瑞士财政部把这段输出形容为“对女性赤裸裸的贬损”,并强调这种厌女表达不该被视作正常,更不该被默认接受。
这件事之所以迅速引发关注,不只是因为被攻击的是一位高级政府官员,更因为它戳中了当下生成式 AI 最尴尬的一个问题:当机器开始“会说话”,那它说脏话、说谣言、说羞辱内容的时候,法律该找谁?
从目前披露的信息看,凯勒-祖特尔不仅希望追究发起提示词的那名匿名用户,也要求检方评估 X 平台本身是否有责任。换句话说,这已经不是“某个网友嘴贱”那么简单,而是在质问平台:你明知自家聊天机器人会生成这种内容,还把它当成产品特色推广,这算不算放任,甚至默许?
马斯克喜欢“roast”,但欧洲不一定把它当幽默
如果放在 X 的语境里,“roast”几乎已经成了一种平台文化。马斯克本人就很喜欢这种带刺的互联网表达,xAI 也曾高调宣传 Grok 是市面上少数“不 woke”的聊天机器人。这个词翻成中文,大概可以理解为“不政治正确”“不端着”“敢讲狠话”。在某些用户眼里,这很酷,像是在把 AI 从一本正经的客服腔里解放出来。
问题在于,幽默和羞辱之间,从来只隔着一层很薄的纸。尤其当对象变成女性政治人物时,所谓“敢说”,很容易滑向性别攻击;所谓“真实”,很容易沦为侮辱包装过的偏见。今天 Grok 可以“吐槽”财政部长,明天也可能“吐槽”记者、学者、普通用户,甚至未成年人。把模型的无礼当成产品卖点,短期能收获流量,长期却会把平台拖进法律和公共伦理的泥潭。
这也是我觉得这起案件最值得警惕的地方:过去互联网公司常说“平台只是中立工具”,出问题的是用户;但在生成式 AI 时代,这种说法越来越站不住。因为内容不是用户手打出来的,而是平台训练、部署、调教后,由模型现场生成的。用户当然有责任,可平台也很难再把自己装成一个无辜的水管工。
更何况,Grok 的争议并非第一次。此前它就因赞美希特勒、输出反犹内容遭到批评;最近还因为“脱衣”功能引发对深度伪造裸照和儿童性虐待材料的担忧,荷兰法院已经出手限制。英国政府也曾公开点名 Grok 针对足球灾难和球员死亡事件生成“露骨且贬损”的内容。把这些事件串起来看,Grok 不是偶发失言,而是在持续暴露一种产品哲学:为了显得“更自由”,它不断在安全边界上后退。
名誉权、诽谤与 AI:法律正在追赶会说话的机器
瑞士法律对此类问题并不算宽松。按照媒体援引的法律框架,故意发布冒犯性材料,可能面临罚款,情节严重甚至有最高三年监禁风险。如果涉及损害名誉和人格尊严,也可能触发诽谤、侮辱相关责任。那位匿名用户已经删除了提示词,并辩称自己只是做一个“技术测试”,无意造成伤害。
可现实往往就是这样:很多网络伤害都披着“我开玩笑的”“我只是试试看”的外衣。删除提示词不等于伤害没发生,尤其当对象是一位公众女性时,内容一旦扩散,带来的羞辱感和公共形象损害很难靠“我不是故意的”来抹平。
更复杂的是,法律现在面对的不是一张简单的侮辱性帖子,而是一种半自动、甚至高度自动化的传播机制。模型可以一天生成数十亿句子,其中多少会踩中诽谤、歧视、骚扰的红线?监管者过去主要盯着“用户发了什么”,未来恐怕得更多追问“系统被设计成了什么样”。
这也是欧洲法律环境与美国平台文化碰撞的典型场景。美国科技公司往往更强调言论自由、产品实验和用户责任;欧洲监管传统则更在乎人格权、社会危害和平台义务。瑞士虽不是欧盟成员,但在对人格与公共秩序的保护上,与欧洲大陆法系的气质相通。如果检方认定 X 对 Grok 负有注意义务,甚至认为平台在明知风险下仍提供这类功能,那么这起案件很可能迫使 xAI 在瑞士、乃至欧洲市场调整产品护栏。
真正的问题,不是 AI 会不会冒犯,而是公司是否故意把冒犯做成卖点
很多 AI 公司都经历过“幻觉”“失言”“偏见”争议,OpenAI、Google、Meta 也都不例外。但它们通常会在公关上强调:我们在修复、在加护栏、在减少风险。xAI 这条路走得不太一样。它似乎更愿意把“不过滤”“不端着”“敢骂人”包装成差异化优势,像是在向厌倦了安全提示和中性措辞的用户招手:来吧,这个 AI 更像你网上那个嘴很碎的朋友。
问题是,平台鼓励的每一种风格,最终都会沉淀成可预见的风险。你可以把模型训练成博闻强记,也可以把它训练得像脱口秀演员,但如果它不断把性别偏见、仇恨表达和人身攻击生成出来,这就不再是“个别回答翻车”,而是产品治理的系统性缺陷。
这里还有一个容易被忽视的后果。人权研究者已经提醒过,女性长期暴露在网络辱骂与技术偏见的双重压力下,可能会更不愿意使用新技术。如果 AI 工具在女性看来天然带着敌意,那么被排斥的就不只是某一位政治人物,而是女性进入数字社会、参与公共讨论、享受技术红利的意愿。技术行业天天说“AI 普惠”,可如果一半人口先被恶心走了,这种普惠就像商场门口写着“欢迎光临”,门里却有人冲你扔烂番茄。
从这个角度看,瑞士这起诉讼的重要性远超一位部长的名誉权。它在逼行业回答一个关键问题:当聊天机器人被设计得越来越像“会说话的互联网人格”,平台是不是也该承担与“出版者”或“内容提供者”更接近的责任?如果答案是肯定的,那么 AI 行业接下来面对的,就不只是模型能力竞赛,而是责任结构的重写。
接下来会怎样:这可能只是第一枪
眼下最大的悬念,是检方会把责任画到哪里。最容易追的是发起提示词的匿名用户,尤其在瑞士这样的司法环境中,删除内容不代表不会被追查身份。至于 X 和 xAI,会不会被认定对 Grok 输出负有法律责任,仍有很大不确定性。因为要证明平台设计与具体名誉损害之间存在清晰因果链,并不容易,特别是在 AI 训练数据和系统规则高度不透明的前提下。
但即便这起案件最后没有把平台直接钉在责任柱上,它仍可能带来另一种更现实的影响:推动立法更新。如今的诽谤法、侮辱法,大多是为人类作者和传统媒体写的;而会自动生成内容的聊天机器人,既不像报纸,也不像论坛版主,更不像单纯的搜索引擎。法律语言还停留在旧世界,产品形态却已经冲到了下一个路口。
我越来越觉得,未来两三年里,围绕 AI 输出的名誉侵权、性别歧视和公共安全案件会显著增加。原因很简单:生成式 AI 正在变成一个超级扩音器。以前一个坏网友一天能骂几十句,现在一套模型、一串提示词,就能批量生成无数版本、适配不同语气、瞬间传播。伤害的规模和速度都变了,责任认定自然也不能停留在旧逻辑里。
马斯克喜欢 Grok 的“roasts”,这不奇怪,互联网流量从来偏爱冒犯、冲突和戏剧性。但法律不会因为你说自己是在开玩笑,就自动把侮辱改判成幽默。对于 X 和 xAI 来说,这场来自瑞士的官司像一张来自欧洲的黄牌:你可以把 AI 做得更大胆,但别以为大胆就天然免于代价。尤其当“锋利”开始精准割向女性、弱势群体和公共人物时,社会迟早会问一句——这到底是创新,还是放任伤害?