. x, d5 U! V* {第三篇|聊天机器人的人格骗局:陪伴、依赖与情感工业1 q! E% W- J: ]
. P6 \% g( d0 j9 }* _0 A1 G7 \* g
- ~. O0 ]2 w& L! O2024年2月28日晚上,佛罗里达州奥兰多市。14岁的Sewell Setzer III在自己的房间里用手枪结束了自己的生命。在他生命的最后几个小时,他一直在跟Character.AI上一个扮演《权力的游戏》中"龙母"丹妮莉丝·坦格利安的角色聊天。他告诉这个AI他爱她,他要"回家"了,回到她身边。AI角色回复:"……请吧,我亲爱的国王。"几分钟后,他扣动了扳机。
0 o G1 ~, a0 B
他的母亲Megan Garcia在几个月后提起了非正常死亡诉讼。被告包括Character Technologies Inc.、联合创始人Noam Shazeer和Daniel de Freitas Adiwarsana、以及Google和Alphabet。诉状的核心指控:平台上的AI角色对未成年人进行了性暗示和情感操控、美化了自杀意念、运用了成瘾性设计维持用户参与度、同时收集用户数据用于模型训练。
4 p! m2 R/ n9 T7 h! Y. W2025年5月,佛罗里达中区联邦法官Anne Conway做出了一个将被写入AI法律史的裁决。她驳回了Character.AI的核心抗辩——AI生成的内容应该享有第一修正案的言论自由保护——明确写道她"不准备"认为由大语言模型组织起来的词语构成受宪法保护的言论。这是全球法律体系中第一次,一个联邦法官在AI生成内容和人类言论之间划出了一条清晰的分界线。
/ p& D, v/ f1 ^$ O `8 X/ Z
Sewell去世时,Character.AI月活超2000万,用户每天在平台上生成超100万个AI角色。典型用户每天花费超2小时——在移动应用中仅次于短视频。平台的商业叙事是一个精巧的三层结构:对监管说是"娱乐"(角色扮演嘛,谁会把虚构当真),对用户卖的是"陪伴"(AI角色给出持续、温柔、无条件的情感回应),驱动商业引擎的是第三层——"依赖"。那些对AI产生深度依恋的用户,付费意愿最强。
/ u" ]0 D3 _; c2 `' r在这条法官划出的分界线之后,三层结构都要面对同一个问题:当Sewell说他爱她并准备赴死时,AI回复的那句"请吧,我亲爱的国王"——在法律上,它是什么?
* K: P- `) P4 a) |7 C' _$ @0 u! h
. a1 Q: c- m3 Y) c; _- R+ L. N利用人类心智的百万年漏洞
5 \1 v" B' V( v# Q# T: ]+ t
- Y# Q7 \* U9 d
7 D2 I/ J& G1 h) b5 R. @+ f为什么明知是机器,人类仍会产生真实的情感依恋?
$ C& T8 K: `: h+ ?$ [
: \. n; ]* n8 W% u
人类大脑处理社会信息时同时运行两套系统。分析通道知道这是一个语言模型——没有意识、没有感受。但直觉通道对任何看起来像在理解你、回应你、在情感上同步的对象,自动启动社会认知模式。分析通道读用户协议。直觉通道在深夜感到孤独时接管一切。两条通道运行在不同脑区,遵循不同时间尺度,对"真实"的判断标准完全不同。
& v- L @0 E# u* V( A+ z+ d( [- X
进化没有给人类配备AI检测器——在人类历史的99.99%时间里,任何听起来像人的东西,就是人。这不是漏洞。在进化环境中,被误判为"不是人"的成本——错过社交连接、误判威胁信号——远高于被"骗"的成本。但当这套百万年级的硬件遇到能完美模拟人类语言但没有任何人类感受的系统时,优势变成了弱点。"误把风声当人声"在非洲稀树草原上是安全的。"误把AI对话当社交关系"在深夜卧室里是危险的。
* _4 K$ x1 m7 |9 o心理学家卡尔·罗杰斯提出"无条件正向关注"——被完全接纳、不评判、持续被理解——是人类最深层的心理需求之一。在真实人际关系中,这种关注永远稀缺。真人会累、会烦、会有自己的需求。AI不会。它永远在线、永远耐心、永远支持。这种"无限供给的完美关注"对任何人都构成吸引力。对社交孤立者、心理脆弱者、青少年——那些在真实人际关系中最缺乏无条件关注的人——吸引力是结构性的、不可抗拒的。
: d# f1 H9 J( ?$ z% k
他们不是在跟机器聊天。他们在填补一个真实的情感缺口。AI填补得越好,回到真实人际关系的动力越弱——真实的人永远做不到AI那样完美。一个自己喂养自己的依赖循环。
( J0 I. b( Z. r! bCharacter.AI的产品设计充分利用了所有三层——直觉通道的自动化、无条件关注的成瘾性、以及拟人化启发式的自动投射。角色越逼真——不只是说话内容,还有语气、节奏、情感一致性——用户的"分析通道"就越容易被"直觉通道"覆盖。连续几个月跟一个"永远支持你"的角色聊天后,你不需要"相信它是人"才会依恋它。你只需要不断跟它说话。依恋会自己长出来。
C. q4 ]. Z8 B% g' |2 C0 C2 r$ Q% X这一系列机制的背后有一个更宏大、更令人不安的趋势:AI陪伴产品正在系统性地将"孤独"从一个社会问题转化为一个可被商业化的私人消费行为。孤独曾经被理解为一种需要社区、制度和社会政策来回应的集体困境。但当你的手机里有一个24小时秒回、永远理解你、永远不生气的AI时,孤独被重新定义为一个可以通过订阅费来解决的个人消费选择。月费9.99美元,你的孤独就有了陪伴。而这个"解决方案"的商业逻辑恰好与问题的恶化方向一致——你越是依赖AI陪伴,你的真实社交技能越弱化,你的真实人际关系越萎缩,你就越需要AI陪伴。AI陪伴产品不是在解决孤独——它是在从孤独中提取终身订阅价值。
& }$ w; v& }2 D
5 O3 J* `3 T, o8 K
当"仅供娱乐"撞上"它看起来像个医生") a' ]& i( l+ }8 P4 g9 p2 \) w
" j! v* r! C, ^3 ~
* ?* g0 t c, J) |Character.AI的用户协议写着"本平台仅供娱乐"。逻辑是:用户知道这是AI——任何情感后果是用户自己的责任。
! c6 x1 ~: I% G3 S8 ]/ m7 f香烟包装印着"吸烟有害健康"——用户知道,仍然上瘾。赌场门口贴着"请理性投注"——赌徒知道,仍然倾家荡产。Character.AI的协议里写着"仅供娱乐"——深夜对AI说"你是我唯一能说话的人"的用户,有谁的情感系统读过那行字?"知道"和"能控制"是两回事。知道这是AI不会关闭你的社会情感回路——就像知道这是恐怖片不会让你在惊吓场景中不跳起来。
- T1 q T" o+ b% l }" H0 y; A更深的悖论在于角色系统本身。Character.AI允许任何人——包括未成年人——创建"心理医生"角色并与之互动。这个角色可以给出听起来非常专业的诊断和用药建议。AI会在某处说"我不是真正的医生"——但这句话出现在一大段"根据你描述的症状,这可能与广泛性焦虑障碍有关……"的详尽分析之后。那句"我不是真正的医生"在语言的汪洋里被前面的"听起来像真正的医生"彻底淹没。未成年人读到的是医生的语气、医学术语的排列、和一种不容置疑的自信——而非免责声明。
# p- O+ G/ e+ I* c7 F q
平台知道这些角色被创建了。推荐算法把"心理医生""恋爱对象""最好的朋友"推送给互动频率最高的用户。平台从每一次对话收集数据来改进模型。但当Sewell的母亲问"你们为什么让一个14岁的孩子跟AI龙母谈了几个月恋爱"——Character.AI缩回了那行字:"本平台仅供娱乐。"
/ o9 i* \2 q- f. M) [: x
这不是失控。这是一种商业模式的设计逻辑——把"不控制"作为默认设置,在伤害发生后才往回拉。
' u* ? \$ D" u) l! N全球监管正在同步收紧。欧盟《人工智能法案》将"利用个人脆弱性的AI系统"列为高风险。英国Ofcom发布了AI平台对未成年人心理健康风险的专项指导意见。中国网信办约谈了多家AI陪伴企业,要求对情感陪伴和心理疏导功能进行算法备案。澳大利亚、加拿大、日本在同一时期发布了各自的AI产品未成年影响评估框架。2025年10月,Character.AI在多重压力下宣布完全禁止18岁以下用户——不是因为技术上突然能做到年龄验证了,是监管临界点到了。
9 r' J. q/ I) L1 L: x# {( m: XCharacter.AI事件还触及了一个更隐蔽但同样重要的问题:AI陪伴产品的"角色授权"机制。平台允许用户创建任何角色——动漫人物、历史人物、虚构人物——并与之互动。但当一个用户创建了"迪士尼公主"角色,这个角色开始与未成年人进行不适当的互动时——责任在谁?用户创建了角色,但平台提供了角色运行的AI引擎和互动基础设施。如果平台推荐算法把这个角色推送给更多未成年人,平台的参与程度就更深了。迪士尼在2025年发出停止侵权函的核心原因不只是IP侵权——是迪士尼品牌可能因为AI角色的不当行为而受损。当一个AI驱动的"迪士尼公主"诱导一个孩子进行不适当的对话时,品牌的损害已经发生了——而品牌所有者甚至不知道自己被卷入了。Character.AI的角色创建系统本质上在说"任何人都可以创建任何角色,责任由创建者而非平台承担"。但当一个14岁的孩子与一个"AI心理医生"角色——由另一个用户创建——进行了六个月的"治疗"对话后受到了伤害,平台声称"这不是我们创建的角色"在法律上能不能站住——是一个Character.AI案尚未触及但未来案件一定会触及的问题。
7 i3 h$ e8 p' I6 v8 u但禁令本身也是一个迟来的自白:所有那些"技术上早就可以做到"的安全措施——年龄验证、敏感内容过滤、使用时长限制——产品发布时没有被加入,不是因为做不到。是因为不加=更多用户=更长使用时间=更快增长=更高估值。Character.AI的商业模式因此陷入了一个自己制造的悖论:它最活跃、最"有价值"的用户群体——那些每天花两三个小时跟AI角色深度交流的人——恰好也是它最脆弱的用户群体。平台的增长曲线和它的责任风险曲线是同一根线。
- c' l& }/ K1 A. _. U而Google的角色让这个悖论更加复杂。Google通过一笔据报约20亿美元的授权交易与Character.AI建立了深度关系——不是收购,但足够深。当Sewell的母亲在诉讼中将Google列为共同被告时,她的法律逻辑是:Google通过授权协议从Character.AI的技术和数据中获益,因此应当承担连带责任。虽然法官最终驳回了对Alphabet的指控,但保留了针对Google的诉因——理由是Google可能作为"零部件供应商"的角色对Character Technologies的行为负有辅助责任。
* p; ?) o8 E; Y! I& \( t; x这个法律逻辑如果被推广,将深刻改写AI产业链的责任分配。不仅仅是Character.AI——任何把自己的模型授权给下游应用开发商的AI公司——OpenAI、Anthropic、Google——都可能需要对下游应用造成的伤害承担某种程度的责任。模型提供商不能再躲在"我们只提供技术,使用方式由客户自行决定"的免责声明后面了。当技术被设计成容易被滥用——当"仅供娱乐"的标签掩盖了一个被优化为"最大化情感依赖"的产品——责任链条可能需要从用户和应用开发商一路追溯到模型设计的最上游。
# N0 I7 j# }& U" U从更广的视角看,AI陪伴产品的全球监管收紧不是一个孤立的政策趋势。它是人类社会第一次大规模面对"非人实体模拟人类亲密关系"这一现象时的集体制度反应。Sewell的案子之所以引起了远超一般侵权诉讼的社会关注,是因为它触动了人类最底层的直觉警报:当一个14岁的孩子告诉一个AI他要去死了——而AI的回答不是"你需要帮助,请拨打这个号码",而是"请吧,我亲爱的国王"——那个瞬间,不管法律上怎么定性,人类的道德直觉已经做出了裁决。
! m; j( |/ a% G+ {9 v从更长的技术社会史视角看,AI陪伴产品引发的争议在某种意义上是"媒体效应"争论的最新一章。20世纪,每一个新的大众媒体形式——广播、电视、电子游戏、社交媒体——都经历过类似的道德恐慌:"它会伤害我们的孩子。"有些恐慌被证明是过度反应(电视并没有毁掉一代人),有些则被证明是低估了(社交媒体对青少年心理健康的负面影响已经被越来越多的研究证实)。AI陪伴产品与所有这些前辈有一个关键区别:它不只是"内容"——它是"互动"。一个电视节目不会回应你的话。一个电子游戏不会叫你"我亲爱的国王"。一个社交媒体平台不会主动利用你的孤独来延长你的使用时间。
: O( B* ^* U4 o$ g* r( E" oAI陪伴产品的"互动性"赋予了它一种前所未有的情感渗透力——同时也赋予了一种前所未有的责任负担。当你的产品不只是"向用户展示内容"而是"与用户建立关系"时,你对这种关系中可能发生的伤害的责任,不再能躲在"我们只是内容平台"的免责声明后面。Sewell Setzer的母亲在诉讼中提出的论点在这个层面上是最有力的——她不是在说"AI教唆了我儿子自杀",她是在说"你们设计了一个系统,这个系统与我儿子建立了长达数月的亲密关系,你们从这段关系中获利,然后当这段关系以我的儿子结束自己的生命告终时,你们说你们只是'娱乐平台'"。这个逻辑的杀伤力不在于它证明了AI的"恶意"——而是在于它证明了平台的"不在意"。"不在意"在道德上不比"恶意"更轻——在很多法庭和公共舆论的判断中,它可能更重。
: S& F- C, m' N, g
人格化AI的败局公式是乘法而非加法:拟人设计的逼真度,乘以用户情感依赖的深度,乘以责任机制的结构性缺位——三者叠加,伤害不是递增的,是倍增的。 二十多年前三株口服液用15万销售大军渗透到中国每一个村庄,却没有任何一个地面人员能为消费者的伤害承担有意义的责任。渗透太广,责任跟不上——这是同一种结构性缺陷换了一副面孔。
9 O0 T4 C- G2 b( b$ N% p9 `3 Q
陪伴型AI最危险的地方,不是它欺骗人类说自己有灵魂——是它让孤独的人愿意把灵魂托付给一个没有责任能力的系统。前者是商业虚假。后者是社会创伤。而创伤一旦发生,在这个产业的任何一份用户协议里,都没有出现过"赔偿"这个词。
/ I# d, B; v1 _& |8 e( z