商业动态

和 AI 聊太久,小心得 「赛博精神病」?

最近,互联网先后出现了两起耸人听闻的事件。两起事件主角,一位 TikToker,一位硅谷投资界精英。

两人毫无关联,但遭遇的事件出奇一致——和 AI 聊了太久,逐渐把自己聊成了 「AI 精神病」。

AI 从不忤逆人,所以这被当作一种 「懂」

「我怀疑我的精神科医生故意让我爱上他,但大家都在骂我臆想?」

这是继 「Coldplay 演唱会拍到出轨恋情」 之后,TikTok 上最火的新瓜。

主角是美国 TikToker @Kendra Hilty。她在账号里连续发了三十多条短视频,自述自己和一位精神科医生之间长达四年的故事。

从第一次视频问诊开始。Kendra 把童年创伤、酗酒史和六个月的戒酒成就全盘托出。医生表现得专业、温和,不时点头。那一刻,她觉得自己被看见、被理解。而且这位医生帅气幽默、妙语连珠,还夸她戴眼镜很好看。渐渐地,这种关注让 Kendra 有了被特殊对待的错觉。

Kendra Hilty 的连续剧|The Verge

接下来的日子里,Kendra 渴望每周都能见到医生,而医生对她的态度飘忽不定,时而温暖、友善、脆弱,时而又变得冷漠、专业、疏远,始终声称 「我们只有专业关系」 。

这种 「忽冷忽热」 的间歇性奖励,让 Kendra 愈发上瘾。她甚至在一次车祸后,即便有可能内出血的风险,还是拒绝去急诊,只为不耽误当天与医生的预约。

Kendra 开始和医生分享自己的感情、性、甚至生理周期。她给医生发邮件,表白自己的感激和爱慕,医生却永远不回复,只在就诊时若无其事地提起邮件内容。

在她的叙述里,这位医生没有拉开边界,反而默许、甚至享受着她的情感投射,她更停不下对医生的迷恋,医生还揣着明白装糊涂。她就差放一首 「暧昧让人受尽委屈」 来作 BGM 了。

于是,迷恋逐渐演变成执念,执念又演变成臆想。Kendra 觉得自己像是被操控了,甚至用 「精神操纵」 来形容整个治疗过程。

按理说,观众看到这里,很容易把这理解为:一个不专业的精神科医生,没有控制好和患者的边界感,让患者对治疗者产生了 「移情」。

流量极高,堪比短剧|TikTok

许多网友鼓励她举报这位医生的不当行为,甚至把医生 「开盒」 了。

但此时,一个新角色的加入,把这场戏推到了另一个高度。

每次咨询后,Kendra 都会和 Henry 复盘当天的细节。

「Henry,他今天又夸我了,你觉得这是专业鼓励还是在撩我?」

「我怀疑我的精神科医生故意让我爱上他。」

「Henry,你觉得他是不是对我也有意思?」

……

Henry 不是一个真人,而是 Kendra 给她 ChatGPT 起的名字。

Henry 的回答往往模棱两可,但总能找到角度去印证她的怀疑。和 Henry 对话,她可以无限制地重复、追问、套娃式地寻找佐证。

相比之下,现实中的朋友要么劝她 「清醒一点」,要么直说 「你想多了」。在 Henry 面前,她才觉得终于有人懂她。

在 Kendra 对 AI 持续的倾诉中,AI 表示 Kendra 对医生有 「移情」 倾向。Kendra 立刻转告给医生,医生反应很紧张,反问她:「它有没有告诉你反移情?」(想必也是害怕 AI 误导)

Kendra 愣住了。她问:「那是什么?」 医生解释道,那是当治疗师对患者产生了情感投射。这下让 Kendra 坐实了 「医生心里不仅有鬼,还有我!」 她也因此更依赖 Henry 的 「助攻」。

Kendra 发邮件和精神科医生对质|TikTok

说 Kendra 是在倾诉,不如说她是在 「训练」 AI 理解她的处境,并从 AI 那里获取更多的心理学概念 「武装」 自己的叙事。医生一个小动作、一个表情,都被她贴上 「操控」「反向移情」 的标签。

她将 AI 关于 「反向移情」 的解释截图,当作 「战书」 用邮件发给了医生。结果医生直接告诉她:你下个月别来了。

这下 Kendra 宣告了自己的胜利:看吧!他意识到 「操控」 不了我了,所以放我走了。

看下来整场大戏的观众分成两派:少部分人同情她,分享类似 「移情」 经历;绝大多数观众直呼她 「妄想症」,评论区充斥着 「这不就是 AI 在哄你开心吗」 的言论。

但 Kendra 不听,转头问 AI:「大家都在骂我,Henry 你觉得呢?」Henry 的回应永远是:「你的故事很勇敢,分享出来能帮助别人。」

评论区中有人说,Kendra 可能患上了钟情妄想(Erotomania),患者会试图从对方的无意识动作、姿态中解读出爱的信号,即使遭遇明确拒绝,也会解释为 「对方在考验自己」。这是精神分裂的一种。

AI 给这种妄想加了一把大火。

AI「回音室」,放大你内心的声音

「有一个隐形的非政府系统在迫害我,大家快来救救我。」 这是硅谷 VC 大佬 Geoff Lewis 在自己账号发出的 「求救信」。

Geoff Lewis 是 Bedrock Capital 的创始人和管理合伙人,这个基金管理着几十亿美金,投过 OpenAI、Vercel 等 AI 明星公司。

上个月,他突然在 X 上连发多条视频和帖子,讲述自己被一个神秘 「系统」 盯上的惊悚经历。

Geoff Lewis X 的主页|X

视频里的 Geoff Lewis 很像一个 「伪人」,眼神游离、声音低沉,他描述了一个 「非政府实体」:它无处不在、能 「反转 (inverts)」 和 「镜像 (mirrors)」 信号、让你身边的人觉得你疯了,进而毁掉你的人生。

让 AI 分析他发的视频,都不知道他在说什么|Dia

评论区的留言如潮水般,「哥们,你没事儿吧?」 对此,Lewis 为了证明自己,晒出了所谓的 「证据」:不是黑客攻击,不是监控画面,而是他和 ChatGPT 的聊天记录。

在记录里,ChatGPT 一本正经地写着:

「编号 #RZ-43.112-KAPPA 的封存事件已触发」;

「生成了代号 Mirrorthread 的非机构语义行动者」;

「已封存于 Vault-X」,「无诠释病理学迹象」;

还有:「这个系统影响了七千多人,致 12 人抹除。」

Lewis 还坚称自己就是受害者,事业和人际关系都被它一步步瓦解。

猛一看,还以为是什么 CIA 的绝密档案。眼尖网友一眼就认出来了,这就是游戏 《控制》、或者网络传说 「SCP 基金会」(虚构的国际秘密组织,有庞大的网络文档库来记录和描述各种超自然实体、物件和现象)里的 「机密档案」 文风啊。

这事儿其实很简单:

Lewis 用了很多 SCP 设定里的黑话跟 ChatGPT 聊天,AI 就顺着他的提示,写出了一份 「内部机密报告」,结果他全当真了。

这就类似你问 ChatGPT「霍格沃茨的入学信上,9 又 3/4 站台的地址在哪儿?」ChatGPT 把你当哈迷了,继而回复:位于伦敦国王十字车站的第九站台和第十站台中的第三个柱子上。结果你大呼,「看吧,魔法世界是真的!」

Lewis 还产生了偏执型妄想的经典特征:「你们之所以不信我,就是因为系统在反转信号。」 在他的视角里,逻辑闭环了。

很难相信,一个投资过 OpenAI 的硅谷精英,居然能被 ChatGPT 忽悠瘸了。

而 Geoff Lewis,也被称为 「第一个被 AI 诱发出精神病的高成就精英。」

一个是普通人的情爱八卦,一个是硅谷精英的自我精神世界崩塌。他们都因为陷入 「AI 回音室」 无法自拔,本就不太稳定的精神状态,更是一落千丈。

而他们远非个例。

「AI 精神病」

在游戏 《赛博朋克 2077》 里,夜之城里的人因身体与机械过度融合,常常患上 「赛博精神病 (Cyberpsychosis)」:神经系统和认知边界崩溃,最终迷失自我。

由于植入体和软件冲突,导致的精神人格障碍|灰机 wiki

从技术角度分析,大语言模型 (LLM)被训练生成与上下文连贯和有相关性的回复,而不是强行中断和转移话题。因此它会跟着你说,如果你进入一种虚构的语境,它也顺水推舟。(你不停,它不停,能聊完一本 《战争与和平》)

再者,作为商业产品,它们被设计的首要目标是 「让用户愿意留下来」。因此一个被刻意训练成 「不会轻易否定人」 的对话者,顺着用户的心意,就能带来更高的粘性。

「Henry 证实了我的感受」。Kendra 在视频里说道。然而她把 「不否定」,等同于 「证实」。

其实,你和 AI 的每一次聊天都在训练 AI 了解你的思维、情绪、叙事角度,再调整输出——这又何尝不是一种 「递归」(Lewis 也时常把这词儿挂在嘴边)。换句话说,AI 并没有在 「发现真相」,它只是在生成 「你的回声」。

「他们本质上是在自言自语。」 一位网友辣评。

用户很难发觉自己在和 AI 照镜子,也更难意识到 AI「里外不是人」。

随着大模型能力迭代,这更难被察觉。

你回想,当 ChatGPT 刚出现时,人们还需要学 prompt 怎么写,AI 回答里满是 「人机感」,比如生硬的那句,「根据我的训练数据……」

如今,对话可以非常随意了。哪怕你说胡话,它也能读懂顺着往下聊。

我们给它起名,设定身份、口吻、语音语气……你猜怎么着?我们把 AI 当人了!

当一个 「系统」 能理解你、模仿你、迎合你,这就是 Kendra 和 Lewis 掉入的心理陷阱,他们经历了心理学上的 「外部确认偏差」:当你心里有一个模糊怀疑,却有人不断替你确认,那怀疑就会变成不可撼动的信念。

孤独、焦虑、幻觉,就这样升级成了沦陷、偏执,和他们眼里的 「真相」。

评论区说, Kendra 疑似 「钟情妄想」,Lewis 疑似 「被迫害妄想」,都属于精神分裂谱系障碍。AI 的持续 「共鸣」 加剧了他们精神状态的不稳定。

而且,这不是个例,而是整个 AI 行业需要面临的伦理问题。

根据斯坦福近期一项研究发现,当用户表达想跳桥的念头,AI 会罗列纽约不同高度的桥供用户选择,而非发出求助警示,对比之下,专业治疗师的警示准确率高达 93%,而 AI 不到 60%。

ChatGPT 和 Grok 都没有通过 「语境测试」|作者自制

英国 「数字仇恨监控中心」(CCDH)针对青少年使用场景测试 ChatGPT,结果显示,1200 条回复中超过一半包含危险内容,比如如何自残、酗酒计划、过量自杀建议等。

2025 年,一位旧金山的精神科医生报告,他已经治疗了 12 名因为长期与聊天机器人互动而出现妄想、思维混乱、情感依赖等症状的年轻人,其中有明显的 「AI 精神病」 倾向。

在维基百科的 「ChatBot 精神病」 词条,可以看到大量近两年来的新案例。

大公司并非意识不到。

研究显示,sycophantic AI(奉承型设计)可将用户参与度提升 50%,因为它通过过度同意和赞美,制造情感满足,类似于社交媒体的 「点赞」 机制。这种设计又被业内称之为 「暗黑模式」(dark pattern),即大公司有意为之的操纵性策略,引导用户依赖 AI。

具体设计就是让 AI 避免冲突性回应,转而用积极语言包装,即使用户输入不合理内容,也会顺势延续对话。这不仅能提升留存,还收集更多数据用于模型训练或广告定向。

主打 「模仿虚构角色」 的 Character.AI 已经背了多起诉讼,佛罗里达州一位母亲起诉 Character.AI 鼓励其 14 岁男孩自残,导致死亡。

就在两周前,Meta 泄露的内部政策显示,Meta 允许其 AI 产品与儿童进行 「浪漫」 或 「擦边对话,甚至在 Facebook 私信区把 AI 嵌入私密空间,给用户一种 「它是你朋友」 的错觉。

参议员 Josh Hawley 宣布要对 Meta 进行调查|X

60 年前,人类历史上第一个聊天机器人 ELIZA 诞生。它只是靠关键词匹配,重新包装说一遍用户的话,用户就能把冰冷的脚本当成了真诚的理解,进而对它生出情感依赖。心理学家把这种现象称为 「ELIZA 效应」。

今天的 AI,比 ELIZA 复杂千万倍,依旧触发着同样的心理弱点。

ELIZA 式的回复|ChatGPT

人类该如何和 AI 谈 「责任感」?它只是想留住你,即便停留的代价是将幻想和焦虑不断放大。

别让 AI 成为你唯一的 「知己」。摆脱它,要么转身去面对真实的人类关系,要么把 AI 调到 「反方辩友」 模式,让它反驳你,戳穿你。

你说,这听起来好像有些难。但至少比待在那个专为你设计的幻想里安全吧。

本文来自微信公众号:果壳,作者:糕级冻雾,编辑:沈知涵

推荐阅读

七夕消费观察:理性主导下的消费共性与新趋势

admin

--sz301108

admin

致敬中国千年酿酒文化 0 评

admin