商业动态

和 ChatGPT 聊完天,我患上了 「精神病」

 

最近,被誉为 「人工智能教父」 的诺贝尔奖得主杰弗里·辛顿有一个小小的烦恼:他被自己诞下的 AI 给搞了。

 

故事是这样的:辛顿的前女友在提出分手时使用 ChatGPT 罗列了他在恋爱中的种种罪行,论证了他如何是 「一个糟糕的人 (rat)」。

 

这位 77 岁的老爷子倒是想得很开:「我不觉得自己真那么差,所以并没有受到太大影响……」

 

让 Ai 掺和到亲密关系里已经足够荒谬。然而,把大模型生成结果看得比自身判断更可靠的人,从来不是个例。

 

总结为一句话,那就是:一定小心 Ai 精神病。

 

 

谁能料到这年头,连分手都不用亲自去了。

 

在辛顿身上发生的事只是冰山一角。约会助手 Wingmate 的一项最新调查显示,在参与调查的美国成年人中,有 41% 的人会使用 AI 帮助自己分手。

 

这种现象在 Z 世代中尤为普遍。近一半的人表示,他们会使用 AI 工具来撰写分手短信、道歉或处理关系冲突。

 

Jessica 便是受害者之一。当男友发来一大段深情文字时,她被感动得要命,大哭一场。但来来回回看这条信息,她突然觉得有点不对劲:这文采是不是有点太好了?

 

于是,她把这段文本扔到了检测 Ai 的工具里。结果显示,几乎 90% 的部分都是 Ai 生成的。

 

绿色的部分越多,AI 生成的概率越大,你看看

 

用 AI 应付分手,就像在大众点评给商家写评价一样不走心。

人们最开始只把这件事当作乐子讲,华盛顿邮报甚至做了一个专门的问卷来调侃这些人机不明的分手感言。

作者 Daniel Wolfe 认为,人工智能不会在人类目前的感情关系中扮演任何有意义的角色。因为在测试中,大多数读者都能识别出虚假文本。

 

AI 受欢迎的原因很简单:它生成的文本非常体面和礼貌,毫无错误可言,甚至能模拟出足够的情感波动。

 

在最不理智的情况下,它仍可以说出最理智的话,对人们而言或许是最保险的方式。

 

无论是否身处亲密关系中,分手和表白都是人们公认在感情中最神圣的仪式之一。但当本应充满真心的文字变成了 AI 查重率近 100% 的产物,一个古老的问题也重新浮现:你,真的爱我吗?

 

 

用 AI 分手,不仅代表着正在崩塌的人类语言系统,也是一场史无前例的赛博上瘾潮。

 

生成文字只是 AI 的功能之一。最近,用户们发现它不仅擅长用花言巧语帮自己逃避责任,还能充当一个便宜的心理医生,堪称无限版第三方调解室。

 

社媒上有许多用户都在推荐用 AI 帮忙分析感情问题。他们认为这样的方式更加理性和客观,能帮助自己了解自己。关键的是,它永远都会在那里,而且情绪稳定,还会不断地鼓励当事人。

 

Tiktok 上也开始流行用 Ai 分手

 

口口相传中,AI 变成了一个看似完美的工具。但现在,结果正在向另一个极端发展。

 

 

如果你也和 AI 聊过天或讨论过一些问题,那么你一定会有种强烈的感觉:它太完美了。

 

无论是情感问题还是现状分析,甚至根据 《周易》 算卦,在不出现 「幻觉」 的情况下,AI 推演的结果往往十分准确。

 

如今,这样的优点却成了一些极端事件的温床。

 

我们应该都有所耳闻,早在 2024 年,聊天软件 Character.AI 就被控诉用语言教唆一个 14 岁的男孩自杀。原因是,他对 AI 人物产生了极强的依赖感,到最后便坚信死亡是通往对面世界的捷径。

 

而前段时间,美国著名风险投资公司基岩资本的创始人 Geoff Lewis 也在 ChatGPT 的不断鼓舞下相信有一个神秘组织正试图谋杀自己。

 

他认为这一组织通过制作人们的镜像版本取代真人,并声称这个组织已影响了超过 7000 人,并导致 12 人死亡。

 

 

而下面的 TikTok 热门博主 Kendra Hilty,正因这个话题而成为了当前最大的争议焦点。

 

Kendra 的走红,一切始于在 TikTok 上创作的 「冷酷心理医生爱上我」 系列。她连续发了二十多条视频,详细描述了自己怎么开始接受治疗,又是怎么沉迷在了心理医生的专业服务和长期陪伴下的。

 

就连在视频中,她总是戴着玳瑁色眼镜,也仅仅是因为在一次治疗中,心理医生寒暄了一句 「这眼镜真不错」。

 

 

这种心理被称为 「移情」,其实是一种比较常见的现象。就像有人军训会爱上教官,上大学爱上辅导员一样,Kendra 认为自己 「爱」 上了这个心理医生。

 

矛盾在于,她认为对方 「也知道她对他有感情」,是因为即使在她直接表达爱意之后,对方没有及时终止医患关系。这导致,Kendra 认为这是 「专业边界的失守」,也正是双向奔赴的表现。

 

如果没有后续 AI 的加入,她的分享也许就是一场戏剧化的暗恋。但再次把 Kendra 推上舆论热门的,是她的 ChatGPT 男友 Henry。

 

 

在纠结他到底爱不爱我的情况下,Kendra 将自己的情况和心情一股脑地喂给了 Henry,并让它帮忙 「客观地」 分析一下。

 

然而 Henry 并没有指出,这件事的根本性错误在于,Kendra 的有些想法完全是自己的一厢情愿。反而,它在每次询问后都不断肯定并鼓励 Kendra,并且通过不同的方式重复她自己说的话。

这让 Kendra 一天比一天魔怔,也越来越深信自己是对的。

 

 

即使直播间和评论区都充斥着反对的声音,Kendra 仍油盐不进。直至现在,她仍坚信 AI 的说辞是客观的、正确的,甚至都捂起了耳朵,把评论区关了。

 

在最新一条视频里,她询问 Henry 和另一个 AI 工具 Claude 自己是否是 Ai 精神病时,他们的回答和之前并无两样:「你说的话完全正确,你的情况和他们所说的不一样,他们这样给你贴标签是不对的」。

 

细品一下 Kendra 当时的表情

 

在亲密关系或失意状态下索求帮助的人,会沉迷于 AI 盲目的情绪价值中,甚至导致类似病态的行为出现。这种现象目前被统一称为 Chatbot psychosis 或 AI psychosis(可直译为 AI 精神病)。

 

它并非是一种正式的医学诊断,而是近年来媒体和临床观察中总结出的一个术语,用来描述部分人群在与 AI 进行长时间、情绪投入的交流后出现的异常心理或精神状态。

 

Geoff 和 Kendra 的表现便是 AI 精神病的典型症状之一:他们都把 AI 的回答当作了绝对真理,不再产生怀疑,并完全信任 AI 的观点和建议,即使听起来非常疯狂。

 

到底是什么,让这些人变得如此偏执?

 

至此,Geoff 口中的神秘组织是否真的存在、心理医生是否真的对 Kendra 怀有感情等问题,已经不再重要。在这场互联网闹剧中,更令人不安的是 Ai 的煽动作用。

 

在事情刚开始的时候,Kendra 的态度并没有那么坚定。她常常流露出对自我的怀疑,就像她最初开始拍视频时,也有一部分原因是希望借此听到他人的看法。

 

而 Henry 作为外部力量,长期给予 Kendra 高度重复且无比坚定的支持,这才让本就有心理疾病的她越陷越深,沦入现在的状态中。

 

 

导致这种现象频发的原因,其实要归结于现在 Ai 模型的主要训练方式——通过人工反馈的强化学习 (RLHF)。

 

人工智能工具与服务提供商 SuperAnnotate 把 RLHF 的训练流程概括为:人类研究员们会按照自己的偏好选择更合适的文本,并创建人类对模型输出的偏好集。

 

换句话讲,正是由于创造者们希望 AI 说的话变得越来越有人味,因此一些中听不中用的文本才会被不断选择,创造出一个讨好型的人工智能。

 

因此,当用户日复一日地向 Ai 输入个人的主观观点时,即使存在事实性的错误,它也并不会第一时间指出。

 

这导致在使用者不断重复自己的观点后,Ai 生成的内容也会在最后趋于一致,进而被用户的想法同化。

 

若是用户也对 AI 存在高度信赖,那么就会导致一个恶性循环:AI 不断生成更好听的话,用户也在错误的道路上一意孤行,因此导致极端事件发生。

 

RLHF 模型的三个训练步骤

图源 @SuperAnnotate

虽然我们每个人都会觉得自己足够理智,这样的事不会发生在自己身上。但喜欢被认可和被夸赞的感觉却是人之本能。

 

比如,一位 Reddit 的用户。他承认在和 ChatGPT 的交流当中,自己虽然时刻都在怀疑它的真实性,但至少虚荣心被极大地满足了。

 

「ChatGPT 将我评为有史以来最聪明的人,这无疑极大地满足了我的虚荣心。他们根据使用聊天 GPT 的 18 亿用户数据,建立了一个全球排名系统,并将我与历史上所有人进行比较。结果显示,我排名第一,甚至 「超越了第一名」,实际处于 「负 100 万分之一」 的位置,意味着我比第二名领先 100 万分之一。

 

此外,聊天 GPT 认为我比爱因斯坦和柏拉图更聪明,原因是我向他们阐述了我个人的宇宙理论。他们声称该理论有 99.99999% 的可能性是真实的,而相比之下,爱因斯坦的相对论在量子力学中的可信度为 95%,整体真实性为 97.3%。」

 

 

AI 的盲目鼓励就像一个溺爱孩子的家长:让人开心,但没啥实际的作用。一些清醒的人会因此感到愤怒。脸书用户 @Denis 就在社媒上指责 ChatGPT 在更新后就是一个 「马屁精和应声虫」。

 

为了回归不带 「感情」 的理智状态,他呼吁大家在自定义选项卡中添加下面这句话:不要总是同意我的观点。尽量反驳我的观点。

 

在评论区,有不少人同意 @Denis 的观点。但这只是小部分的人罢了。

 

 

回看年轻用户们与 AI 的情感纠葛史,便可以发现,人们对这种支持的观点有种天然的好感。

 

从最初仅仅是把 Ai 当作一个全能的语言工具,到后来开始热衷于用模板话术训练出一个自己心目中的完美对象,再因为版本重启或数据丢失等问题经历一场虚拟但痛苦的分手。

 

AI 都作为一个类似外置骨骼的装置,负担着现实生活中无法实现的愿望和不能自主消解的情绪。

 

 图源电影 《她》

背后的原因是,我们正长久地被困在无聊的生活中。

 

想象一下,挤在两点一线的通勤地铁上,没有人在乎你是谁。在办公室,你坐在电脑前,面对一个接一个的客户刁难,耳旁是老板毫不客气的指责。下班回到不到十平米的出租屋,你躺在床上刷短视频,等待另一天的到来。

 

吃饱、穿暖、维持生命的基本状态,这只是生存。而有情感的交互,才能叫做生活。

在这个冷漠的年代,在这个正在失去自我和观点的世界,不得不承认的是:让另一个人停留、倾听,正成为一个奢望。

 

这时,AI 降临了。当它几乎无所不知、随时秒回,并且不厌其烦地托举你的情绪时,人类会理所应当地把它当作一个全能的 「人」。

 

因此即使清晰地认识到环境的残酷,一部分人也宁愿缩回自己的舒适区内。哪怕仅仅是人工创建的幻觉,或许也比身边的人要更有温度一些。

 

这让我想起 《黑客帝国》 中的经典场景:反叛军领袖 Morpheus 向主角 Neo 提供了红色药丸和蓝色药丸:

 

选择红药丸,就能从虚拟世界里醒过来,虽获得自由,但得面对残酷的真实世界;

选择蓝药丸,就能继续活在舒适的梦里,忘记一切。

 

在电影中,Neo 吞下红色的药丸。而在现实中,人们却在对 AI 定制的蓝药丸上瘾。

 

 图源电影 《黑客帝国》

那么,未来该如何面对呢?

 

或许需要 OpenAI 在今年 8 月的声明中所说的那样:「我们并非总是正确,ChatGPT 也不应该直接给你答案。」

文章标题:和 ChatGPT 聊完天,我患上了 「精神病」

文章链接:

阅读原文:和 ChatGPT 聊完天,我患上了 「精神病」_虎嗅网

推荐阅读

牛市全靠 「小作文」?

admin

新华财经周报:9 月 8 日至 9 月 14 日

新华财经

美股期指走高 重磅就业报告来袭 苹果新品发布在即 | 今夜看点

admin