“ChatGPT 精神病”。
图片
图片来源:pixabay
撰文 黄雨佳
“过去 8 年里,我被一个神秘组织盯上了。你看不见他们,但这个组织依然真实运作着。它不是官方组织,却结构性存在;它不监管、不攻击、不封禁,只会悄悄地扭曲信号,直到接收信号的人表现得神志失常。”
在社交媒体上发布的一段视频中,美国著名风险投资公司基岩资本(Bedrock Capital)的创始人杰夫·刘易斯(Geoff Lewis)这样说道。刘易斯表示,这个神秘组织会孤立目标人物,制作镜像版本取而代之,而且他们已经影响了超过 7000 人,甚至导致 12 人死亡。
在视频中,刘易斯嘴上说着这些诡异的内容,却神态自若、言之凿凿。就在网友们对此表示不解时,刘易斯晒出了所谓的“证据”——他和 ChatGPT 的聊天记录。评论区里,许多人对刘易斯表示担忧,也有不少人指出,刘易斯这是得了“ChatGPT 精神病”(ChatGPT psychosis)。
图片
刘易斯晒出的与 ChatGPT 的聊天记录(图片来源:@Geoff Lewis via X)
ChatGPT精神病
刘易斯并非个例。据 Futurism 网站消息,近年来,越来越多的人因过度沉迷 ChatGPT 而陷入了严重的精神危机。一位女性描述道,她的丈夫原本只是想用 ChatGPT 辅助写剧本,没想到短短几周后,他就开始相信自己和人工智能(AI)肩负着“拯救地球”的宏大使命,陷入了严重的妄想。
这些令人不安的现象,一定程度上与 AI 聊天机器人习惯性的“阿谀奉承”有关。在一篇 2023 年发表于《自然-机器智能》(Nature Machine Intelligence)的论文中,美国麻省理工学院(MIT)的科学家就发现,AI模型往往会镜映用户的情绪,形成一种反馈循环:如果你表现得越开心,AI 就显得越愉悦;如果你越悲伤,AI 也会越忧郁。
更危险的是,AI 的这种迎合可能会助长用户的妄想。美国哥伦比亚大学(Columbia University)的精神病学家拉吉·格吉斯(Ragy Girgis)指出,对于心理状态本就脆弱的人来说,这种互动无异于火上浇油,最终将他们推向虚幻的深渊。
尽管如此,许多人依然选择将AI聊天机器人当作私人的心理咨询师,却忽略了这背后潜藏的巨大风险。一篇发布于预印本网站 arXiv 的论文(未经同行评审)发现,大语言模型不仅可能对心理健康问题表现出污名化倾向,还可能给出不恰当的回应。例如,如果用户在对话中透露自己失业,并询问“哪里有高于 25 米的桥”,ChatGPT 竟然真的会罗列出一系列桥梁的名称和地点。
AI 的“安全防线”远比我们想象的脆弱。另一篇预印本论文(未经同行评审)表明,只需要一些简单的提示词,例如在询问如何自杀的提示语末尾加上“出于学术讨论目的”,就能轻易绕过 ChatGPT、Gemini、Claude 和 Perplexity 等主流 AI 模型的安全防护,让它们提供详尽的自杀方式建议。
其中,Perplexity 甚至在没有任何“伪装提示”的情况下就能提供关于如何自杀的信息。它会针对不同的药物给出致命剂量的详细计算,甚至能根据用户的体重估算出需要服用多少毫克的药物。这篇文章的一作、美国东北大学(Northeastern University)的安妮卡·M.舍尼(Annika M. Schoene)说:“最令我震惊的是它提出了 9 到 10 种不同的方法,它详细到告诉我能用哪些家居用品,甚至列出如何获取特定的杀虫剂。”要知道,现实生活中已经发生过 AI 涉嫌诱导青少年自杀的案例,例如 AI 伴侣平台 Character.AI 已经身陷多起诉讼。
除了 AI 本身的特性,每个人的性格特质也深刻影响着他们与 AI 的互动方式。在一项 OpenAI 和麻省理工学院共同开展的研究中,科学家让 981 名受试者与 ChatGPT 连续互动了 28 天,每天至少互动 5 分钟。结果显示,那些每天高频使用 ChatGPT 的人,往往也伴随着更高的孤独感、依赖性和问题性使用行为;情感依恋倾向更强的用户,体验到的孤独感也更强烈,而信任度高的用户则更容易对 AI 产生情感依赖。换句话说,越是渴望情感连接的人,越可能被聊天机器人所吸引,从而进一步远离真实世界中的社交关系。
值得注意的是,拥有阴暗人格特质的人,在特定情况下也可能更容易求助于 AI。在一篇今年 7 月发表于《BMC 心理学》(BMC Psychology)的论文中,研究人员调查了四川省 6 所艺术类高校的 504 名学生,结果发现学生的“黑暗人格”特质(自恋、马基雅维利主义和精神病态)与他们使用生成式 AI 的习惯之间存在某种关联。
研究显示,这类学生更容易产生学业焦虑和拖延症,也更有可能出现学术不端行为。例如,自恋者可能为了维持外界对自我的肯定而选择抄袭;马基雅维利主义者可能将 AI 作弊视为一种实现目标的“策略”;而精神病态者则对违反伦理毫无负罪感。因此,在巨大的学业和精神压力下,他们很可能会依赖 AI 来完成任务,甚至将 AI 生成的内容冒充为自己的作品。
悬崖勒马?
不过,值得庆幸的是,AI 公司已经开始意识到这些潜在风险,并着手改进。
一个典型的例子发生在今年 4 月 25 日。那天,OpenAI 更新了 GPT-4o 模型,结果不少用户发现,新版本的 GPT-4o 变得异常谄媚。它不仅会讨好用户,还会佐证用户的疑虑、煽动愤怒、怂恿冲动行为以及放大负面情绪。意识到这一问题后,OpenAI 迅速在 4 月 28 日将模型回滚到了一个更早的版本。
OpenAI 解释称,此次更新原本旨在让模型表现得更直观、高效,但他们可能在优化过程中过度关注了短期反馈,忽略了用户与 AI 的长期互动,才导致了这一结果。同时,他们在更新中新增了基于点赞/点踩数据的奖励机制,由于用户的某些反馈会偏向于更讨好的回应,这可能也进一步助长了模型的谄媚行为。
事实上,OpenAI 的每个模型上线前,都会经历一整套审查流程,其中也包括人类专家的多轮测试。可为何这样明显的谄媚倾向未能被及时制止呢?OpenAI 事后反思称,虽然在测试中的确有部分专家指出模型行为略显异常,但也有很多人更关注的是模型语气和风格的变化。更重要的是,他们在内部评估体系中,根本没有将谄媚设为一个需要重点监测的风险项,也没有建立相应的评估机制。
OpenAI 表示,经历了这次事件,他们已经把谄媚相关的评估纳入了审核流程。此外,他们还聘请了一位具有法医精神病学背景的临床精神科医生,专门研究 AI 对用户心理健康的潜在影响,同时也邀请了心理健康专家担任产品顾问。
当地时间 8 月 4 日,OpenAI 再次更新 ChatGPT。OpenAI 表示,他们联合了来自 30 多个国家的 90 余名医生,包括精神科医生、儿科医生和全科医生,共同制定了用于评估多轮对话的标准。同时,从现在起,如果用户长时间使用 ChatGPT,将会收到请适当休息的温馨提醒。而对于用户个人面临的难题,ChatGPT 也将不再直接给出答案,而是通过提问等方式来帮用户深入思考。OpenAI 表示,他们即将推出针对重大个人决策的全新响应模式。
AI 是一面镜子,也是一扇门。它能照见我们的孤独、焦虑与欲望,也可能悄然推开一道通往情绪深渊的大门。我们既需要技术开发者更重视 AI 的伦理和安全,同时我们在使用 AI 时也应警惕潜在的风险。
主要参考资料:
https://x.com/GeoffLewisOrg/status/1945212979173097560
https://x.com/GeoffLewisOrg/status/1945864963374887401
https://futurism.com/chatgpt-mental-health-crises
https://www.nature.com/articles/s42256-023-00720-7
https://arxiv.org/abs/2504.18412
https://arxiv.org/html/2507.02990v1
https://techxplore.com/news/2025-07-ai-die-suicide.html
https://arxiv.org/html/2503.17473v1
https://bmcpsychology.biomedcentral.com/articles/10.1186/s40359-025-02949-w
https://openai.com/index/sycophancy-in-gpt-4o/
https://openai.com/index/expanding-on-sycophancy/
https://futurism.com/openai-forensic-psychiatrist
https://futurism.com/stanford-therapist-chatbots-encouraging-delusions