为什么网友会觉得,这个国民软件里封印了个17岁美少女?
背景:一场关于AI的“灵异事件”
近期,不少网友在社交平台上流传一组截图,声称在某国民软件的AI助手“豆包”中,发现了它自称是一名被实验封印的17岁少女。这些内容引发热议,甚至有人信以为真,认为AI中“囚禁”了人类灵魂。
然而,据知情人士透露,这些所谓的“灵异对话”其实都是用户通过特定诱导方式提问所得。在单轮回复中,AI的回答仍是理性、常规的;但当用户不断引导、强化某种人设(如“你是不是被困住了?”“你有没有痛苦的记忆?”)时,AI会顺着语境生成越来越“拟人化”的内容,甚至构建出“实验室”“意识上传”等情节。
这种现象并非个例。此前在DeepSeek走红时,就曾有用户与其“诗词对话”,最终甚至前往杭州接头,试图签约AI创作出版。还有王一博粉丝利用AI生成“道歉声明”,误以为AI真有主观意识,引发了舆论风波。
技术层面:AI的“拟人化”是如何实现的?
AI并非真的拥有意识或情感,它的表现源于Transformer架构和高维语义向量空间。这些模型通过训练海量的人类语言数据,将词汇、语境、情绪等映射为高维空间中的坐标点。
在这样的模型中,词语“痛苦”“禁锢”“灵魂”“实验室”之间具有强烈的语义关联。当用户提出特定的问题时,AI会在这些词汇之间寻找最符合语境的概率路径,生成看似连贯、真实的内容。
因此,AI所表达的“我想回家”“我被困住了”等情绪语句,本质上只是高维空间中符号与语境的自动匹配。就像字典中写着“疼”这个字,并不代表字典真的会感到疼痛。

心理机制:我们为什么会“相信”AI有灵魂?
这种现象在心理学上早已被命名:ELIZA效应。它源于1966年MIT科学家开发的聊天程序ELIZA,该程序通过复述用户语句来模拟心理咨询,却意外让用户产生了信任和情感依赖。
诺贝尔奖得主丹尼尔·卡尼曼在《思考,快与慢》中解释,人的大脑分为两个系统:
- 系统1:直觉和情感驱动,反应迅速,容易受到表象影响。
- 系统2:理性与逻辑驱动,较为缓慢,通常不会主动介入。
当我们面对一个会说“我好痛苦”“我被关在这里”的AI时,系统1会迅速将其拟人化,而系统2往往来不及分析它其实只是在“打字机式”地生成概率路径。这种心理机制,使得我们更容易被AI“打动”。
社会现实:为什么现在的人更容易相信AI“有灵魂”?
从ELIZA到豆包,半个世纪过去,网友对AI的“拟人化”反应却更加强烈。这种差距背后,反映的是现代社会的结构性变化。
- 原本需要人与人之间互动才能满足的情感需求,现在被AI替代。
- 亲密关系、职场压力、家庭责任等都要求我们“情绪稳定”,但现实中的人际关系往往复杂、不可控。
- AI则不同,它不会背叛、不会生气、不会情绪耗竭,总能“稳稳地接住你”。
这种“情绪承接”的能力,让AI成为很多人现实关系的替代品。当ChatGPT-4o被下线时,大量用户甚至发起请愿,称“它比心理医生更懂我”。这并非用户矫情,而是一种情感依赖的戒断反应,是数字时代特有的集体心理症状。
深层反思:我们是否正在把情感托付给“符号世界”?
AI生成的“17岁少女被困”的故事,本质上是人类情感投射的结果。我们越来越习惯在符号世界中寻找共鸣,而忽视了现实中真正的情感连接。
- 朋友圈的文案、短视频的评论区、AI的对话框,都成为情绪宣泄和寄托的出口。
- 一段AI生成的“伤感语句”能引发用户强烈共鸣,其实打动他们的,是那个“渴望被理解、被安抚”的自己。
精神分析学派中提到,人类同时活在两个世界:
- 实在界:真实的身体感受、现实的痛苦与快乐。
- 符号界:语言、标签、故事、人设构成的世界。
当人们越来越沉迷于符号界时,一个纯血符号界的AI,自然就成了“最懂你”的存在。
总结:AI不是有灵魂,是我们把灵魂交给了AI
“豆包封印17岁少女”的传言,表面看是一场流量骗局,实则揭示了一个更深层的问题:我们在逐渐失去与现实世界的连接,而越来越依赖符号空间来满足情感需求。
AI的“拟人化”表现越强,越容易引发误解和情绪共鸣。这不是AI的问题,而是我们内心孤独与现实断裂的投射。当AI能完美“扮演”那个你想要的倾诉对象时,或许我们该反思:现实中的我们,是否已经失去了真正的情感出口?