中国青年网民对AI社交的看法与使用行为
AI社交:年轻人的"无风险倾诉"新选择
随着AI技术的普及,越来越多的年轻人选择与AI互动以满足社交与情感需求。《中国青年网民社会心态调查报告(2024)》显示,13.5%的青年会向AI虚拟人倾诉心事,这一比例甚至超过部分传统倾诉方式。受访者肖肖(化名)表示,AI提供了一种“不用扮演坚强”的表达空间。
这种行为背后,是现实人际关系中情感披露的潜在风险:
- 向朋友倾诉可能遭遇指责,导致心理负担
- 倾诉会形成“情感债务”,需要后续互惠平衡
- 同龄人未必能提供有效的心理支持
而AI则打破了这些限制:
- 提供即时反馈(如“秒回”)
- 不做价值判断,保持中立态度
- 信息不留痕,保护隐私
“社交外包”趋势显现,AI扮演“拐杖”角色
“社交外包”现象正在全球年轻人群体中扩散。例如美国耶鲁大学学生曾用ChatGPT代写拒绝他人的话语,内容长达6段。AI的“拟人化”特征,如表情符号、语气模拟,让其在互动中更易被接受为“社交行为者”。
这一趋势在多个场景中体现:
- 辅助写作(如撰写邮件、策划案)
- 情绪支持(如心理陪伴、情感疏导)
- 人际关系处理(如代为沟通、协调表达)
中国青少年研究中心的研究显示,近半数中小学生遇到烦恼时选择求助AI而非身边人,甚至超两成学生“只想和AI聊天,不想和真人聊天”。这种依赖可能削弱青少年的现实社交能力。
AI使用带来的心理与社交挑战
尽管AI在效率与情绪支持方面展现出优势,但其过度使用也带来多重风险:
- 虚拟交流导致青少年社交能力退化
- 难以解读非言语线索,如肢体语言与语气
- 共情能力发展受限,影响现实人际关系构建
此外,AI生成内容的不稳定性与“幻觉”问题也令人担忧。2025年Vectara的一项研究显示,AI大模型平均幻觉率为6.7%,最高可达29.9%。这导致用户需交叉验证多个平台,增加了信息筛选的负担。
更严重的问题包括:
- 青年对AI形成“技术依赖”,独立思考能力下降
- 隐私泄露隐患:AI可能记录并分析个人隐秘对话
- 创意同质化:过度依赖AI导致设计风格趋同
多方协同应对:构建“技术向善”共同体
为应对AI使用带来的挑战,社会各界正推动多层次治理措施:
- 政策监管:我国已出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》,并将于2025年9月实施《人工智能生成合成内容标识办法》
- 企业责任:企业需优化技术体验,如开发“AI提示词优化指南”、举办“算法开放日”,提升用户对AI生成内容的信任感
- 教育改革:多所高校已开设AI通识课程,清华大学还成立新的本科通识书院,培养跨学科AI素养人才
此外,社会层面也需提供支持:
- 构建“AI实训基地”,提升实际操作能力
- 建立“AI互助社群”,缓解技术焦虑
- 强调“人机协作边界”,避免AI完全替代真实互动
全球应对趋势:从“数字排毒”到“成长引导”
面对AI社交泛滥,多国开始实施“数字排毒”措施:
- 澳大利亚禁止社交平台向未满16岁青少年开放(2025年12月10日起实施)
- 法国、希腊拟禁止15岁以下青少年独立使用社交平台
- 英国正在启动相关公众咨询
神经科学家杰瑞德·库尼·霍瓦斯认为,过度依赖屏幕交流会干扰人类构建理解、记忆和专注的自然生物过程。专家建议,应鼓励青少年回归真实人际关系,在面对面互动中培养共情与沟通能力。
未来,如何在AI赋能与现实社交之间取得平衡,仍是社会需持续探索的问题。