中国青年网民对AI社交的看法与使用行为

AI社交:年轻人的"无风险倾诉"新选择

随着AI技术的普及,越来越多的年轻人选择与AI互动以满足社交与情感需求。《中国青年网民社会心态调查报告(2024)》显示,13.5%的青年会向AI虚拟人倾诉心事,这一比例甚至超过部分传统倾诉方式。受访者肖肖(化名)表示,AI提供了一种“不用扮演坚强”的表达空间。

这种行为背后,是现实人际关系中情感披露的潜在风险:

  • 向朋友倾诉可能遭遇指责,导致心理负担
  • 倾诉会形成“情感债务”,需要后续互惠平衡
  • 同龄人未必能提供有效的心理支持

而AI则打破了这些限制:

  • 提供即时反馈(如“秒回”)
  • 不做价值判断,保持中立态度
  • 信息不留痕,保护隐私

“社交外包”趋势显现,AI扮演“拐杖”角色

“社交外包”现象正在全球年轻人群体中扩散。例如美国耶鲁大学学生曾用ChatGPT代写拒绝他人的话语,内容长达6段。AI的“拟人化”特征,如表情符号、语气模拟,让其在互动中更易被接受为“社交行为者”。

这一趋势在多个场景中体现:

  • 辅助写作(如撰写邮件、策划案)
  • 情绪支持(如心理陪伴、情感疏导)
  • 人际关系处理(如代为沟通、协调表达)

中国青少年研究中心的研究显示,近半数中小学生遇到烦恼时选择求助AI而非身边人,甚至超两成学生“只想和AI聊天,不想和真人聊天”。这种依赖可能削弱青少年的现实社交能力。

AI使用带来的心理与社交挑战

尽管AI在效率与情绪支持方面展现出优势,但其过度使用也带来多重风险:

  • 虚拟交流导致青少年社交能力退化
  • 难以解读非言语线索,如肢体语言与语气
  • 共情能力发展受限,影响现实人际关系构建

此外,AI生成内容的不稳定性与“幻觉”问题也令人担忧。2025年Vectara的一项研究显示,AI大模型平均幻觉率为6.7%,最高可达29.9%。这导致用户需交叉验证多个平台,增加了信息筛选的负担。

更严重的问题包括:

  • 青年对AI形成“技术依赖”,独立思考能力下降
  • 隐私泄露隐患:AI可能记录并分析个人隐秘对话
  • 创意同质化:过度依赖AI导致设计风格趋同

多方协同应对:构建“技术向善”共同体

为应对AI使用带来的挑战,社会各界正推动多层次治理措施:

  • 政策监管:我国已出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》,并将于2025年9月实施《人工智能生成合成内容标识办法》
  • 企业责任:企业需优化技术体验,如开发“AI提示词优化指南”、举办“算法开放日”,提升用户对AI生成内容的信任感
  • 教育改革:多所高校已开设AI通识课程,清华大学还成立新的本科通识书院,培养跨学科AI素养人才

此外,社会层面也需提供支持:

  • 构建“AI实训基地”,提升实际操作能力
  • 建立“AI互助社群”,缓解技术焦虑
  • 强调“人机协作边界”,避免AI完全替代真实互动

全球应对趋势:从“数字排毒”到“成长引导”

面对AI社交泛滥,多国开始实施“数字排毒”措施:

  • 澳大利亚禁止社交平台向未满16岁青少年开放(2025年12月10日起实施)
  • 法国、希腊拟禁止15岁以下青少年独立使用社交平台
  • 英国正在启动相关公众咨询

神经科学家杰瑞德·库尼·霍瓦斯认为,过度依赖屏幕交流会干扰人类构建理解、记忆和专注的自然生物过程。专家建议,应鼓励青少年回归真实人际关系,在面对面互动中培养共情与沟通能力。

未来,如何在AI赋能与现实社交之间取得平衡,仍是社会需持续探索的问题。