专访学者刘永谋:最大的问题不是AI越来越像人,而是人越来越像机器

智能时代人类行为的重塑

刘永谋指出,AI技术正在深刻影响人类的行为模式和认知结构。在算法规训下,人们的行为越来越呈现出数据化、标准化的特征,甚至逐渐丧失了主体性。

  • 信息窄化趋势:尽管“信息茧房”缺乏实证支撑,但基于内容、协同过滤和流行度的算法推荐机制,确实强化了信息窄化的现象。相较传统媒体的“把关人推荐”,算法赋予了用户更高的能动性,但同时也导致人们只关注与自身偏好相符的内容,形成认知偏见。
  • 后真相困境加剧:AIGC(人工智能生成内容)的广泛应用,使得虚假信息泛滥,真相变得愈发模糊。公众从追求事实转向情绪宣泄,新闻逐渐娱乐化、鸡汤化。

这种趋势不仅影响个体判断力,也对社会舆论环境构成挑战。刘永谋强调,AI并未改变新闻的意识形态属性,而是放大了其传播的不稳定性。

人类自我驯化的加速

随着可穿戴设备和量化自我(Quantified Self)的普及,人类进入了一个前所未有的自我监控与自我控制的时代。

专访学者刘永谋:最大的问题不是AI越来越像人,而是人越来越像机器

  • 量化自我与隐私暴露:量化自我现象通过智能设备追踪个体的行为、情绪、健康等数据,旨在通过数据反思和控制自我。然而,这种趋势也带来了隐私暴露和精神分裂风险。
  • 表演人格的泛化:在摄像头无处不在的社会中,人们需要不断切换行为模式,以适应不同场景的“表演需求”。这种分裂式的生存方式可能导致“数据倦怠”,使人最终异化为一种智能机器。
  • 身心设计的兴起:基因编辑、生物增强等技术的发展,使得人类改造从群体选育走向个体控制。这种“科学人”观念将人类情感、行为还原为生化参数,进一步加剧了人的机器化趋势。

知识质量的滑坡与认知退化

AI技术的广泛应用不仅改变了新闻传播方式,也对知识的生产与传播造成深远影响。

  • 知识“下流化”:AI大模型训练依赖网络信息的中位线水平,导致知识生产趋于平均化甚至劣质化。优质内容被淹没在大量AI生成的“中位内容”中,形成“垃圾进-垃圾出”的恶性循环。
  • 偏见的算法化:AI输出的偏见与歧视常被数据崇拜掩盖,公众误以为算法是中立的。这种误信让偏见更具隐蔽性和权威性,进一步影响社会公平与正义。
  • 知识获取的肤浅化:记者角色正从信息采集者变为数据管理者,对复杂事件的深入分析能力下降,公众获取的信息也愈加表面化和碎片化。

“AI理想国”与“AI机器国”的未来选择

刘永谋将未来智能社会的发展设想为两种极端模式:“AI理想国”和“AI机器国”。

  • AI理想国的幻象:在这一设想中,AI承担全部劳动,人类享受高度自由。然而,这样的未来面临人类存在意义危机的挑战,如《机器人总动员》所警示的,人类可能丧失生存动力,甚至成为“行尸走肉”。
  • AI机器国的风险:若智能治理走向极端,社会将变成一台严密的智能机器,个体沦为可替换的零件。这种状态下,自由意志与个体差异将被抹杀。
  • 反治理现象的制约作用:包括智能低效、技术怠工、智能破坏、官僚主义智能化等现象,会自然限制“AI机器国”的完全实现。历史经验也表明,社会发展往往选择折中路径,智能治理也需在效率与人性之间取得平衡。

智能治理与“完美人梦想”的危险

“完美人梦想”是当代智能治理中一个潜在但危险的理念。

  • 治理的全面化倾向:现代社会试图通过各种规章制度纠正一切“不完美”,但这种治理方式忽视了人性的复杂性与多样性。
  • 过度治理的后果:试图消除所有小错误与不规范,最终可能引发系统崩溃。治理必然遭遇反治理,过度治理只会加剧社会的紧张与不稳定。
  • “科学人”观念的崛起:人类行为逐渐被还原为物理、化学、生物参数,人性被当作可以被测量、优化和控制的系统。这种观念下,人不再是独特的存在,而被视为智能机器的一种。

刘永谋认为,AI时代人类面临的最大风险不是机器越来越像人,而是人越来越像机器。他强调,要警惕智能技术对人类主体性的侵蚀,倡导对AI治理的反思与调整,以防止人性被彻底机器化。