沃尔玛、塔吉特等美国零售巨头拥抱 AI,明确用户需为购物助手出错担责

美国零售巨头沃尔玛、塔吉特等企业正在积极引入生成式AI技术,用于客户服务和商品推荐,但近期更新的服务条款却将AI出错的责任推给用户,引发公众和法律专家对消费者权益保护的担忧。

背景:AI在零售业的快速渗透

  • 随着生成式AI技术的发展,越来越多的零售企业将其应用于智能购物助手、自动化推荐、客户服务等场景。
  • 沃尔玛、塔吉特等公司纷纷推出基于大型语言模型的AI助手,例如塔吉特与谷歌合作的Gemini助手,沃尔玛的Sparky AI助手。
  • 企业希望通过AI提升运营效率和用户体验,但也在服务条款中设置免责条款,试图规避AI可能带来的风险。

条款详情:用户需为AI操作负责

塔吉特在其最新服务条款中明确指出:

沃尔玛、塔吉特等美国零售巨头拥抱 AI,明确用户需为购物助手出错担责

  • 所有AI助手执行的操作均被视为用户授权行为。
  • 用户有责任对AI完成的订单进行定期检查。
  • 若AI错误购买商品或选择了更昂贵的选项,用户需自行承担费用。

沃尔玛在其Sparky AI助手的使用条款中也做出了类似声明:

  • AI助手可能提供不准确、不完整或过时的信息。
  • 用户需理解AI可能误解输入并导致错误决策。
  • 企业不为AI的错误或不当行为承担直接责任。

用户与法律界的反应

  • 多位消费者权益倡导者指出,这种“积极推广、消极避责”的做法可能对用户造成不公平。
  • 法律专家认为,将AI助手的决策失误完全归责于用户缺乏合理性,未来可能会面临诉讼挑战。
  • 社交媒体上也出现了大量批评声音,认为企业“甩锅”给消费者,忽视了AI技术的不可控性。

行业趋势:科技伦理与责任边界模糊

  • 生成式AI在零售场景的应用正在快速增长,但相应的监管和伦理规范尚未成熟。
  • 企业通过服务条款规避责任,形成一种“AI代理但用户买单”的模式。
  • 此趋势引发关于“谁应为AI错误负责”的广泛讨论,包括技术开发者、平台运营商和最终用户之间的责任划分。

潜在影响与未来展望

  • 若此类条款成为行业常态,可能削弱消费者对AI助手的信任,影响其普及。
  • 部分专家呼吁建立更清晰的法律框架,明确AI在商业服务中的责任归属。
  • 零售企业或将面临来自监管机构、消费者组织的压力,要求其对AI行为承担更多责任。
  • 尽管企业表示用户仍可通过退换货流程解决问题,但流程复杂性和时间成本可能成为用户体验的障碍。