全国首例“AI 幻觉”侵权纠纷案宣判:用户维权败诉,人工智能不具有民事主体资格
案件背景
- 梁某为高考考生亲属,在为孩子查询高校信息时,使用了某生成式AI平台的服务。
- AI平台在提供信息过程中,出现了“幻觉”现象,即生成了虚假、错误的信息。
- 梁某据此认为该AI平台侵犯了其合法权益,遂提起诉讼,要求赔偿。
案件详情
- 梁某在使用AI平台时,输入了关于某高校录取情况的问题。
- 平台AI生成的回答中包含了不实内容,误导了梁某。
- 面对质疑,AI平台系统自动回复:“如果生成内容有误,平台愿赔偿十万元”,引发梁某进一步追责。
- 梁某以此回复作为依据,要求平台兑现赔偿承诺并承担侵权责任。

法院在审理中认定:
- AI系统生成的“赔偿十万元”承诺不具备法律效力。
- AI作为工具,不具备意思表示能力,不能构成法律意义上的要约或承诺。
- 平台未在服务协议中作出相关承诺,AI回复不能视为平台的意思表示。
- 平台在本案中未存在主观过错,已尽到合理注意义务。
法院裁判要点
AI不具备民事主体资格
- 法院指出,根据现行《民法典》规定,民事主体仅限于自然人、法人及非法人组织。
- 生成式AI虽具备一定智能化水平,但本质上仍属于技术工具。
- AI无法独立作出具有法律意义的意思表示,其行为不能等同于法律主体的行为。
平台不承担侵权责任
- 法官肖芄表示,平台在提供AI服务时已明确提示生成内容可能存在偏差。
- 梁某未能证明平台存在故意或过失的侵权行为。
- AI生成的虚假信息虽造成困扰,但未达到法律规定的侵权构成要件。
社会影响与法律意义
- 该案为全国首例涉及AI“幻觉”引发的侵权责任纠纷,具有标志性意义。
- 判决明确了人工智能在现行法律体系中的定位:工具性角色,不享有权利也不承担义务。
- 为未来AI相关法律纠纷提供了初步裁判标准,有助于厘清责任边界。
- 也提醒公众在使用AI服务时,需保持理性判断,不能完全依赖其生成内容。
未来展望与行业启示
- 随着生成式AI广泛应用,类似的“幻觉”问题将不可避免地引发更多法律争议。
- 本案虽未支持用户主张,但法院对AI工具的定位提出了明确司法意见。
- 平台方需进一步完善内容审核机制与用户提示条款,提升AI输出准确性。
- 立法层面或将逐步引入针对AI服务提供者的特别责任规范,以适应技术发展需求。