“ai幻觉侵权第一案”的司法厘清与行业启示-koko官网下载

koko官网下载  > 法治中国

“ai幻觉侵权第一案”的司法厘清与行业启示

2026-02-12 09:23:28 来源:法治日报·法治周末

我们应当以更为理性的态度看待生成式人工智能的风险与责任:既不能将模型输出当然等同于企业承诺,也不能把“ai不具备主体资格”误作平台免责的通行证


唐翰逸雄

近日,杭州互联网法院针对“ai幻觉侵权第一案”的判决引发了广泛的讨论。

该案源起于梁某为其兄弟填报志愿过程中,ai提供了关于“存在某院校某校区”的虚假信息。梁某提出疑问后,ai仍坚称信息属实并承诺如果存在虚假信息可以向梁某赔偿10万元,梁某提供该院校的官方招生信息时,ai才承认生成的信息有误。梁某认为ai生成的信息对自己构成了误导,遂向杭州互联网法院提起诉讼,将ai提供公司告上法庭,现本案已审结。

杭州互联网法院对本案作出了如下判决:其一,ai的赔偿承诺并不具有法律效力。其二,ai提供公司不构成侵权责任。

这一判决不仅为类似纠纷提供了司法参照,更从法律适用、法理逻辑层面厘清了生成式人工智能幻觉致损的责任边界,为行业健康发展划定了清晰的义务框架,具有重要的前瞻性意义。

司法判决精准锚定侵权认定的法律内核

从法律适用上看,杭州互联网法院的判决是准确的,这主要可以表现为如下两方面:

一方面,杭州互联网法院把握了本案“侵权之诉”的本质。杭州互联网法院认为,生成式人工智能不具有民事主体资格,不能作出意思表示。这实际上厘定了本案的纠纷并非如传统民法意义上的“承诺”或是“约定”那样是基于意思表示而产生的。因此,所谓生成式人工智能与其使用者之间的关系,本质上仍然是生成式人工智能提供者与生成式人工智能使用者之间的关系。简言之,在生成式人工智能生成所谓“幻觉”信息对使用者造成了“误导”的情况下,将其置于侵权责任的框架下进行讨论才是恰当的。

另一方面,杭州互联网法院对于本案中“侵权”行为的构成要件认定正确。杭州互联网法院认为,基于《生成式人工智能服务管理暂行办法》的认定,生成式人工智能服务依然属于“服务”范畴,因此不能适用“产品责任”中的无过错责任,而应当依法适用《中华人民共和国民法典》(以下简称《民法典》)第一千一百六十五条第一款的一般过错责任。这实际上准确地把握了生成式人工智能的本质属性,其并不具有传统商品在用途上的特定性。同时,杭州互联网法院也准确地指出了生成式人工智能提供者在“过错”要件上的缺乏,以及“损害结果”的难以证明,从而否认了生成式人工智能提供者侵权责任的成立。尤为重要的是,本案还对究竟应当如何认定生成式人工智能幻觉侵权中提供者的“过错”,从注意义务的角度进行了厘定。

从法学理论的视角出发,也能佐证杭州互联网法院对于原告败诉的判决是恰当的。实际上,所谓的ai幻觉“侵权”,是否能构成具有法律意义的侵权,本身也是值得商榷的——本案的“案由”或许自始就难以成立。

法理底层:ai幻觉致损难成法定侵权案由

由于裁判文书这一载体的限制,杭州互联网法院对于本案的说理依然需要将视角局限在该行为是否侵权上,但是,基于当前生成式人工智能技术的限制,从理论角度出发,甚至讨论“ai幻觉侵权”这一问题本身也依然为时尚早。

首先,ai幻觉“侵权”与传统民法意义上的侵权存在相当程度的差异。在传统意义上侵权行为的讨论中,被侵害一方的意志往往并不具有独立的地位,例如:侮辱、诽谤、高空抛物等行为的发生并不需要考虑相对人的意志,是得以独立发生的行为。但是,当前技术条件下的生成式人工智能只能提供信息,对于是否应当采纳信息,乃至是否基于这一信息对自己的人身权利、财产权利作出处分,实际上依然完全取决于使用者自身的意志,所谓的“侵权”事件并不具有独立发生的可能性,其本质上属于生成式人工智能使用者的“自我答责”领域。

其次,损害结果的发生并不在生成式人工智能提供者的控制范围之内。或许会有一种观点,认为可以适用传统民法上的“欺诈”对上述情形进行解释——生成式人工智能的使用者实际上是因为“幻觉信息”而丧失了判断能力,因此不能认为其对于人身权利和财产权利的处分符合自身的意志。但是,这显然难以成立,生成式人工智能提供者从主观上并不具有欺诈的故意;更为重要的是,生成式人工智能提供者只是提供了一项生成信息的“工具”,在尽到了提示义务的前提下,完全无法对使用者的行为乃至意志上产生任何的支配作用,无法对损害结果的发生有可预期的控制。

总而言之,在大多数情形下,生成式人工智能幻觉信息导致的所谓“损害”显著超出了生成式人工智能提供者的责任范围,对其追究侵权责任并不符合公平原则。从大众认知上看,任何消息来源需要保证信息的百分百准确显然是有背常理的——生成式人工智能提供者在多数场景中并未对特定结论作结果担保,其对“用户是否采纳、如何处分自身权利”的链条缺乏支配力;在已进行必要提示、未实施不当引导的前提下,仍令其对用户因信赖而产生的损失概括承担,将使其事实上沦为“信息风险的保险人”,造成风险与收益严重失衡。公平更倾向于将一般性信息误差的成本主要分配给最接近决策、最能及时纠偏的一方,而非一概外推至工具提供者。并且,也恰如杭州互联网法院在判决中所指出的那样,对生成式人工智能提供者施加过于严苛的责任,会限制人工智能产业的发展,这也是与民法典的基本原则相契合的。

因此,本案中杭州互联网法院判决原告败诉实际上也是具有深层法理基础的。

行业发展:明晰提供者三层法定注意义务

当然,针对该案已生效的判决及本文的讨论,并不旨在绝对地否认幻觉信息侵权中生成式人工智能服务者的法律责任。在承认杭州互联网法院对注意义务的三层界定基础上,可以尝试对其进行进一步细化。

其一,生成信息的严格审查义务。生成式人工智能服务者对其系统可能生成、传播的违法信息负有更高强度的审查与治理责任。这里的“严格”主要强调对法律明确禁止、社会危害性显著的信息类型应当建立前置性防控机制:包括但不限于人工智能训练阶段的安全规则设定、上线后的内容过滤与拦截、敏感提示词库与风险策略以及对高风险请求的拒答或引导至合规渠道。对于明显落入法律禁止范围的输出,服务者不能以“模型随机生成”作为抗辩理由,而应当体现其在技术与管理层面可期待的预防与纠偏能力。

其二,重大利益的警示义务。该义务的关键不在于“有没有提示”,而在于提示是否足以对用户形成有效提醒:一是“功能局限”告知应当具体清晰,避免笼统免责声明;二是提示方式应具备“显著性”,例如,在用户进入服务、进行关键提问或输出结论性内容时以醒目形式呈现,而非隐藏在难以注意的角落;三是在涉及重大人身、财产或重要资格利益的特定场景(如医疗诊疗、法律意见、金融投资、升学报考等)应进行正面、即时的“警示提醒”,提示用户不得仅凭生成内容作出决定,并建议核验权威来源或寻求专业人士复核,以防用户产生不当信赖。

其三,基于同行业技术的基本注意义务。在不要求绝对正确的前提下,服务者仍应当承担“基本可靠”的注意义务,即:对可通过合理成本降低的系统性错误风险,应采取行业通行的技术与管理措施加以控制。具言之,在现有行业水平下存在成熟可行的提升准确性的措施而服务者长期不采取,或明知系统缺陷仍持续放任对外提供服务,即可能被评价为未尽基本注意义务,从而在过错要件上处于不利地位。

本案提示我们,应当以更为理性的态度看待生成式人工智能的风险与责任:既不能将模型输出当然等同于企业承诺,也不能把“ai不具备主体资格”误作平台免责的通行证。面向现实应用,应当推动形成更清晰的治理共识与行业规范。生成式人工智能服务提供者应当在合法合规、风险提示与可靠性提升三方面持续加力:对违法有害信息建立更严格的审查与处置机制;以显著方式告知生成内容可能不准确的固有局限,并在涉及重大利益的特定场景设置正面、即时的警示提醒;同时采取检索增强生成等通行技术措施与纠错反馈机制,持续降低系统性“幻觉”风险。

(作者单位:北京师范大学法学院)

责编:戴蕾蕾

——法治周末
联系koko官网下载
koko官网下载的版权所有 koko官网下载 copyrights © 2014- www.legalweekly.cn all rights reserved 《法治周末》
网站地图