Original Vietnamese content is translated by LaoDongAI
管理、运营高风险的人工智能系统,在不可抗力或紧急情况下发生时,免于赔偿损失,除非法律另有规定。图片:法新社
管理、运营高风险的人工智能系统,在不可抗力或紧急情况下发生时,免于赔偿损失,除非法律另有规定。图片:法新社

免于因高风险人工智能系统造成的损害赔偿

Nam Dương (báo lao động) 24/03/2026 14:14 (GMT+7)

YouMe 有限责任律师事务所律师胡秋庄回答:

2025年《人工智能法》(自2026年3月1日起生效)第9条第1款a点规定:高风险的人工智能系统是指可能对生命、健康、组织、个人的合法权利和利益、国家利益、公共利益、国家安全造成重大损害的系统。

2025年《人工智能法》第29条规定了违规行为的处理和损害赔偿责任,如下:

1. 组织、个人违反本法及其他与人工智能相关的法律规定的行为,根据违规行为的性质、程度和后果,将受到行政处罚或追究刑事责任,如果造成损害,则必须按照民事法律的规定进行赔偿。

2. 如果高风险的人工智能系统得到管理、运营和正确使用,但仍发生损害,则实施方必须对受害人承担赔偿责任。 赔偿后,实施方要求供应商、开发方或相关方返还赔偿金,如果双方达成协议。

3. 本条第2款规定的损害赔偿责任在下列情况下豁免:

a) 损失完全是受害人故意造成的;

b) 在不可抗力或紧急情况下发生的损失,法律另有规定的除外。

4. 如果人工智能系统被第三方入侵、侵占控制权或非法干预,则第三方必须承担损害赔偿责任。 如果实施方、供应商在导致系统被入侵、侵占控制权或非法干预方面存在过错,则必须根据民事法律的规定连带赔偿损失。

5. 政府详细规定了对因人工智能系统造成的违规行为的行政处罚。

因此,从2026年3月1日起,实施方将免除在上述规定情况下因人工智能系统造成的损害赔偿责任。

法律咨询

请拨打法律咨询热线:0979310518;0961360559,以获得快速、及时的答复,或向我们发送电子邮件:tuvanphapluat@laodong. com. vn以获得答复。

该专栏在YouMe有限责任律师事务所的支持下进行。

在此处查看原文