作者:章伟
随着AI时代的到来,企业面临的法律风险结构正在发生变化,AI法律风险不断增加。其中,最典型的一类风险便是算法风险(Algorithm Risk)。
在国外,尤其是美国,围绕算法风险产生的责任争议已经逐步进入保险理赔领域。但由于目前市场上专门针对算法风险设计的保险产品仍然非常有限,企业在发生相关责任纠纷后,往往仍然需要依赖传统保险进行索赔,例如商业综合责任险(CGL)、网络安全保险以及董事高管责任险(D&O)。
在中国,监管层面也开始关注科技风险的保险保障问题。近期,中华人民共和国科学技术部、国家金融监督管理总局、中华人民共和国工业和信息化部、国家知识产权局联合发布《关于加快推动科技保险高质量发展 有力支撑高水平科技自立自强的若干意见》,提出要加快构建科技保险政策体系。但对于AI技术衍生的新型责任风险,目前整体仍缺乏成熟、专门的保险保障体系,相关产品仍处于探索阶段。
更值得注意的是,由于算法风险可能引发多种类型的责任,一些国际大型保险公司已经开始在保险条款中加入“AI排除条款(AI Exclusion Clause)”,明确不承保因企业使用AI所导致的损失。这意味着,一旦发生AI相关责任事故,AI开发或应用企业可能会面临被保险公司拒赔甚至无法投保的风险。
虽然目前国内尚未出现因AI风险而被保险公司明确拒赔的公开案例,但无论企业还是保险公司均需要关注的问题是:AI风险究竟能否落入传统保险的保障范围?
本文将梳理AI风险的主要类型,并结合国外已经公开的相关案例,分析其在传统保险框架下获得保障的可能性。
一、算法导致第三方向企业索赔的风险
在企业开发或应用AI大模型的过程中,目前最容易引发法律责任的情形之一,是算法结果或训练数据所引发的侵权风险。
最常见的情况包括:
知识产权侵权:例如大模型生成内容侵犯第三方著作权,或在模型训练过程中违法使用第三方作品;
人身或财产损害责任:例如自动驾驶算法错误导致交通事故,或医疗AI算法错误导致诊疗事故等。
在中国,围绕算法导致的知识产权侵权索赔已经逐渐出现。随着AI的应用范围不断扩大,此类风险很可能会越来越常见。
虽然目前国内尚未出现公开的算法风险相关保险争议案件,但在国外,这一问题已经开始进入保险诉讼领域,并引发保险行业的广泛关注。
(一) 相关案例解析
较为典型的案例,是一宗美国社交平台公司与保险公司之间的商业综合责任险(CGL)保险争议案件(C.A. No. N24C-11-010-SKR CCLD (Del. Super. Ct. 2026)[1]):
案件背景是与近年来美国大规模的社交媒体产品责任诉讼相关。多名未成年人及其监护人起诉某大型社交媒体平台,主张该平台通过算法推荐系统和产品设计机制诱导青少年形成高度依赖,并最终导致焦虑、抑郁、饮食障碍等心理健康损害。
在基础诉讼中,原告主要提出以下指控:1. 平台通过算法推荐系统持续向用户推送内容,以最大化用户停留时间;2. 平台设计了“无限滚动”“即时反馈”等产品机制以增强用户黏性;3. 上述设计导致青少年用户形成行为依赖并遭受心理健康损害。
随着相关诉讼不断增加,该平台公司向其投保的多家保险公司请求承担诉讼抗辩费用。随后,保险公司向法院提起确认之诉,请求确认根据商业综合责任险(CGL)保单,保险公司不负有为该类诉讼提供抗辩的义务。双方争议的核心问题主要包括:
第一,平台算法设计行为是否构成保险法意义上的“事故(occurrence)”。
商业综合责任险通常只对“因事故导致的人身损害或财产损害”提供保障,因此需要判断平台的行为是否属于保险法意义上的“事故”。
第二,当基础诉讼中原告主张的是平台的过失责任时,是否足以触发保险人的抗辩义务。
平台公司主张,基础诉讼中包含过失设计(negligent design)等指控,因此相关损害应当被视为非预期范围内的结果,从而属于保险合同中的“事故”。
最终,法院支持了保险公司的主张,认定保险公司不负有抗辩义务。法院主要理由包括:
第一,平台产品设计属于有意识实施的行为。法院认为,基础诉讼所描述的事实表明,平台公司是有意设计并部署相关算法和产品机制以提升用户参与度和停留时间。因此,该行为属于商业决策,而非保险法意义上的意外事件。
第二,基础诉讼中原告在诉状中主张的“过失”责任表述不能改变平台的行为性质。法院指出,在判断保险责任时,应当依据基础诉讼所描述的事实,而不是单纯依据法律表述。即使诉状中使用了“过失设计”等表述,只要其事实基础体现为有意实施的行为,仍然不构成保险意义上的“事故”。
第三,本案中不存在独立的意外事件。法院进一步指出,通常只有在存在额外且不可预见的事件导致损害发生时,才可能构成保险事故。而在本案中,基础诉讼中原告主张损害是平台产品设计的直接结果,因此不符合“事故”的构成要件。
(二) 涉及的保险条款
上述案件涉及的核心保险条款是商业综合责任险(CGL)条款。在实践中,这类保险也是企业在算法导致第三方责任后最有可能尝试索赔的保险类型。
典型的CGL承保条款如下:“The Underwriters' total liability to pay damages, claimants' costs, fees and expenses shall not exceed the Limits of Indemnity specified in the Schedule: 1. against each Section in respect of any on OCCURRENCE; and 2. in respect of all OCCURRENCES during the PERIOD OF INSURANCE for Section B and Section C (separately for each Section)……”
其中,“事故(occurrence)”通常被定义为:“'Occurrence' means an event, including continuous or repeated exposure to substantially the same or similar set of conditions, which unexpectedly or unintentionally results in BODILY INJURY and/or PERSONAL INJURY and/or PROPERTY DAMAGE”[2]。
类似的责任保险条款在中国保险市场中也较为常见。例如:被保险人因任何适用于本保险单之事故,致使第三者受到人身伤害或财产损失,依法应承担赔偿责任时,保险人负责赔偿。但该人身伤害或财产损失必须由意外事故引起[3]。
从上述条款可以看出,责任保险通常只承保“意外事故”所造成的损害。虽然保险条款未必对“意外事故”进行明确的定义,但在实践中通常理解为无法预料且不可控制的事件。
事实上,在大量算法风险场景中,损害往往源于企业对算法机制的主动设计。即使该行为未必构成故意侵权,也可能被认定为重大过失或可预见风险。算法导致的损害很难被认定为不可预见的意外事件。在这种情况下,相关损害往往难以满足商业综合责任险中“事故”的构成要件。这也是为什么在上述美国案件中,法院最终支持了保险公司拒绝承担保险责任的主张。
当然,个案中的风险事件是否构成保险意义上的“事故”,仍然需要结合算法风险产生的具体原因以及相关行为的可预见性等因素进行综合判断。
二、算法设计缺陷导致企业自身研发损失
对于从事AI研发的科技企业而言,算法研发往往需要投入巨额成本。一旦研发项目失败,企业会遭受大量的研发费用损失。
针对这一风险,部分保险公司已经开始推出研发费用损失保险。这类保险通常用于保障当研发项目失败或者中断时而导致的企业已经投入的研发费用损失。
近年来,一些地方保险机构也开始探索更加细化的AI研发保险产品。例如,在广东推出的“智研保”产品,就专门针对人工智能和机器人研发的不确定性风险进行了设计。据公开报告,该类产品的主要特点包括:“将‘技术方案缺陷’和‘原材料缺陷’纳入保障范围,直接覆盖研发过程中的核心风险点;将研发人员成本和原材料成本纳入理赔范围,减少研发失败带来的直接损失;覆盖研发、小试、中试的完整研发周期,避免企业需要分阶段投保的复杂流程”[4]。
从保险产品的发展趋势来看,针对AI研发失败风险的保险产品正在逐步出现,但整体仍处于探索阶段。
三、数据泄露或网络攻击导致的企业损失
在AI模型研发和训练过程中,企业往往需要使用大量数据。与此同时,也可能面临数据泄露、黑客攻击或训练数据被恶意利用等风险。
针对这类风险,目前最直接可能对应的保险产品是网络安全保险(Cyber Insurance)。
网络安全保险通常承保企业因网络安全事件(例如:网络攻击、数据泄露、恶意软件感染、平台服务中断)造成的损失。因此,如果AI训练过程中出现服务器被攻击、数据被窃取或系统遭受恶意破坏等问题,这类损失在一定情况下可能落入网络安全保险的保障范围。
但需要注意的是,如果企业在训练模型过程中主动抓取或违法使用数据,从而引发索赔或监管调查,则通常不会被认定为网络安全事件。这类风险往往被视为企业自身的数据使用行为,因此很可能不属于网络安全保险的承保范围。
四、“AI漂洗”带来的法律风险
随着AI概念在资本市场持续升温,一些企业为了吸引投资者,也开始出现所谓的“AI漂洗(AI Washing)”行为。
所谓AI漂洗,是指企业或管理层在公开披露中夸大或虚假描述自身AI能力或AI业务前景。例如:在招股书、财报或路演中夸大AI技术能力;声称使用“全自动AI系统”,但实际仍依赖大量人工操作;夸大AI在业务中的应用程度或商业化前景;对AI技术的真实能力进行误导性宣传。
在海外市场,已经出现多起与AI漂洗相关的证券诉讼。例如,有公司创始人被指控向投资者谎称其电商平台通过“全自动AI系统”处理支付,但实际上相关操作主要依赖海外人工完成。
类似行为如果构成虚假陈述,就可能引发投资者诉讼。在保险层面,这类风险在一定情况下可能触发董事高管责任保险。因为董事高管责任保险通常承保公司或高管在履职过程中发生的不当行为,其中就包括不实陈述或信息披露错误。
不过需要注意的是,一些董事高管责任保险保单中可能包含技术风险或网络风险除外条款。在AI相关案件中,保险公司有可能主张相关风险本质上属于技术风险或网络风险,从而拒绝承担保险责任。
因此,在投保或理赔时,企业应特别关注保单中的除外条款措辞,避免AI相关风险被过度排除。
五、建议
随着AI应用不断深入,企业面临的风险类型也在持续变化。一些地方保险机构已经开始尝试推出针对AI设备和应用场景的保险产品。
在此背景下,企业可以从以下几个方面完善自身的AI风险保险安排:
1. 如果企业已经购买了商业综合责任险、网络安全保险或董事高管责任保险,应当仔细检查保单中是否存在AI相关除外条款。如果条款表述过于宽泛,保险公司可能会在理赔时将AI相关风险排除在外。
2. 一旦发生与AI相关的事故或纠纷,应当第一时间审查现有保单,评估该风险是否可能落入现有保险保障范围。
3. AI风险往往可能同时触发多种保险。例如:网络安全保险、董事高管责任保险、商业综合责任险。企业应整体审视自身保险结构,识别不同保单之间是否存在重复保障或者保障空白之处。
4. 如果传统保单对AI风险的覆盖存在较大不确定性或者无法覆盖,企业可以考虑购买可以覆盖AI风险的相关保险来获得更明确的风险保障。
特别声明 |
|
汉坤律师事务所编写《汉坤法律评述》的目的仅为帮助客户及时了解中国或其他相关司法管辖区法律及实务的最新动态和发展,仅供参考,不应被视为任何意义上的法律意见或法律依据。 如您对本期《汉坤法律评述》内容有任何问题或建议,请与汉坤律师事务所以下人员联系: |
|
章伟 电话: +86 10 8516 4210 |
[1] C.A. No. N24C-11-010-SKR CCLD (Del. Super. Ct. 2026)案件判决书链接:https://law.justia.com/cases/delaware/superior-court/2026/n24c-11-010-skr-ccld.html?utm_source=chatgpt.com。
[2]保险条款引自:https://prokopius.com/wp-content/uploads/2019/11/lma3150a-wording.pdf。
[3]保险条款引自:https://www.iachina.cn/col/col2630/。
[4]“全国首款人工智能与机器人产业研发保险在佛山发布”,佛山市新闻传媒中心,https://fskjj.foshan.gov.cn/2018/news/content/post_6751924.html。