【中豪研究】人工智能(AI)的法律问题系列(三)——人工智能在产品责任中的运用和法律问题

时间:2022/10/11 阅读:1420

 

尽管人工智能已经以某种形式存在了几十年,但由于计算能力的提高、算法的改进和大量数据的可访问性,其应用范围在近年不断扩大。人工智能(AI)的不断发展为人类带来了非常多的便利,同时由于技术的复杂、算法的程序性及技术和数据的垄断性等因素,也带来了许多法律问题。人工智能技术近年在美国蓬勃发展,该系列文章将介绍美国律师在人工智能领域遇到的主要法律问题,以供参考。

随着人工智能在公司的各种产品和系统中普遍使用,人工智能造成伤害和财产损失的可能性不断变大。人工智能自主行动的能力引发了新的法律问题。产品中的人工智能造成的损害过错认定成为较大问题。目前,没有法律规定人工智能造成的损害问题,各州的法院已开始适用传统法律理论在涉及人工智能产品(如自动驾驶车辆和工作场所机器人)损害的实践,探索新的解决方案。

 

  1  

产品责任基本原则

 

产品责任法规定产品造成他人伤害中的过错认定问题。它通常基于各州的普通法和成文法,包括以下理论:

(一)过失行为(Negligence)。过失损害赔偿诉讼要求被告当事人(个人或公司)在正常情况下合理的注意义务,原告应证明被告的产品因疏忽大意有设计或制造缺陷,或者在产品标签上未能提供充分的警告或说明告知消费者产品的安全使用。

 

(二)违反保证(Breach of warranty)。保证诉讼基于原告和被告(产品销售商)之间的合同关系,通常根据《统一商法典》(UCC)第2条的州法律版本。原告的产品保证诉讼应证明被告违反了:1.明示的保证;2.产品适销性的默示保证;3.产品针对特定用途的默示保证。

 

(三)严格责任(Strict liability)。尽管严格责任因司法管辖区而异,但大多数州都采用了《侵权法(第二次)重述》第402A条的基本概念。根据第402A条,销售处于“不合理危险”的缺陷状态产品的被告,即使被告在产品的准备和销售中尽了一切可能的谨慎义务,且消费者没有与被告签订任何合同协议,但被告依然要承担人身伤害或财产损失责任。尽管部分法院和立法者认为用户或第三方可预测的改造产品,产品对其造成损害时,制造商依然要承担责任,但通常情况下,402A条的适用要求产品在到达消费者时没有因第三方或环境的改变而使产品发生有实质性的变化。尽管《侵权法(第三次)重述》修改了这个标准,但只有少数几个州采用。

 

  2  

关于AI的产品责任案例

 

(一)GPS导航案件

近年来的一个典型AI产品有关侵权案例是关于GPS导航案例。在Cruz v. Raymond Talmadge d/b/a Calvary Coach, 2015 WL 13776213 (Mass. Suffolk Cty. Super. Ct. 2015).案例中,被告Raymond Talmade运营了一个旅游大巴运输公司及GPS制作商。原告在2013年2月2日登上了该大巴,大巴行驶至Soldiers Field路时,由于路上有个较低的天桥,该路限高10英尺,但大巴高12英尺,仍然在路上走。虽然路上有警示,但司机是根据他的GPS走的,GPS并没有给出任何警示。最后,大巴撞上了天桥,原告Cruz及多人头部、颈部、背部严重受伤,Cruz下半身瘫痪。

原告基于传统的侵权理论发起诉讼,对于该半自动化的设备GPS来说,原告的理由有以下两个:1.该设备是由特定公司开发的设计组件,从设备离开公司控制时起基本上没有变化;2.该公司未能充分警告其产品的可预见危险。该公司有足够的大数据及交通事故的数据,导航至限高的路段造成原告的伤害是可预见的,但在本案中未能警示该严格限高的路段。该案件虽然在地方法院提起,又打到联邦法院,但最终和解,保险公司赔付了原告500万美元,其中被告赔付450万美元,受伤比较重的Cruz得到了350万美元的赔偿。

 

(二)自动驾驶伤害案件

上述GPS导航案件还是半自动的,本案的自动驾驶案件更加自动化,体现了AI技术发展后产品责任的认定随着技术发展而调整。在Nilsson v. Gen. Motors, LLC, Mar. 30, 2018 (No. 18-471) (N.D. Cal.) 案件中,一名摩托车手称被告的自动驾驶汽车驶入其车道时导致其受伤,但事故反生时,被告未进行人工操作。

在诉状中,原告仅依据一般过失理论(而不是有缺陷的设计或警告),并声称自动驾驶制造商违反了其注意义务,因为车辆本身(而不是备用驾驶员)驾驶以疏忽方式导致原告受伤。制造厂商在答辩中也承认自动驾驶汽车也应用合理的谨慎义务驾驶。尽管该案在诉讼前期和解了,但它提出了几个新问题。例如,如果过错不能直接追溯到人类行为者,法律必须确定:1.是否将人工智能产品本身视为独立的参与者。如果是,则考虑管理人工智能的适用注意义务(例如,“理性自然人reasonable person”标准与新的“合理机器reasonable machine”标准)。2.当人工智能产品可自主运行时,如何界定可预见性。人工智能的使用不仅引发了关于人工智能的可预见性问题,而且还引发了人类最终是否会被要求遵守不同标准的问题,尤其是在人工智能可以执行任务的情况下。

虽然人工智能产品的产品责任案件和侵权案件目前才刚刚浮现,但随着技术的发展,未来可能会更频繁,也可能会因此催生新的认定标准。笔者认为未来的AI产品责任将涉及到诸多法律标准的认定问题,包括但不限于:传统侵权理论中制造商和AI产品操作人的责任认定标准,传统侵权理论中原告是否存在过错?制造商的产品责任认定标准,若制造商已尽谨慎义务和行业的准则,AI认定为独立自主的参与者,则AI极小概率的“过失”或“瑕疵”造成的损害后果由谁承担?若AI和人类都无过错,则是否适用公平原则或其他标准?这些都是未来司法实践中需要探索的。

以上是本文对人工智能(AI)产品责任相关法律问题的简要介绍,接下来的几期文章将会在数据保护和隐私、知识产权、破产、劳动用工和退休计划管理等方面介绍美国运用人工智能的具体法律问题和相关案例分析。敬请关注!

(作者:吕睿鑫)

相关专业人员