高级检索

学术资源

工商行政法

当前位置: 首页 -> 学术资源 -> 部门行政法学 -> 工商行政法 -> 正文

许中缘:论智能汽车侵权责任立法——以工具性人格为中心

信息来源:《法学》2019年第4期 发布日期:2019-06-28


【摘要】:我国现有立法并没有规定智能汽车致人损害的问题,类推适用相关规则也无法解决责任承担主体定位不明的难题。基于自动驾驶汽车的智能性导致侵权责任的生成性,智能汽车驾驶者、制造商与开发者之间的法律关系较之传统汽车有所不同。传统汽车工具主义的立法规范在智能汽车侵权责任上存在诸多局限。因此,在立法基础上应确立智能汽车的工具性人格;在立法价值上应当妥善处理安全与责任的关系;在立法技术上应该对智能汽车的层级划分进行区分,但在规范上应进行统一处理,并区分自动驾驶与人工驾驶;在立法框架构建上,应当以智能汽车的工具性人格为中心进行相应的规范设计。

【关键词】:智能汽车  侵权责任  自动驾驶汽车法  工具性人格


  “智能汽车”(“autonomous vehicles”或“self-driving cars”)[1]已经从理想变成现实。继2012年美国首次为谷歌汽车颁发无人驾驶测试执照后,智能汽车已经成为诸多汽车生产商的新宠。[2]智能汽车正在改善并融入市民生活,与此同时,无人驾驶汽车相关立法亦相继出台。2017年,美国仅有6个州支持无人驾驶汽车合法化,而到2018年,这一数字已发展至33个。[3]责任承担是智能汽车立法所需解决的关键课题,“就自动驾驶系统而言,责任必须先于向公众部署之前得以‘解决’”,[4]这关涉智能汽车技术的发展前景,立法若应对迟缓或不周延则会“降低或者完全阻止消费者接受高度发达智能汽车技术的意愿”。[5]然而,美国已经颁布的无人驾驶汽车相关立法“并没有对智能汽车事故的责任确定进行直接规定”。[6]其根源在于智能汽车牵涉的法律关系极为复杂,立法难以对其进行准确规范。最主要的原因是在英美法系国家,立法的缺位可以通过司法造法活动弥补。即便如此,在2018年7月19日正式成为法律的英国《自动与电动汽车法案》(Automated and Electric Vehicles Bill,简称AEV法案)明确规定了智能汽车所有人与保险人的责任。[7]2017年6月21日德国《道路交通法》(Stra?enverkehrsgesetz, StVG)进行了修订,对智能汽车的侵权责任作出系统规范。[8]作为世界首部系统化地规范智能汽车侵权责任的法律,其因坚持维护现行侵权责任体系而在草案公布之时便遭受诸多批评。[9]国内外学者对智能汽车侵权责任大都持保守态度,认为现有的诸如产品责任法、消费者权益保护法、合同法等法律便能够解决智能汽车责任承担问题。[10]但问题是现有立法将机器人定位为人造的机器或者工具,并没有妥当地解决机器人致人损害的问题。传统的产品责任对人工智能(无人驾驶汽车)而言,在适用上已经捉襟见肘。[11]笔者认为,基于智能汽车侵权责任的独特性,应该确立智能汽车工具性人格,[12]从而确定相应主体的责任,这是智能汽车立法的基础,也是确定相关责任的前提与关键。

  一、现有立法难以有效规范智能汽车侵权责任

  智能汽车是配备“自动技术”(autonomous technology)的车辆,这类车辆的本质并不在于其配备了定速巡航、紧急刹车、泊车辅助、车道保持警告、车辆碰撞等系统,而在于其不需要人工驾驶就能够完成特定驾驶任务。根据美国汽车工程师协会(SAE)对车辆自动水平的定义,自动驾驶系统分为五种层级。[13]其中,层级三、层级四与层级五具有“高级驾驶辅助系统”(Advanced Driver-Assistance Systems)、“自动紧急介入系统”(Automated Emergency Intervention Systems)与“无人驾驶系统”(Driverless Systems)。[14]“高级驾驶辅助系统与自动紧急介入系统可以描述为‘无时不在’的体系,不仅在任何时候能够进行驾驶,而且在任何地方均能驾驶。无人驾驶系统则为‘无处不在’的体系,该种系统能够从事所有的驾驶行为,但局限于特定条件。”[15]一个合理且有资格的驾驶者应该知晓自动驾驶系统的功能并能够作出合理的安排。[16]因此,即使是具有无人驾驶系统的自动驾驶汽车,也不能完全忽视甚至排除人类驾驶者所应具有的作用。这或许是就智能汽车侵权责任不能独立立法的缘由。不过,基于智能汽车自动驾驶的特点,传统立法并没有解决智能汽车侵权责任承担问题。

  (一)既有的智能汽车致人损害责任承担机制存在缺陷

  我国现有的相关立法是以人工驾驶为中心构建的法律规范体系。传统汽车诞生于18世纪的工业社会,蒸汽机的笛鸣声开启了规范汽车运行的立法进程,其随着工业化的推进而不断成熟。在信息化社会,传统工业化的法律思维已不能及时和准确地回应智能汽车所涉法律关系的调整需要。

  1.《道路交通安全法》无法确定智能汽车侵权行为的过错.

  《道路交通安全法》以驾驶者对交通工具的控制过错为中心构建相应的责任体系,但智能汽车显然与此不同。首先,即使理论上都认为智能汽车比传统汽车更为安全,但基于智能汽车的驾驶自主性,导致其行为难以预测,其本身运行的安全并没有被广泛接受。其次,与传统汽车的人工驾驶不同,智能汽车的驾驶自主性在一定程度上切断了传统驾驶者对汽车的控制权,阻断了传统驾驶者与交通事故过错之间的路径联系。因此,智能汽车的自主驾驶特征与传统汽车作为驾驶工具具有本质的不同。很多人认为,智能汽车无论在技术上如何发达,其仍是为主体服务的工具,立法无需将其与传统汽车相区分。就理论而言,相关立法首先需要理顺智能汽车与汽车驾驶者的关系,其涉及汽车制造商和开发者等相关主体,由此在过错认定方面具有理论上的局限性,其过错适用标准也需重新考量。

  2.《产品责任法》不能确定智能汽车产品的缺陷.

  我国司法实践在处理产品责任纠纷案件时,通常将产品缺陷与一定的产品质量标准直接联系起来,以“产品质量不合格”作为归责的基础。我国产品责任法对产品质量采用的是客观标准。“判定产品是否存在危及人身、他人财产安全的不合理的危险,以保障人体健康,人身、财产安全的国家标准、行业标准中的安全、卫生指标作为判定依据。”[17]对产品质量尚未制定有关标准的,以社会普遍公认的安全、卫生要求作为判定产品是否存在缺陷的依据。然而,对于无人驾驶汽车而言,现有的产品责任法基本不可适用。

  首先,法律意义上的缺陷与技术意义上的缺陷并不一定相关。汽车组成部分的功能缺失或者没有很好地发挥作用也不意味着构件存在缺陷。[18]功能缺失或者没有很好地发挥作用具有多种因素,而驾驶者所导致的问题可能是最为复杂的因素,且适用产品责任需要受害人证明存在产品缺陷。然而,如果证明产品存在设计缺陷,受害人需要提出比该种设计更好的替代方案。同样地,如果产品缺陷是源于不完全告知或警示,受害人也需证明该信息的提供存在不合理之处。但由受害人证明这些缺陷往往存在较大困难,其不仅需要耗费大量的时间成本,也需承担高昂的费用。根据Westlaw所出具案例评估报告中的汽车致损索赔和人身伤害类型的各项数据,在因车辆疏忽和产品责任导致的受害人死亡、截瘫等事故中,几乎没有受害人基于适用产品责任获得赔偿的案例。[19]

  其次,产品缺陷责任可以适用相关的免责条款。我国产品责任法规定了生产者对产品缺陷的免责事由,即在产品投入流通时尚不存在缺陷或者依当时的科学技术尚不能发现缺陷存在。而对于智能汽车而言,基于技术的先进性与革命性,产品制造商更容易依据这些免责条款而豁免。

  最后,智能汽车驾驶行为的不可预测性导致产品缺陷认定的客观困难。智能汽车拥有多种复杂的敏感元件与控制软件,且因数据交互与分析而产生行为自主性,导致人类很难预见机器人在何种情况下作出何种行为,[20]也即智能汽车的驾驶自主性将导致其行为的难以预测性。由此可见,汽车本身在复杂情形下如何发现问题与作出何种决定是开发者本身所不能预见的。[21]而我们在判断事故应对行为是否妥当时也并不存在“绝对理性”,只能判定行为人是否履行合理注意义务并基于此作出相对合理之行为;同理,对于智能汽车本身作出的各种行为,人们也很难说该决定存在缺陷。

  就我国传统侵权法领域而言,《道路交通安全法》能够指向侵权人的过错,《产品责任法》也能够认定产品缺陷与确定制造商、销售商的严格责任。但智能汽车运行的智能性以及所涉法律关系的复杂性导致既有的法律规范不敷其用。笔者认为,智能驾驶系统行为的难以预测性导致了产品缺陷认定的模糊性。

  确实,对于智能汽车造成损害的情形,也可以按照制造商与消费者之间的合同进行调整,但制造商一般均会通过严格限制消费者的权利或者豁免己方责任的方式避免承担责任。比如,特斯拉汽车的使用指南就明确指出“自动紧急刹车系统主要是帮助避免追尾,但系统具有局限性,因此不可能总是能够探测到危险或者提供相关警告”。该种规定要求驾驶者在使用自动驾驶系统技术时,仍然需要持续地把握交通状况与及时采取避免碰撞的措施。[22]该种风险分配的规定实则排除制造商的主要义务,基于现有技术的非标准性,该种责任豁免并不能为我国合同法规范所认可。[23]

  (二)将类推理论适用于智能汽车侵权责任的承担存有不足

  基于工具主义的立法难以构建智能汽车侵权责任体系。[24]但诸多学者认为,对于无人驾驶汽车致人损害的问题可以适用类推(analogize)规则。

  1.电梯理论。有学者主张无人驾驶汽车与电梯一样,其所有人应该保障汽车驾驶的安全性,并对因汽车构件缺陷、操作失误导致的损害承担责任。[25]但事实上,电梯与智能汽车有诸多不同。首先,行为人只有在极为特殊的情况下才能对电梯运行进行控制;而智能汽车的驾驶者在一定程度上具有控制能力,甚至可在智能驾驶系统难以应对紧急危险时夺回对汽车的驾驶控制权。其次,就电梯致人损害而言,应由其管理者或者所有人承担责任,除非存在产品缺陷,制造商或者销售商对此并不承担责任;但对于无人驾驶汽车致人损害而言,制造商有可能需要承担责任。最后,电梯一般不具有自我感应与调节功能,而无人驾驶汽车能够感应和适应周围的复杂环境并作出相应调整。[26]因此,将无人驾驶汽车与电梯作简单类比是不合理的。

  2.汽车与飞机或轮船的自动驾驶系统理论。无人驾驶汽车与飞机或轮船皆具自动驾驶系统,驾驶者需要对天气和周围环境作出适当反应,由此二者具有相同性。[27]但从中推断无人驾驶汽车的驾驶者需要对损害承担责任是不合理的。首先,二者的自动驾驶系统存在差异,飞机或者轮船的自动驾驶系统只是在简单的航线中使用,而无人驾驶汽车需要针对复杂的路面情况采取不同的应对措施。其次,飞机与轮船的驾驶者需要经过专业训练,而对自动驾驶汽车的驾驶者不作特别的专业要求。最后,二者因失误所导致的责任也不相同。飞机或者轮船的驾驶者在不当使用自动驾驶技术时需要承担当然责任,但对无人驾驶汽车驾驶者操作失误的责任认定则非常困难。

  3.动物理论。有学者认为,智能汽车侵权的责任承担,应如同狗等饲养动物致人损害由其所有者或管理者承担责任一样。而现有法律认为无人驾驶汽车如同所有者的工具,所有者应对智能汽车非主观的以及不可预见的行为承担责任。[28]对智能汽车适用工具主义立法确实具有一定的合理性。但是狗等饲养动物并不具有人工智能的学习能力,因而其无法面对各种复杂情况。更为重要的是,狗等饲养动物致人损害的责任承担通常发生在管理者或所有者与受害人两个主体之间,而人工智能致人损害事件中还存在制造商与销售商两种主体。

  4.理性汽车标准理论。“理性汽车标准”(reasonable car standard)理论认为制造商应该对无人驾驶汽车的非理性行为承担责任。[29]“理性汽车标准”其实就是传统理性人标准在无人驾驶汽车侵权责任承担上的运用。作为一个理性汽车,其应该合理地预见相应的危险并采取相应的措施。“理性汽车标准”免除了对驾驶者疏忽的举证责任,认为证明责任的标准即为理性标准。理性人标准的根源在于危险预防理论,存在经济学基础与伦理基础,但汽车作为工具本身并不存在预防危险的经济学基础与伦理基础。此外,“理性汽车标准”是以将来的标准规范现存事物,缺乏标准的可预见性。[30]

  不难发现,类推理论下的责任体系框架仍然是建立在传统主体存在过错的基础之上,但对于具有行为自主性的智能驾驶系统而言,智能汽车侵权具有“生成性侵权”的特点,其打破了传统主体控制下的工具性框架,已然丧失适用传统责任体系的正当性。“机器人和人工智能算法建立在这些创新实践的基础之上。我们可以通过多重硬件、协议和软件理解它们,由此,也为多个参与者提供了创新和改造的多种机会。然而,创新和改造的机会越多,发现与确定危害另一个人行为的责任就越困难。”[31]就智能汽车的侵权责任问题而论,并不能类推适用我国现行法的相关规则。

  二、智能汽车侵权责任的承担基础与路径选择

  (一)智能汽车侵权责任对传统侵权法的挑战

  第一,过错归责原则难以适用。过错归责是传统民法上认定侵权责任的基本原则,过错要素也是交通事故中主体是否需要承担侵权责任的依据。但要认定智能汽车制造商与开发者的过错是很难的。智能汽车不是使用一系列预先编写的计算机规则对各项活动进行编程,而是依赖于“机器学习”这种技术将新数据与已有知识结构重组,不断改善自身性能,从而适应安全驾驶需求。[32]因此,有学者认为“机器学习”通过创建规则指导自身的行为,而非完全遵循由人类程序员预先编程的规则。[33]因为感知信息的复杂性与多元性,即使某个行人被传感器感知,也不能保证车辆的中央计算机能够优先考虑该特定信息并对其进行顺利操作。由此,自动驾驶模式中侵权责任的发生可能并不因为计算机软件的设计和系统本身存在问题。如果驾驶者使用自动驾驶技术本身并没有问题,但是智能汽车仍然发生了碰撞事故,不能认为驾驶者本身存在过错。[34]

  第二,合理预见规则存疑。合理预见是确立责任的基础,也是确定责任性质与责任内容的重要因素。如果驾驶者应当预见而没有预见,则具有过错,应对其行为承担责任。合理预见的前提是理性人标准,每个具有理性的主体能够对其行为或者受其支配的行为预见结果,违反此种预见义务应承担相应的责任。智能汽车的可预见性是通过算法实现的,但算法的运行过程具有不透明性。[35]

  第三,可归责性基础出现动摇。可归责性是现代侵权法过错责任原则与无过错责任原则确立的基础。而自动驾驶责任体系在一定程度上完全忽视了可归责性的内容。[36]无过错责任并非不考虑过错,而是因为基于特定政策考量,适用过错责任原则并不利于防范与控制风险,出于“有利于保护受害人,也有利于督促责任人采取措施预防损害”[37]的考虑,令特定主体在侵权发生时承担责任。因为人工智能在特殊情况下能自主作出反应,这就使得其行为具有不可预测性,而且第三人的行为将会影响人工智能运行从而出现不可预测的危险,由此导致可归责性成为责任承担需要解决的问题。

  第四,原因理论中断。在传统汽车致人损害的交通事故中,由驾驶者承担责任,但在智能汽车启动自动驾驶模式时,驾驶者对汽车的控制权大大降低,由此导致法律适用的困难。尽管对无人驾驶汽车可以适用产品缺陷责任,但必须证明该种缺陷是明确的。但正如传统汽车、飞机和轮船在运行之初所产生的各种缺陷一样,智能汽车的产品缺陷是正在路上的一个概念。[38]而且智能汽车致人损害有可能是多种因素所导致的结果,比如道路维护不够、天气条件不佳、其他驾驶者的不当操作、行人的过失行为等均有可能成为损害发生的原因。[39]

  第五,比较过失理论发生危险。在侵权责任中,考虑到受害人与加害人的过失,根据比较过失进行责任分担。这就要求被告证明受害人的损失是因为加害人的行为具有“介入原因”(intervening cause)或者存在“近因”(proximate cause)。[40]比较过失分配其实就是确定了双方的责任。[41]智能汽车侵权往往是由多种因素造成的,而如果适用比较过失分担责任势必导致汽车致人损害责任的边界模糊,很有可能导致无人承担责任。因此,对于无人驾驶汽车的侵权责任应限制适用比较过失理论。不过,在人工智能致人损害的案件中,如果根据比较过失,开发者只需证明受害人自身存在过错,并根据介入原因理论要求受害人自行承担该损害所导致的责任,则开发者无需承担相应的责任。但是若法官不考虑介入原因理论,则将令开发者承担几乎全部的责任。因此,有学者认为在人工智能致人损害的案件中,对“比较过错与日渐消失的介入原因理论而言并不是很好的消息”。[42]

  (二)智能汽车侵权的责任主体

  目前,关于智能汽车致人损害的责任问题,主要存在制造商责任与驾驶者责任两种观点。

  其一,“制造商责任说”。有学者提出应该制定“人工智能发展条例”(the Artificial Intelligence Development Act,简称AIDA),且应该根据该条例设置人工智能产品核准机构。对于经过核准的人工智能产品,制造商承担有限的侵权责任,而对于未经核准用于商业销售或者使用的人工智能产品,制造商应该承担严格的连带侵权责任。[43]也有学者认为,智能汽车的制造商在大多数情况下应对无人驾驶模式下所导致的损害承担责任,因为此时汽车是处于制造商的科技手段操纵之下,而不是由传统的驾驶者操纵。[44]尽管沃尔沃公司首席执行官Samuelsson在一份新闻稿中承诺当汽车处于自主运行模式时,公司将承担全部责任,[45]但并非所有汽车制造商都赞同Samuelsson的立场。

  其二,“驾驶者责任说”。该种观点认为,责任的产生在于驾驶者的操作错误,而非在于无人驾驶汽车的制造商。汽车所有人或者使用人应该承担责任,因为其过于相信或错误使用智能汽车的性能。[46]侵权法学者罗伯特·帕特森认为:“自动驾驶汽车如同所有者雇佣的司机……如果汽车违反了交通规则……所有者应该对此情形承担责任。”[47]该种观点认为,如果将车定义为一个叫“杰维斯”的人,或许更能够得到理解。[48]

  相较传统驾驶模式而言,智能汽车对法律关系带来的最大挑战是驾驶主体的转变。一方面,传统的人类驾驶者将由原来的驾驶者与责任承担者的角色转变为辅助驾驶角色,相应地,其承担责任的比例及情形将发生改变;另一方面,随着智能驾驶系统逐渐从人类驾驶者手中取得汽车控制权,该系统逐渐取代人类驾驶者的地位,这就要求前者比后者具有更高的驾驶能力。因此,汽车制造商的角色转变也对其在法律关系中的责任承担产生影响。与传统汽车的驾驶者、所有者和制造商相比,智能汽车致人损害导致的责任远比传统汽车更为复杂,需要进一步明确汽车制造商、驾驶者与开发者之间的权利与义务关系,从而确定责任。

  1.制造商的安全义务

  对于自动驾驶汽车的制造商而言,其除了提供合格的产品之外,还需要承担相应的安全保障与风险预防义务,具体如下。

  一是最低程度的安全保障义务。智能汽车的制造商要承担自动驾驶模式下的风险警示义务,具体包括以下两个方面。(1)复杂环境下的风险应对义务。即在复杂的外部环境下,如在恶劣天气、弯路、夜间等情形下,以最低程度的智能技术确保车辆的安全行驶。(2)人工介入的提醒义务。在复杂环境以及人工智能不能对周围复杂环境作出准确识别的情况下,智能汽车应该发出相应的警示,使得驾驶者明确地认识到周围环境的复杂性并对自动驾驶模式作出调整。

  二是风险预防义务。其具体包括三个方面的内容。(1)防范错误操作的风险。对于无人驾驶汽车,制造商有义务防止对产品的不正当使用而带来的不可预测的伤害。[49](2)简单且方便的介入措施。对于智能汽车而言,由于驾驶者并没有如同驾驶传统汽车一样的应有注意,因此智能汽车应为驾驶者提供简便的服务,便于驾驶者安全、迅速地夺回对智能汽车的控制权。这就要求智能汽车能够提供易懂的语言,同时应给予驾驶者必要的反应时间。(3)最低限度的风险预防措施。如果驾驶者不能及时地处理各种风险,智能汽车应能够及时地自动采取风险预防措施,避免损害的发生,比如发出安全警示、降低车速乃至完全停止行驶。

  2.开发者的合理研发义务

  智能汽车采用GPS、激光雷达、照相、超声波感应、移动互联网等技术手段,通过结合汽车对汽车(vehicle-to-vehicle)和汽车对基础设施(vehicle-to-infrastructure)的连接技术,在运行中获得实时路况、道路信息、行人信息等一系列交通信息,提高驾驶安全性,减少拥堵,提升交通通行效率。开发者的法定义务在于要在现有科技水平的基础上完成对上述技术的研发和整合,使智能汽车能够达到自主识别、自动驾驶、自我安全保护的行驶状态;同时,也应当对智能汽车存在的危险性进行明确提示。

  智能汽车所导致的问题可以进一步追及至开发者。人工智能是开发者创造出来的,致人损害应由开发者承担责任,从工具主义立场出发确有一定的道理。但人工智能在被设计或者被制造之后,能够自我学习和自我感知,并能够进行相应的独立判断,事实上已经脱离人的控制,因而在一定程度上导致了行为因果关系的中断。根据传统的替代原因理论(superseding cause doctrine),在驾驶者使用车辆过程中,开发者有可能失去对人工智能的控制,而根据近因(proximate cause)理论,开发者不需要再对人工智能的侵权行为承担责任。[50]主张开发者免除侵权责任并非意味着其不需要承担注意义务,而是在严格承担责任与促进科技创新方面进行博弈后的结果,在豁免其侵权责任的同时,寄予更高的道德与技术期望。主张其侵权责任豁免的根源在于试图不在法律层面阻碍智能汽车的技术进步,而是推动智能汽车产业的发展与商业化普及。

  3.驾驶者的谨慎义务

  与传统的人工驾驶模式相比,在智能驾驶环境下人类驾驶者脱离了对汽车的控制权,真正运行的是智能驾驶系统。因此,在该种情形下,要求人类驾驶者对自动驾驶汽车承担侵权责任可能导致不公平。相应地,无人驾驶模式下人类驾驶者所承担的安全义务更为复杂,包括如下内容。

  一是安全驾驶的注意义务。智能汽车的驾驶者应该对车辆的行驶过程保持足够的注意和警惕,但对其注意义务程度的要求远没有传统汽车驾驶者那么高,前者只要保持合理的谨慎即可。法律不能强制所有的制造商要求每个驾驶者像传统汽车驾驶者一样专注,否则无人驾驶汽车将毫无竞争力。

  事实上,德国的智能汽车立法已确认了智能汽车驾驶者与传统汽车驾驶者不同的注意义务。

  二是适时介入义务。智能汽车在避免人工错误所致风险的同时,却可能带来机器错误导致的比人工错误更为严重的危险,故借助人工干预克服智能机器所带来的危险是一种客观需要。当智能驾驶系统发出警告时,驾驶者应及时介入对智能汽车的管控,夺回对智能汽车的控制权。但由于要求人工介入依然存在困难,因此智能汽车需要具备可供人工夺回控制权的能力,这是智能汽车制造商所必须面对和解决的问题,也是立法需要认真面对的课题。

  三是风险预防义务。智能汽车的驾驶者是风险预防的主体,在车辆各种运行情况下,均要做好风险预防。首先,驾驶者应该及时更新软件,避免软件更新不及时所带来的安全隐患。其次,智能汽车的驾驶者除了需要在特定情形下保证车辆的安全运行,还需要对汽车自身的风险承担相应的预防义务,比如在复杂外部环境下不应启动自动驾驶模式等。

  (三)智能汽车侵权责任的承担基础

  关于自动驾驶模式下智能汽车侵权责任的承担基础,持产品责任论者赞成适用严格责任。的确,采用严格责任机制能够解决受害人的赔偿问题。但由此又产生一个问题,即应由何者承担严格责任,是驾驶者、制造商还是开发者?

  关于驾驶者的严格责任。由驾驶者对智能汽车的行为承担严格责任,原因在于智能汽车致人损害通常是由驾驶者的不当行为所引起,驾驶者能更好地控制风险的发生。“侵权法通常阻碍技术革新,鼓励不思进取的制造商。”[51]而且对驾驶者采用严格责任原则能减少制造商的责任承担,促进制造商的技术革新。美国也有学者认为,参照美国的计算机法,自动驾驶汽车作为所有人的交通工具,所有人理应对此承担责任。[52]

  关于制造商的严格责任。有学者认为提高智能汽车的侵权责任,有利于促进智能汽车制造商提供更加安全的产品。[53]但也有学者表示反对,认为“从长期来看,将系统生产者解释为自动汽车驾驶者的解释论构造会导致机动车责任转移给生产者,使生产者负担过重的责任。从技术进步的角度来看,这种责任的移转并不合理,需要通过立法予以纠正”。[54]

  笔者认为,在自动驾驶模式下,智能汽车的驾驶者、制造商和开发者都不应当承担严格责任。首先,对智能汽车适用严格责任有违其责任基础。严格责任的基础是危险责任,将人工智能本身视为高度危险物品有违人类开发人工智能是为了增加社会运行安全、促进社会高效运转的初衷,也不符合人工智能的现实发展状况。其次,对智能汽车适用严格责任有违其基本原理。美国法院最初采用严格的产品责任是因为其会促使制造商提供更安全的产品,制造商也更可能比消费者有能力避免损害发生。但对智能汽车适用严格责任并不能达到上述效果,对其适用严格责任并不合理。基于严格责任的基本原理,无论是由驾驶者、开发者抑或制造商承担严格责任,都对人工智能的进一步发展极为不利,严重影响人工智能的开发与利用。最后,适用严格责任会导致各主体间的责任分担面临困难。这可能涉及制造商与程序开发者、销售商及驾驶者之间的责任,而要求这些主体分担责任存在困难,并将导致各主体之间的相互推诿。责任边界的不清晰不仅会导致受害人难以获得有效救济,而且对于无人驾驶汽车的制造商、程序开发者与销售商而言,其将陷入漫长的诉讼中,从而也会加大其运行成本。“在智能机器人缺乏工具性人格的情况下,我们可能忽视智能机器人所存在的真正问题,并无法建立相应的责任承担与责任分配机制,可能会进一步扩大道德风险。”[55]综上,笔者认为,对智能汽车致人损害适用严格责任不具有客观基础。

  “虽然无论何时引入新技术,在未来某些时候发生某种损害的风险都是可预见的,但如果法律希望将责任分配给人类和公司,机器人和人工智能系统导致的损害可能会使传统的可预见性概念变得紧张。无过错责任是一种传统的解决方案,但它可能会扼杀发展中技术的创新。”[56]有学者认为,智能汽车承担侵权责任的基础在于疏忽。只有将疏忽责任作为智能汽车承担侵权责任的归责原则,才能推动自动化的快速改进,也才能减少事故。[57]笔者赞同该种观点。不过,这涉及智能机器人的主体性人格问题。智能汽车的侵权责任从严格责任转向疏忽责任,制造商将在证明智能汽车侵权方面比自然人具有更为安全的优势。同时需要建立智能汽车疏忽责任的判断标准,而疏忽责任的判断标准涉及智能汽车合理技术标准的建立,这一标准应随着智能汽车的发展而不断发展。

  不过,遗憾的是,法律对智能机器人地位的回应还处在工具主义的路径上。如何对机器人进行定位,关涉智能汽车的未来发展命运。“我们应该避免机器人谬论(Android Fallacy),机器人,哪怕是非常高级的机器人,仅仅是工具。它们不过是将来的工具,也应该根据此种定位进行相应立法。”[58]笔者认为,基于工具主义的法律规范将会掉入机器人具有人之特性的陷阱从而导致出现矛盾情形,智能汽车侵权责任立法需要解决工具主义视角下实现自动驾驶技术所导致的问题。

  三、智能汽车侵权责任承担的立法构建

  (一)确立智能汽车侵权责任承担的中心:工具性人格

  纵观民事主体发展的历史脉络可以发现,从“人可非人”到“非人可人”的历史演变阐释了民事主体只是满足社会需要的法律形式。从古罗马法到近代欧陆民法再到现代社会化民法,民事主体的范围在不断扩大。

  伦理性人格是近代民法发展的产物。自然人并非天生就具有民事主体资格,同时每个民事主体也并不都是平等的。在奴隶制时代,法律仅承认少数的“上等人”和“自由人”为民事主体。在中世纪,随着“天赋人权”思想的兴起,民事主体范围进一步扩大,但《法国民法典》在颁布初期仍然保留丈夫对妻子的权利,妻子在民法上还未享有完整的权利,这就是“人可非人”的体现。在16世纪启蒙运动兴起后,随着欧洲封建社会的解体和新社会力量的出现,“伦理性要素”与“法律人格”实质性地相结合,所有人都享有平等的法律人格。

  功利主义推动伦理性法律人格的转变。“非人可人”的功利主义推动经济性法律人格的出现,如公司、合伙企业等。传统的法律人格基于伦理性而存在,但随着团体组织在社会生活中扮演的角色越来越重要,法律必须对此作出反应,基于现实需求,团体需要人格化。尽管对民事主体资格的承认需要考虑伦理性,但随着社会的不断发展,伦理性因素不断被弱化,随之凸显的则是财产和责任基础的独立性及社会功能的重要性。民法上确认法人的民事主体人格,实质上是源自于功利主义的动因。民事主体的衡量标准在于法律接纳该类主体应满足社会效益最大化和当事人利益最大化的要求,或者至少不会对特定人群的利益产生不利影响,即法律对该类主体的承认不会产生“负外部性”[59],这便是判断主体适格性的“主体经济性标准”。可以说从伦理性人格向经济学人格的转变为智能汽车的主体论铺平了道路。

  人工智能技术的发展需要具体人格的登场,这进一步丰富了现代民法的主体制度内容。“赋予人工智能有限人格,其本质还是为人类生活服务的工具,这是人工智能发展的首要原则,也是建立人工智能监管整体框架的首要指导原则。”[60]事实上,对人工智能法律人格的确认并不会对人类社会的伦理性产生威胁,也不会损害以人为中心的法律主体制度。相反,这恰恰是以人类为中心建立起来的相应制度体系,有助于避免具体人格的缺失而导致规则的无所依存,进而促使人工智能更好地发展和服务于人类社会。[61]人工智能虽然具有法律人格,但归根到底依旧是由人类创造并服务于人类社会发展的智慧型工具,这从根本上决定了其发展必须遵循“以人为本”的原则。因此,人工智能的发展不可能凌驾于人类之上,法律必须在公民权利与新兴技术发展之间寻求平衡。[62]

  有学者认为,目前阶段的人工智能没有自主目的,不会反思也不会提出问题,无法进行因果性思考,没有自己的符号系统,显然不具备人类心灵的独特思维能力,而仅根据建立在“感知—思考—行动”基础上的人工智能所谓的“自主性”,不能合乎法理地得出应赋予自动驾驶汽车以法律人格的结论。人类社会之所以可以由法律进行调整并构建秩序,是由于人的理性决定了法律能够通过规范人们的行为调整社会关系,而智能机器是否能理解法律的行止要求?[63]笔者认为,自主性包括人工智能已具备的自我判断能力和决策能力,虽然目前人工智能还不存在自我意识,但“自我思考”也是人工智能技术的发展方向之一。法律应当具有前瞻性,虑及技术发展的方向和趋势,不应局限于当前的实然状态思考问题。关于人工智能缺乏理性的问题,笔者认为理性并不是工具性人格的本质属性,权利与义务才是其认定标准。对于自然人而言,不论是人格还是权利能力都并非通过法律技术手段所赋予,而是基于伦理性而存在,法律只是对其予以承认。在法人制度上,《德国民法典》在确立法人人格时创造了“权利能力”概念,其并不具备伦理学上的“人”的所有特性,而只有权利能力。[64]也就是说,民事主体其实就是具有法律权利并承担法律责任的主体。[65]作为人工智能产品代表的智能汽车,其与传统汽车最大的区别在于当面对道路环境的诸多复杂情形时,智能汽车能够自我学习从而完成各种复杂任务。[66]智能汽车的“理性”体现在对道路状况的判断选择和对特殊情况的紧急处理上,而法律对智能汽车的规范意义在于发生侵权行为时的责任归属,而不在于事前对其行为进行指引。在主体与客体二元标准下,确定智能汽车的工具性人格具有非常重要的作用。在自动驾驶模式下,由于智能汽车相对于传统汽车的异质性,即使其他责任主体履行了各自的义务,也有可能发生侵权行为。此时的责任主体应当为智能汽车,此为其工具性人格的体现。此种责任与安全的平衡才能更加推动智能汽车产业的发展,促进科技创新与市场化应用。

  (二)均衡智能汽车侵权责任承担的立法价值

  立法价值是法律所预设的功能实现,也是确定法律责任的前提问题。与传统汽车相比,智能汽车不仅能够为消费者带来更多的自由、安全与便利,且基于其采用锂电动力控制,更能节省资源和更加环保。基于自由、安全与效益原则,智能汽车应是汽车工业未来的发展方向。智能汽车自身的价值与智能汽车立法所需要实现的价值二者之间既有联系也有区分。科技的快速发展使得大部分消费者在短时间内很难对智能汽车具有足够的认知,导致智能汽车的上述优势无法切实得到实现。[67]而现实中关于智能汽车交通事故的新闻频频出现,更是加剧了这一紧张关系。安全是促进智能驾驶汽车进一步市场化的根本要素,对于消费者而言,智能汽车产品的安全性是其首要关注点,这也成为相关立法规制的首要目标。

  基于科技发展的局限性与阶段性,智能汽车并不能保证百分之百安全。智能汽车互联技术并没有达到应有水平,基础设施建设也尚未实现智能化改造。现有智能汽车大多停留在GPS、激光雷达、照相、超声波感应等技术层面上,主要限定在美国汽车工程师协会(SAE)定义的第三、第四层级,距离完全实现智能汽车的第五层级尚有很大的一段距离。调查显示,尽管尼桑智能汽车在2016年每行驶247英里便需要人工介入一次,这比2015年其每行驶15英里就需要人工介入一次有较大改进,但驾驶事故还是经常出现。[68]根据推测,智能汽车驾驶者有17秒的时间夺回对车辆的控制权,但如果没有成功夺回控制权,则车辆仍会继续之前的行为从而发生危险。尽管生产商格拉斯公司(Waymo)在2016年3月已经实现了1.4百万英里的智能汽车安全驾驶,但是兰德公司认为“无人驾驶汽车要证明其安全性,至少需要驾驶275百万英里没有事故才能证明是安全的”。[69]

  与安全相对应的是智能汽车侵权责任承担问题。智能驾驶系统的主动性同样为所有者责任与产品责任的法律适用带来挑战。但基于智能驾驶系统的强大社会效应,智能汽车侵权行为责任体系应当本着鼓励技术创新与应用的目标进行构建。因此,立法应及时回应无人驾驶汽车所产生的问题,以积极促进自动驾驶技术的提高。责任的不确定性使得智能汽车制造商对产品责任所导致的成本也难以预见和确定,进而导致系统的推迟使用。同样,保险公司会因此拒绝为软件开发提供保险服务,或者要求支付更高的保险费用。这将导致自动驾驶系统不能及时实现市场化利用,也将推高自动驾驶汽车的售价。安全与责任两者看似分离,实则紧密相连、相互影响。保障智能汽车的安全性有助于责任的明晰,同时责任的分配能够促进智能汽车制造商开发出更为安全的产品,基于责任的激励更能够实现自动驾驶汽车的运行安全。

  (三)规范智能汽车侵权责任承担的立法技术

  1.确立智能汽车的技术层级划分与立法统一处理基于自动驾驶软件开发与相应基础设施建设等各方面的因素,完全自动驾驶汽车完全实现商业化应用尚待一定时日。即使在美国,自动驾驶车辆也只能在特定环境下低速行驶。无论是高级驾驶辅助系统还是自动紧急介入系统,其实现人机交互在目前都非常困难,由人工驾驶过渡到完全自动驾驶也需要驾驶者有足够时间充分意识到改变驾驶环境的必要性。[70]基于此,有学者认为由于作为第五层级的完全自动驾驶汽车目前还未出现,故不需要制定相应法律对智能汽车进行规范。笔者对此不能苟同,理由主要体现在以下三个方面。

  第一,责任的确定应该为智能汽车的发展奠定基础。当下自动驾驶系统尚处于第三、第四层级上,第五层级即完全自动驾驶目标尚未实现。与第五层级完全自动驾驶技术不同的是,第三、第四层级还存在人工驾驶的因素,但这只是量的差异而不是质的区别。故立法应着眼于第五层级智能汽车的法律规范,而不应仅仅针对第三、第四层级的智能汽车。需强调的是这并非主张仅仅针对第五层级的完全自动驾驶汽车进行立法,否则又会导致第三、第四层级的智能汽车与第五层级的完全自动驾驶汽车在法律规范上出现割裂。

  第二,第五层级智能汽车也应配备人工驾驶装置。由于汽车不仅仅是交通工具,也是人类实现行为自由的一个工具。为了适应人们的自由选择需要,第五层级的智能汽车也应该配备人工驾驶装置。因为即使是完全自动驾驶的汽车,也有可能出现不能预见的危险情形,为了实现对汽车的控制权,需要配备人工操作装置。谷歌的无人驾驶汽车能够在人群密集、路况复杂以及恶劣天气的环境中保持良好运行,但当控制系统出现问题或者不能够自我决定时,语言指挥系统则要求驾驶者夺回对汽车的控制权。[71]2017年修订后的德国《道路交通法》便明确要求当汽车进入高度自动或完全自动驾驶模式时,驾驶者可把对方向盘与刹车的控制权交给汽车,但驾驶者必须坐在方向盘后以保证在自动驾驶系统出现问题时可及时地切换到人工驾驶模式。在此种情况下,智能汽车的第三、第四和第五层级只是自动驾驶技术发展的不同层级,就法律规范而言,规范的客体仍然具有相似性。

  第三,就现有规范智能汽车的立法而言,基本上是对第三、第四和第五层级的智能汽车进行统一规范。就对智能汽车最新进行立法的美国内华达州而言,其所规范的智能汽车包括第三、第四和第五层级的智能汽车。尽管德国《道路交通法》关于无人驾驶的法律规范主要是针对第三、第四层级的智能汽车,针对第五层级智能汽车的规范尚不确定,但是就现有立法而言,其中已经蕴含了对智能汽车的统一规范。

  2.妥当区分自动驾驶与人工驾驶

  智能汽车很可能并非都是完全自主驾驶的,加上存在人的因素,因此很难确定事故的真正原因。由于无人驾驶汽车拥有复杂敏感元件与多种软件控制系统,基于其所具有的机器人特征,自动驾驶汽车本身在复杂情形下能够发现问题与作出决定,而这些是开发者本身所不能预见的。[72]因此,立法上也不宜一概地要求智能汽车的驾驶者承担责任或者由制造商承担责任,更不能简单类推适用于传统汽车的交通事故责任规则令车主承担责任,而是应该根据智能汽车的类型确定不同的责任规则。

  一是人工驾驶情形下的责任规则。智能汽车不排除人工驾驶情形,而对智能汽车在人工驾驶情形下的立法规范与传统汽车并无任何差异。因此,在人工驾驶情形下,传统车辆侵权责任的相关规定当然适用于无人驾驶汽车。

  二是自动驾驶情形下的责任规则。对于自动驾驶汽车而言,车辆通过摄像机、雷达传感器和激光测距仪识别路上障碍物,并使用详细的地图进行导航。以谷歌无人驾驶汽车和百度无人驾驶汽车为典型,该种无人驾驶汽车真正实现了驾驶者与车辆的分离。[73]在此种情形下,应该适用自动驾驶汽车侵权责任承担规则。

  基于人工驾驶与自动驾驶情形下侵权责任的差异性,智能汽车有必要配备记载车辆运行状况的“黑匣子”,进而通过“黑匣子”确定事故发生时汽车是处于自动驾驶状态还是处于人工驾驶状态,并以此作为确立侵权责任的基础。美国内华达州、佛罗里达州与加利福利亚州的相关立法即要求智能汽车安装至少能够记录车辆碰撞之前30秒时汽车驾驶信息的“黑匣子”,并且要求至少将该记录保存3年。德国《道路交通法》也要求智能汽车须安装“黑匣子”,以记录系统运作不同阶段的具体信息,进而明确交通事故责任。此外,美国加利福利亚州还要求智能汽车配备能够干预驾驶者开启与关闭自动驾驶系统的可视设备。[74]

  (四)构建智能汽车侵权责任承担的立法框架

  一是智能汽车自动驾驶模式下侵权责任的认定。首先,应当明确责任主体。智能汽车在人工驾驶模式下的侵权主体,与传统汽车侵权无异,在此不作赘述。智能汽车在自动驾驶模式下的侵权主体包括制造商、开发者和驾驶者三类。如前所述,在自动驾驶模式下采用严格责任将导致众多问题,故其责任基础应当由严格责任转向疏忽责任。在制造商、开发者及驾驶者对自己的义务存在疏忽时,应当认定其承担责任。其次,应当明确各主体的义务。制造商应有最低程度的安全保障义务及风险预防义务,开发者应有合理研发及明确提示的义务,在出现问题和故障时,制造商及开发者还负有汽车运行系统保障和维护的义务。目前新能源汽车的维修(例如更换电池)费用甚至高于购买新车的费用,[75]在智能汽车的保障和维修中应当积极避免此类问题。驾驶者应负有较高的注意义务及适时介入义务。当然,在现实生活中常常存在汽车所有者与驾驶者不是同一人的情况,但这不妨碍对驾驶者的义务和责任进行分析。汽车所有者应当承担何种责任取决于所有者与驾驶者的关系及驾驶者资质等因素,例如雇佣、租赁、偷盗、酒驾、无证驾驶等,这些因素都会影响所有者是否承担相应责任及其责任份额,因而需具体问题具体分析,本文在此不作假设及论述。

  二是智能汽车自动驾驶模式下侵权责任的承担。对于发展趋势不可逆转的一项新生事物,在平衡其责任承担与鼓励创新发展的过程中,应当秉持鼓励创新的理念构建其责任承担规则。为此,笔者认为应当建立智能汽车保险与基金制度。保险是解决使用先进技术带来不可预料结果的必备工具,也是分担风险与责任的必备措施。2016年英国保险公司Adrian Flux率先推出针对自动驾驶汽车的保险政策;[76]2017年10月,英国提出《自动与电动汽车法案》(Automated and Electric Vehicles Bill,简称AEV法案),2018年7月19日,AEV法案获得御准(Royal Assent)正式成为法律。[77]对于智能汽车而言,保险是为其“保驾护航”的一项重要制度。随着自动驾驶技术层级的提高,人工驾驶的介入将会越来越少,此时驾驶者仍然需要购买特定的保险,该保险的标的是作为驾驶者在驾驶智能汽车过程中所应分担的损失。其保险赔付应当具备以下几个条件:一是智能汽车处于人工驾驶模式;二是在车辆发生事故时已投保;三是被保险人或其他人因事故而遭受损失;四是该损失是由驾驶者的疏忽而不是故意造成的。此外,制造商、开发者和驾驶者可以为智能汽车设置相应的风险基金,在承认智能汽车工具性人格的基础上,以该基金作为智能汽车的责任财产,用以解决自动驾驶时的损害赔偿责任承担问题。前文分析了智能汽车制造商、开发者及驾驶者各自的义务,在因疏忽未履行其义务的情况下,各主体均存在相应的责任。但由于对具体责任份额的认定存在极大的困难,会导致各主体之间相互推诿,诉讼成本较高,且若由各个主体自行承担责任也不利于人工智能技术的提高及智能汽车的市场普及。因此,在自动驾驶模式下,该责任应全部归由智能汽车承担,并由该风险基金赔付。

  四、结语

  “我们距离将机器人和AI代理人视为具有自我意识的享有权利或承担责任的实体还有很长的路要走。因此,法律的关键问题——至少在这个早期历史阶段——是当机器人和人工智能实体创造利益或造成损害时如何在人类中分配权利和义务。”[78]推进自动驾驶汽车产业发展的最终落脚点还是要加强对自动驾驶汽车的立法。事实上,德国《道路交通法》在其“技术创新前言”部分试图通过规范智能汽车驾驶者的权利与义务进而引导该领域发展,其不仅成为全欧洲第一部关于自动驾驶汽车的立法,更是一项针对传统汽车技术的革命。[79]面对与传统事物具有本质差异的新生事物,法律应该发挥应有的规范和引导功能。2017年7月8日,中国国务院提出了《新一代人工智能发展规划》,明确应大力发展智能运输工具,其为我国智能汽车立法提供了良好契机。2018年1月18日,人工智能标准化论坛在北京召开会议并发布了《人工智能标准化白皮书(2018版)》,进一步推动了我国人工智能技术的研究和发展。鉴于此,我国应该积极制定引导智能汽车行业发展的立法,确立智能汽车的工具性人格,妥善调整智能汽车制造商、开发者与驾驶者之间的法律关系,为智能汽车产业的发展提供法规范上的指引。

  (责任编辑:洪玉)


[1] [2] 下一页