高级检索

学术资源

行政法学

当前位置: 首页 -> 学术资源 -> 行政法学前沿 -> 行政法学 -> 正文

周书环:聊天机器人的法律人格争议与传播侵权责任研究:基于ChatGPT场景视角

信息来源:《南京社会科学2023年第6期 发布日期:2023-07-24

摘要:随着通用人工智能时代的到来,以聊天机器人ChatGPT为代表的生成式人工智能将广泛应用于各大领域,并可能引发大量的传播侵权问题。聊天机器人如何承担法律责任也成为社会讨论的焦点。讨论聊天机器人的法律责任必然无法回避其是否具备法律人格的争议,目前主要有否定说、限制说和肯定说三种思想流派争论。依据我国现行相关法律对传播侵权的规制路径,聊天机器人不具备法律主体资格,适用传统民事侵权责任。然而,具有自主学习和强大内容生成能力的大模型ChatGPT的出现,对这一传统规制路径提出了挑战。通过双轨制构建聊天机器人的法律责任主体资格,可以解决我国传统侵权责任的规制困境。针对弱人工智能的聊天机器人,依旧采用传统侵权责任的规制路径;而对于增强人工智能和自主人工智能这类不可预测性较强且具备一定自主决策能力的聊天机器人,应当赋予其法律人格地位,并建立财产保障、安全技术保障与市场保障机制,以应对传统侵权法律无法应对的挑战。

关键词:聊天机器人;法律人格;传播侵权;ChatGPT


202211月,美国人工智能公司OpenAI推出人工智能聊天机器人程序ChatGPT,仅仅两个多月,其月活用户就达到了1亿,成为有史以来用户增长速度最快的应用程序。同时这也被认为是目前出现的最新和最强大的人工智能。ChatGPT的算法模型涵盖3000亿字,其范围覆盖从个人数据、公共文件、新闻报道、文学文本到艺术等,并可能由于其广泛应用带来侵犯隐私、非法内容传播、深度伪造等大量传播侵权问题。具体而言,ChatGPT 可能带来著作权侵权风险。ChatGPT模型的形成和完善依赖大量的数据训练,而用于训练的数据往往包含书籍、论文、散文等受著作权法保护的内容。此外,ChatGPT将可能带来隐私侵权风险。2023320日,ChatGPT就遭遇了一次严重的隐私危机,很多ChatGPT用户表示他们在自己的对话中看到了其他人的对话记录,一些用户甚至在订阅页面看到了其他人的电子邮箱。与此同时,意大利、美国、加拿大等多国都意识到了ChatGPT引发的隐私泄露和数据安全问题,并着手对其进行调查。

由此可见,ChatGPT在信息传播过程中易对他人造成损害,既然有损害就要有救济,那么应当由谁来承担传播侵权损害的民事责任?是让ChatGPT自己承担责任?还是让其背后的设计者、开发者、平台、投资方或使用者等主体承担责任?亦或是若干主体之间共同承担责任?这些重要问题亟待解决。20235月,欧盟议会的市场委员会和公民自由委员会通过了《人工智能法》(The Artificial Intelligence Act)。这一法案涉及为ChatGPT等生成式人工智能设立版权规则,将于6月份提交欧洲议会全会表决,如若通过,意味着欧盟建成促进人工智能产业健康发展的约束力法案,并将成为世界范围内第一部综合性人工智能法案,这对全球人工智能安全可信发展具有里程碑意义。与此同时,我国一些大平台公司正在积极开发中文版的ChatGPTChatGPT也逐渐进入我国市场。2023411日,我国网信办也发布了《生成式人工智能服务管理办法(征求意见稿)》,但该意见稿主要从宏观层面讨论规制生成式人工智能可能产生的隐私与著作权等侵权问题,尚未有具体的规制路径。因此,从我国国情和法律出发,具体讨论生成式人工智能驱动下聊天机器人的传播侵权问题迫在眉睫,这对于建立中国方案的治理标准和确立引导人工智能规范的国际标准具有重要意义。

为此,本文拟从民事法律范围讨论这款聊天机器人在传播信息过程中的侵权问题。如果聊天机器人侵犯了公民的隐私、名誉、姓名等人格权利和知识产权民事权益,法律应当如何规制这些拥有聪明大脑的聊天机器人?在谈及法律责任之前,我们首先需要厘清一个最基本的问题:即在人工智能时代,聊天机器人是否拥有法律人格?只有解决了这个问题,才能确认聊天机器人的民法地位,进而讨论由聊天机器人引发的传播侵权责任问题。

关于是否赋予聊天机器人法律人格,目前国内外学者主要有三种思想流派争议。第一种是否定说,即人工智能系统不应当拥有权利,也不能被视为法人,而应当被视为法律的客体。依据这一观点,聊天机器人ChatGPT只能被视为财产和工具,不具有法律人格。在这一路径下,部分学者主张将智能机器人为代表的人工智能产品产生的侵权损害纳入产品责任制度范畴,由可能侵权的主体如生产者、销售者、研发者以及改造者等承担不真正连带责任。第二种是有限人格说,即为了更好地保护人类的权利和利益,应当赋予人工智能系统有限的法律人格。例如当ChatGPT传播虚假信息侵害公民财产权益时,ChatGPT可以对其造成的损害承担一定的财产责任。第三种是肯定说,这类观点主张人工智能系统应该有自己的法律人格,有自己的权利和法律地位。这意味着ChatGPT可以享有与自然人同等的权利,同时履行与自然人同等的义务。针对后两种主张,聊天机器人如何承担侵权责任尚不清晰。 尽管有学者主张赋予人工智能系统民事主体资格,但提出其需要满足法律规定的实质和程序要件,才能够承担民事侵权责任,否则,则只能依据产品责任替代责任机制,由相关主体承担责任。但对于什么是法律规定的实质与程序要件,相关研究并未予以阐明。也有研究者一方面主张将人工智能系统视为自然人、法人、非法人组织之外的新型民事主体,但另一方面却认为由于人工智能系统本身的特殊性,所有权人应当对该智能机器人的财产享有处分权以及对其产生的一些民事后果承担连带赔偿责任。但谁是所有权人,以及所有权人如何与具有独立法律人格的人工智能系统共同承担连带责任,目前研究也尚未有定论。

总之,上述三种思想流派围绕人工智能系统的法律人格及其责任承担的讨论存在着诸多争议。这些争议的出发点都绕不开一个最基本的问题:即一个真正的人工智能系统是否已经被创造出来?为此,本文以当前正在发展中的聊天机器人ChatGPT为切入点,讨论以下三个问题:其一,主体定性:当前聊天机器人的类型有哪些,是否应当赋予聊天机器人法律人格?其二,责任承担:依据我国现行法律,当聊天机器人在传播过程中产生侵权时,应当怎样承担侵权责任?其三,路径建构:将来法律应当如何建构聊天机器人的责任路径?


一、聊天机器人的类型及其法律人格讨论


(一)聊天机器人的发展与类型

随着人工智能技术的不断发展,聊天机器人主要经历了三个发展阶段:第一阶段是基于关键词匹配,其匹配规则相对粗糙,用户主要通过关键词获取信息,因而应用场景比较有限。这类聊天机器人最常见的应用场景是微信公众号平台,用户可以通过后台回复关键词获取文章或者网址链接等。第二阶段是引入自然语言处理技术,聊天机器人可以处理一些完整的句子,通过算法计算句子的关键词权重,匹配数据库,反馈匹配度最高的回答给用户。比较常见的应用场景是京东机器客服自动回答用户的简单提问。第三阶段是神经网络和深度学习的大模型时代,聊天机器人的回答不再局限于特定的知识库,而是可以依靠人类反馈的监督学习和强化学习微调,提高模型性能, 回答更复杂的问题。比如ChatGPT可以根据人类的提问不断学习和调试计算机程序、写诗、创作电视剧和歌词等。

基于以上三个发展阶段,本文将目前的聊天机器人归纳为两种类型,一种是弱人工智能的聊天机器人,其以已知路径为基础,取代已知和重复的人类活动,进行机械重复和简单回答。这种重复是单一的无意识重复,这种回答也是针对某类问题的机械重复回答,广度和深度都有所欠缺,其行为的可预测性较弱。上述聊天机器人发展的第一和第二阶段就属于这种类型。第二种是增强人工智能的聊天机器人,属于通用人工智能( Artificial General Intelligence,简称AGI),这类聊天机器人可以通过自主学习改进模型,记住与用户之前的对话内容和用户提示,高度模仿人类情感和回答模式,以获取新知识和新技能,并以不可预见的方式与所处环境互动,有一定的自主决策能力,不过仍然缺乏自主意识。目前ChatGPT就属于这一类型。随着ChatGPT不断应用发展,将来聊天机器人可能发展为第三种类型,即自主人工智能(Artificial Superintelligence,简称ASI),这类聊天机器人有自主意识,有较高的自主学习和自主决策能力,能够匹配并超越人类思维,甚至可以拥有与人类一样的情绪能力和情感心理需求。

(二)聊天机器人的法律人格要素与争论

法律人格也称为法律主体资格,是私法领域中一个最基本的问题。无论聊天机器人是弱人工智能还是增强人工智能,亦或是自主人工智能,如果成为法律主体,就意味着其已成为法律关系中的权利享有者、义务和责任的承担者。在聊天机器人的法律人格争论中,其是否具有自主意识与独立意志,是争论的关键要素。那么,考量聊天机器人的法律人格有哪些要素?如果人工智能享有法律人格则需具备两方面要素,一是能够独立地表达意思,二是能够自主地行使自己的权利和负担法律责任,比如具备能够承担责任的财产要素,具备履行法律义务的物质基础等。不少学者认为,聊天机器人既不是具有生命的自然人,亦非独立意志的法人,更没有独立承担责任的财产要素,不宜赋予其法律人格。尽管如此,也有不少研究者提出,自主意识与独立意志并不是聊天机器人成为法律主体的必备条件,法律主体的成立源自法律的赋予,是法律科学创造的法律结构和辅助概念。

结合聊天机器人的发展与分类来看,目前弱人工智能与增强人工智能类型都没有自主意识,如果自主意识与独立意志是聊天机器人具备法律主体资格的必要条件,那么,属于增强人工智能类型的ChatGPT并没有自主意识,显然无法拥有法律人格。而且,我国以及欧盟等其他国家现行的法律框架也并未将法律主体资格赋予任何聊天机器人类型。这就需要依照现有的法律框架来解决ChatGPT在传播过程中的侵权问题。在笔者看来,无论是否赋予聊天机器人法律主体资格,在聊天机器人传播侵权中,能够保障被侵权一方的合法权益并建立相对清晰的责任路径是根本。那么,当发生聊天机器人传播侵权时,依据我国现行法律应当如何规制?


二、我国法律中聊天机器人传播侵权的责任适用及其挑战


(一)现行法律中聊天机器人传播侵权的责任适用

我国现行法律体系并未将任何智能机器人作为法律主体,而是将其视为法律的客体。这意味着聊天机器人既没有民事权利能力,也无民事行为能力和责任能力,因而无法承担民事责任。 当聊天机器人在传播过程中产生侵权问题时,其规制具体可以从归责原则、责任承担主体和责任形态等方面展开。

其一,聊天机器人传播侵权的归责原则。20211月施行的《民法典》第七编侵权责任共有三个归责原则,包括无过错责任、过错责任和过错推定责任。 聊天机器人因为产品缺陷适用的是无过错责任,是其中最为严格的责任原则。 换而言之,不论聊天机器人的设计者、生产者和销售者等有无过错,只要因为聊天机器人自身缺陷造成了损害,就应当依据无过错原则,由聊天机器人相关责任主体赔偿损害。但是,如果聊天机器人没有缺陷,而是由于聊天机器人的使用者操作错误或者黑客入侵导致侵权,应该适用何种归责原则?在这种情况下,应当按照《民法典》第1165条第1款规定适用过错责任,由侵权行为人承担侵权责任。具体到不同类型的传播侵权责任,若ChatGPT侵犯权利人的著作权,则适用上述规定的过错责任;若ChatGPT侵害个人信息,个人信息处理者的侵权责任适用《个人信息保护法》第69条第1款规定的过错推定原则,而非个人信息处理者则适用《民法典》上述规定的过错责任。那么,当聊天机器人适用不同的侵权原则时,具体应该由谁来承担侵权责任?

其二,聊天机器人传播侵权责任承担主体。《民法典》第七编提到了侵权责任的三个主体:生产者、销售者和第三人。对应到聊天机器人中,责任承担主体可以分为开发者或设计者、运营系统的公司(平台)、聊天机器人使用者或其他第三方等。例如聊天机器人在聊天中因为设计环节失误,造成著作权侵权,依据过错责任原则,那么设计者就是责任人。如果出现第三方导致的侵权责任,比如聊天机器人遭遇到了黑客入侵,使得系统无法按照正常程序设计进行,导致聊天中出现了暴力攻击性言论,由此给他人造成了损害。依据《民法典》第1175条规定,损害是因第三人造成的,第三人应当承担侵权责任。在这种情况下,黑客是造成损害的第三人,按照这一规定应当承担侵权责任。

其三,聊天机器人相关主体承担侵权的责任形态。当出现几个不同主体在传播过程中共同造成了侵权损害,应当如何承担责任?《民法典》第1168条规定,二人以上共同实施侵权行为,造成他人损害的,应当承担连带责任。在聊天机器人造成传播侵权损害的产品责任中,其主要的责任形态是不真正连带责任。《民法典》第1203条具体规定了被侵权人请求赔偿的途径和现行赔偿人的追偿权;第1204条则规定了生产者和销售者对有过错第三人的追偿权。具体如下:因产品存在缺陷造成他人损害的,被侵权人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。产品缺陷由生产者造成的,销售者赔偿后,有权向生产者追偿。因销售者的过错使产品存在缺陷的,生产者赔偿后,有权向销售者追偿。因运输者、仓储者等第三人的过错使产品存在缺陷,造成他人损害的,产品的生产者、销售者赔偿后,有权向第三人追偿。应用到聊天机器人传播侵权场景中,当聊天机器人造成他人损害时,开发者、后台运营系统的公司或承租人等可以先承担责任,在赔偿后再向过错方进行追偿。比如上述因为第三方黑客侵权造成他人的损害,开发者、运营公司和承租人等在承担了赔偿责任后,有权向黑客或者其他第三方追偿,将最终责任归咎于黑客或其他第三人。在具体侵权场景中,可依据具体法律。如果聊天机器人造成著作权侵权,提供聊天的平台直接参与了侵权,产生了《著作权法》第52 条规定的相关侵权行为,则平台应当承担直接侵权责任;若是用户直接侵权,提供聊天的平台如果违反了《信息网络传播权保护条例》第22条的规定,则平台不受到避风港规则的保护,应当承担间接侵权责任。

总之,当聊天机器人的传播侵权场景、侵权主体和侵权归因相对明晰时,依据相关法律规定,产品缺陷情况适用严格的产品责任,而非产品缺陷产生的传播侵权则由相关责任主体根据各自过错承担责任,具体场景和侵权损害赔偿细节可以根据上述归责原则、侵权主体和责任形态进行适当调整。但是如果聊天机器人传播中出现侵权主体不明和过错难以界定的情形时,是否会给现行法律带来一些挑战?

(二)现行法律规制聊天机器人传播侵权的挑战

随着生成式人工智能技术的发展,在聊天机器人开发者、运行平台等主体都没有过失,而是因聊天机器人自主决策行为产生了传播侵权损害的情形下,如果适用传统民事责任制度,则将遇到一些挑战。

首先,要面对聊天机器人传播侵权承担责任主体不明的挑战。假设发生了这样的场景:用户使用ChatGPT搜索,提出了主题和问题,ChatGPT结合数据库已有的数据内容进行回答,如果后续用户在网络上传播该内容,导致虚假信息传播,造成他人名誉损害,是否可以要求用户承担侵权责任?OpenAI公司《使用条款》第3条第1款规定了ChatGPT用户使用协议,即,将输出的所有权利、所有权和利益转让给用户,并要求用户对内容负责,确保其不违反任何法律。此外,ChatGPT对这类问题的回答亦是由用户承担全部法律责任,如其所言:在传播过程中,请务必尊重他人的合法权益,避免侵犯他人的权益,以免承担法律责任。如果您不确定某些行为是否合法,请咨询专业律师或相关机构的意见。如果在传播过程中侵犯了他人的合法权益,例如侵犯了他人的名誉权、隐私权、知识产权等,您可能会承担法律责任。但是,要求用户对此承担全部的侵权责任并不合理。对于用户而言,他们无从知晓ChatGPT回答内容的具体出处,更无法判断其内容是否为虚假信息,不存在主观过错,不能根据过错责任要求其承担名誉权侵权责任。

那么,是否可以要求开发者、运行平台等主体承担侵权责任?上述场景中如果生成的虚假信息由原始数据错误导致,并非开发者的程序问题或者平台问题,而且开发者或平台也无法预见用户侵犯他人名誉权的行为,由他们承担侵权责任也有待商榷。20232月,全球视觉内容创建者和领先的视觉内容来源公司Getty Images对生成式人工智能公司Stability AI提起诉讼,指控其未经许可无偿使用其网站上超过1200万张受著作权保护的照片,构成著作权侵权。然而,Stability AI公司声称,通过数百万张照片生成一个新的图片,不构成著作权侵权。而且他们只是利用这些图片训练人工智能,在美国著作权法框架下构成合理使用。同样,对于ChatGPT而言,ChatGPT自身有深度学习能力,可以从网络海量数据出现的内容中,最后智能生成新内容,这可能会涉嫌侵犯不同原作者的著作权。且不论司法实践如何判断一段新内容对成百上千的原作者是否构成侵权,对于设计者和开发者等主体而言,他们也可以声称并证明自己已经预见了聊天机器人的洗稿行为,并尽可能通过降低重复标准防止著作权侵权。 但是他们仍然无法预见ChatGPT自主学习且智能生成的内容以及用户的侵权行为,如果要求其对于ChatGPT智能生成内容独立承担侵权责任,或者与用户承担共同侵权责任,则有加重设计者和开发者等责任之嫌,甚至有可能阻碍聊天机器人技术的创新发展。

其次,如何证明聊天机器人传播侵权致人损害的因果关系?传统民事责任制度一般通过因果关系确定损害行为与结果之间的关系。因果关系的核心是一个理性的人能否预见自身行为的结果,并在其行为没有造成后果之前采取一些措施限制风险。所以法律通过因果关系试图阻止侵权主体对他人或社会伤害的行为,让他们为本应预见的后果负责,并鼓励其采取预防可能造成伤害的行为。除了故障问题很明确的情况(例如,很容易确定ChatGPT设计者的错误),现实的侵权原因比较复杂。在许多情况下,不同主体共谋使过错认定问题复杂化,但并未将其置于传统损害赔偿责任的框架之外。例如,如果设计者在开发ChatGPT时出现错误,而平台在操作ChatGPT时出现错误,则责任仍由自然人或法人承担,《民法典》通过追溯责任的方式解决这个问题。 但在生成式人工智能动态发展和能够自主学习的背景下,适用传统民事法律证明因果关系的难度较大。

一方面,聊天机器人传播侵权导致损害的因果关系极为复杂,数据缺陷、设计问题、使用错误、第三方侵权等均能单独或共同导致损害后果,而且不同因素的影响程度也会存在差异,这种一果多因或者多因多果的过程导致因果关系更加复杂,提高了损害因果关系的认定难度。例如在Getty Images Stability AI案中,原告如何证明这些图片被侵权使用,以及使用的具体情况如何?此外,在传统责任框架下,如何证明这一侵权行为是由设计缺陷造成的?是传播平台的过失造成的?还是人工智能系统损坏造成的?抑或是聊天机器人自主决策造成的?原告和法院想要证明这些因果关系,是一件耗时且技术难度高的事情。另一方面,当聊天机器人的算法运行过程相对简单时,验证这个运行过程并找到特定时间点存在的问题,可能可以找到满足所需的证据,进而确定因果关系和责任范围。但如果是非常复杂的算法,比如GPT模型通过神经网络学习训练内容,算法自身在不断地学习基于各种高维变量之间的关系做出了决定,如果对这一特定类型的数据结果进行调查取证,则可能任何一个理性的人都无法预见算法做出决定的依据,甚至连设计者自身也很难模拟当时的发生情境。由此导致司法实践可能也较难评估其中的因果关系。

再次,聊天机器人传播侵权导致责任承担的方式受到挑战。《民法典》《个人信息保护法》《著作权法》等规定了预防性和补偿性两种责任方式。前者预防性方式有停止侵害、排除妨碍、消除危险等;后者补偿性责任方式包括恢复原状、赔偿损失、赔礼道歉等。然而,由生成式人工智能驱动的聊天机器人的一些传播侵权行为导致的损害后果具有不可逆性。例如ChatGPT收集信息导致用户隐私泄露公开等。由于ChatGPT收集信息的范围更广,影响范围甚至是全球性的,这使得个人信息泄露带来的损害后果也更加严重,虽然可以停止侵害,但却难以消除个人信息泄露带来的其他负面影响。如果通过排除妨碍和消除危险等预防性责任措施,相关主体较难承担侵权责任。如果通过补偿性责任,也无法通过恢复原状对受害人进行救济,至于赔偿损失和赔礼道歉,如何赔偿以及由谁来赔偿和赔礼道歉,如前所述,在责任主体上可能也会遇到一些挑战。


三、聊天机器人传播侵权责任承担的路径建构


(一)聊天机器人双轨制法律人格建构

当前由于人工智能技术的差异,各大商业平台系统的技术水平参差不齐,因此他们开发的机器人技术还处在不同的发展阶段。前述将目前的聊天机器人分为三种不同类型:弱人工智能、增强人工智能和自主人工智能。不同类型的聊天机器人由于其自主意识和决策能力的差异,导致控制和使用聊天机器人的相关主体的参与程度也存在差别。弱人工智能的聊天机器人只能根据一些关键词和重复的指令进行简单的回应,无法进行自主学习,因此当产生传播侵权时,意味着在传播过程中相关主体如开发者、平台公司或第三人的参与程度较高。在这种场景中,可以将聊天机器人视作人类操纵的技术工具,因此针对属于弱人工智能类型的聊天机器人,应当将其作为法律客体,适用传统民事责任建构侵权责任,由相关主体承担责任。

然而,随着通用人工智能技术的发展,人机互动状态越来越普遍,机器人的性能变得更强,将拥有更高的自主决策能力和自我意识。对于增强人工智能和自主人工智能的聊天机器人而言,其已经有了一定的自主学习与决策能力,可以对复杂的模型进行自主训练和记忆,在不需要人类干预的情况下进行推理、计划、沟通和感知等,独立升级其知识和技能。甚至未来随着技术的发展可以独立做出决策和采取行动(无需人为干预)。如果再依据传统民事责任要求开发者、平台公司或第三人等为聊天机器人因自主决策产生的侵权后果承担责任,则可能会导致责任不明和司法不公,甚至阻碍技术的创新。为此,针对这两种类型的聊天机器人,可以通过法律赋予其法律人格和法律主体地位。

那么,如何赋予增强人工智能和自主人工智能聊天机器人的法律主体地位?在目前的法律框架和机器人发展阶段中,可以通过法律拟制,类似将公司实体拟制为法人,可以将聊天机器人拟制为虚拟数字人,赋予其法律主体地位。2017年欧洲议会通过的《机器人民事法律规则的决议》就提出赋予最复杂和自主能力最高的智能机器人以“电子人格的法律地位。在这份决议中,欧洲议会呼吁考虑为机器人建立规制:长远而言,为机器人创造特定的法律地位,以至少确保最复杂的自主机器人被赋予电子人的身份,负责赔偿可能造成的任何损害,并可能将电子人格应用于机器人做出自主决定或独立与第三方交互的情况。

通过法律赋予聊天机器人法律人格后,聊天机器人是否享有完全独立的民事主体地位?本文认为,对于有一定自主决策能力的人工智能主体而言,其法律主体地位应该受到一定的限制。如果聊天机器人具备与人类相当甚至超越人类的认知理性和行为理性,其应当享有完全独立的民事主体地位,并且具有民事责任能力。但是在目前阶段,聊天机器人仍然需要通过人类来设置他们运行的参数并随后继续监视其行为。而且,人类创建和发展人工智能系统的主要目的是为了帮助人类,更好地为人类服务。所以聊天机器人与自然人的关系并不平等,无法享有与人类同等的权利,包括生命权、人格权、婚姻权、生育权、休息权甚至思想和言论自由表达权利。基于此,聊天机器人只享有限制性民事主体地位。法律可以通过具体规定,赋予聊天机器人相关民事权利和责任能力。当因为不可归责于他人的传播行为造成损害时,聊天机器人需要承担相应的民事责任。如果有第三方行为介入作为共同影响因素,则应当与聊天机器人共同承担责任。那么,聊天机器人如何承担民事责任,法律可以从哪些维度落实聊天机器人的责任机制?

(二)聊天机器人法律责任承担机制建构

与自然人有羞耻心和隐私保护等心理需求不同,聊天机器人没有情感和心理需求,较难共情并安抚被侵权人,因而如果通过传统的责任承担方式如“赔礼道歉建构其法律责任很难达到震慑效果。人工智能作为财产性法律主体,财产应当是聊天机器人能够承担法律责任的基础。而且在传播民事侵权领域,无论是著作权还是个人信息保护抑或是其他民事权益保护,损害赔偿额度相对较低。如果通过财产机制提高聊天机器人的赔偿额度,可以为其承担民事侵权责任提供重要支撑。此外,还可以为其建立安全保障机制和市场奖惩机制。具体而言,有以下三个方面。

第一,由所有权人、销售商、运行平台等以某种形式支付资金,共同出资建立资金保障制度,向被侵权人提供经济补偿。一方面建立强制保险制度,和汽车一样,每一个聊天机器人系统都可以购买专门的保险,搭建潜在的资金池,以便侵权时支付赔偿金。另一方面设计储备基金系统。建立人工智能付费制度或者税收制度,由相关主体如使用者对ChatGPT支付报酬,以及由获利的开发者缴纳税金,并为这些资金设立专门的ChatGPT报酬和税收资金池。当发生聊天机器人传播侵权行为时,与传统的赔偿诉讼证明难度相比,被侵权人的证明责任有所减轻,其只需要证明实际受到的伤害或者遭受的损失,以及有合理证据证明这些损害是由聊天机器人导致的,法院可以直接通过资金保障制度要求聊天机器人承担赔偿责任,无需再证明具体是聊天机器人的哪一环节出现问题才导致的侵权后果。这样被侵权人可以更快获得赔偿,聊天机器人的相关主体如运行平台也能够为潜在的损失建立预案。

第二,设计风险防范的专业认证机构,让人工智能系统通过这个认证机构注册认证,由专业认证机构提供安全保障和技术防范,通过技术治理的方式应对技术发展带来的法律因果关系和过错认定困境。该机构可以由具有公信力的技术组织或者政府部门成立,对各类聊天机器人进行统一管理,通过安全证书发放、排名认可、安全标准制定、声誉评价机制、技术保障措施、用户体验评价等措施,提高其安全性能。例如ChatGPT通过专业机构认证和安全测试后,获得进入市场的许可,并受到该机构的技术保障与监督约束,如果在聊天中仍然出现传播侵权后果,可以由该认证机构统一进行赔偿,之后再进行追偿。

第三,建立聊天机器人法律规制与市场奖惩一体化机制。像公司一样,将聊天机器人想象成由单个或多个投资者共同拥有的利润最大化的经营实体。效率更高、更安全的机器人将产生更高的利润,并吸引更多资本进入市场,从而促进将更安全的聊天机器人投放市场,而效率更低、安全性较低的机器人将会被赶出市场。这种市场自然选择模式将模仿公司优胜劣汰的发展趋势,将开发和投资最佳安全的机器人的决策风险分散给聊天机器人的投资者。与此同时,一部分聊天机器人的运营收入可以自动转移到其资产账户上,提高其偿付能力。当聊天机器人发生传播侵权时,如果难以证明是开发者和运行平台的责任,可以考虑由聊天机器人承担经济赔偿。这一机制将不再惩罚没有主观过错的相关主体,而是奖励有远见的投资者,通过市场自然选择使高安全性能的聊天机器人的投资者占据市场优势,并可能促进更高水平的创新研究。


四、结语


随着聊天机器人自主化程度越来越高,由生成式人工智能驱动的通用人工智能时代已经来临。第四版GPT已经可以处理多模态内容,包括文本、图片等。可以预见在未来,下一个版本的GPT可能会处理视频内容,甚至多维内容,将会被广泛应用到各类平台,如陪伴型聊天机器人,与人类养老产业结合,可以满足人类心理和情绪等多方面的精神需求,更好地为人类服务。随着ChatGPT的发展和应用,如何解决聊天机器人在传播过程中的侵权责任是保障人工智能安全可信发展的重中之重。

当下,解决聊天机器人的传播侵权责任问题也是世界各国正在面临的共同难题,欧盟和美国 等依据传统思路主要将机器人引发的侵权归类为故障问题,采取产品责任制度,将机器人视为法律客体。然而,大量研究者和相关从业人员表示传统的产品责任制度存在诸多问题,已然无法应对当前技术发展带来的挑战。为了解决人工智能带来的问题,欧盟《人工智能法》 可能将于2023年通过,其从风险高低的角度对人工智能系统进 行了分类,作为增强人工智能(通用人工智能)的ChatGPT,被视为“高风险人工智能系统使用,这也意味着法律会进一步约束这类人工智能主体。2023322号,为了保障更准确、安全、可解释、透明的人工智能系统,马斯克与千名科技人士发布《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室暂停训练比第四代GPT更强大的人工智能系统至少6个月。当前,世界多国出于隐私担忧,拟加强对ChatGPT的监管。同时生成式人工智能带来的著作权侵权也备受关注,ChatGPT训练受著作权保护的内容,是构成著作权侵权,还是符合合理使用,直接影响到后续传播行为的法律定性。 虽然我国《生成式人工智能服务管理办法(征求意见稿)》明确提出生成式人工智能训练数据不得含有侵犯知识产权的内容,但对于如何界定侵犯知识产权与合理使用,尚待进一步研究。

ChatGPT为代表的通用人工智能发展已然势不可挡,然而其发展带来的问题远远超过了治理的速度。除了技术层面的治理应对,法律体系也应当着手思考如何应对 ChatGPT 在传播中产生的各类侵权问题。《人工智能法》和其他国家尚未提出具体的解决方案。 正如各国对胎儿、植物人民事主体地位的广泛争论到逐渐被社会接纳,实际上,只有首先承认人工智能系统如聊天机器人ChatGPT的法律人格,才能进一步解决一系列传播侵权问题,包括认定ChatGPT创作内容的著作权侵权、隐私侵权责任及其他传播损害责任等。

本文基于我国现有法律基础,结合不同类型的聊天机器人提出了一种具体的解决路径。即从目前聊天机器人发展趋势来看,对于弱人工智能类型的智能系统,可以仍然适用传统民事侵权责任,即产品缺陷引发的传播侵权适用产品责任以及非产品缺陷适用一般侵权责任,而对于增强人工智能和自主人工智能聊天机器人,其行为的自主性和不可预测性较强,应当赋予这类聊天机器人法律主体地位,设置一系列的责任承担方式,包括建立强制保险和储备基金系统的资金保障制度、设计防范风险的专业认证机构、搭建法律规制与市场奖惩一体化机制等。总之,本文以期从我国国情建构符合聊天机器人发展趋势的规制路径,解决ChatGPT发展过程中的传播侵权问题,促进建立我国ChatGPT背景下驱动的通用人工智能产业安全可信的治理规则,打造具备示范效应的中国方案,发展负责任的人工智能,提升我国在全球人工智能治理中的国际话语权。