摘要: 以人工智能和大数据的结合为特征的新科技时代,不仅给法律领域带来技术问题和法教义层面的问题,也对法理学知识体系,尤其是法学基本范畴形成挑战。对于这种挑战,大体有三种回应方式:部分基本范畴的独立范畴地位将被完全放弃(如“法律关系客体”“法律部门”),部分基本范畴的既有理解将得到彻底或部分重构(如“法律行为”“法律权利”),但也有部分基本范畴在新条件下应该得到坚定辩护乃至更好捍卫(如“法律责任”“法律主体”)。至于“法律”这一根本范畴是否需要重构,则仍无定论,有待未来通过充分的价值论辩来形成重叠共识。新科技时代并没有“肇生”全新的法理学问题,只是提供了“激扰”法理学知识体系、促使对既有理解进行反思的新语境。唯有对上述挑战作出及时有效的法理学回应,才能抓住中国法学自主性发展的新机遇。
关键词: 新科技时代;人工智能;大数据;法学基本范畴;法理学回应
一、背景与主旨
(一)新科技时代及其特征
与过往历经的以机械化、电气化和信息化为特征的传统科技时代不同,当下以智能化为标志的新科技时代对于人类具有截然不同的意义。如果说传统科技属于“辅助性”力量,它使得人类更快、更高、更强,那么新科技就属于“替代性”和“超能型”力量,某种意义上预示着“人”的逻辑让位于“机器”逻辑的“算法社会”的到来。它不仅意味着以数据和算法为表征的技术力量的宰制,而且意味着对人类社会活动之规范性意义的重新理解和价值实践的挑战。法律正是这样一种社会活动和价值实践。
迄今为止,人工智能研究及其应用可分为三个阶段:第一个阶段的标志是专家系统在法律领域的应用。第二个阶段是机器自主学习(神经网络与深度学习)阶段。它将专家系统与系统控制的学习联系起来,模仿人类大脑的结构进行信息的获取、存储、连接和复制。第三个阶段从人工智能固有的和独立生成的预定参数出发来替换系统的功能/技术问题解决方案,即创造出不再类似于人脑的独立、自我流动、无实体、抽象的决策路径。这三个阶段大体对应于弱人工智能、强人工智能和超人工智能。超人工智能带来的是终极性挑战,其一旦出现,问题也许就不在于人类如何为人工智能立法,而在于人工智能如何为人类“立法”了。所以,在超人工智能的语境中谈论人类的法律及相关概念已经没有任何意义。相反,有意义的是弱人工智能与强人工智能。必须承认,目前所谓的“强人工智能”也只是在满足封闭性条件的应用场景中能够战胜人类的专门人工智能(如阿尔法狗),还远远没有达到通用人工智能的地步,所以谈论人工智能与人类的全面比肩乃至对后者的超越为时尚早。但是,科学家主要关注当前的现实问题,哲学家则需要更多地思考未来。哲学,包括法理学的研究,需要具备一定的前瞻性。本文所谓的“新科技时代”,指的是从弱人工智能迈向强人工智能的时代。这一时代的主要特征是算法与大数据相结合基础上的“合成智能”,即通常所说的机器学习、神经网络、大数据、认知系统、演进算法等要素的综合应用。
(二)新科技时代的法理学问题
新科技时代给法律领域同时带来了技术问题和理论问题。技术问题是指大数据与人工智能在法律领域的具体应用问题,如法律与案例的信息检索、涉法涉讼大数据建模、网络空间代码框架设计等。处理这些问题的学科是“法律信息学”。显然,法律信息学只是新科技在法律实践领域的运用,解决技术问题的专家仍然是自然科学家和知识工程师。与之不同,法学家主要关注的是大数据与人工智能带来的法律理论问题。法律理论问题可以进一步区分为法教义学与法理学两个层面。法教义学研究涉及现行具体法律制度如何调整和应对新科技带来的问题,例如个人信息和隐私的法律保护、人工智能作品的产权归属、工业机器人的侵权责任、无人驾驶汽车的法律责任等;法理学研究则涉及如何从法哲学和法理论的视角来应对新科技对法律的基本概念、方法和价值的挑战。如果说法教义学层面的挑战多为如何在既有法律范围内找到解决办法的工具性挑战,那么法理学层面的挑战就是根本性挑战。
目前学界关于人工智能与大数据的法理学讨论大体聚焦于法学方法论与价值论两个方面。前者主要关注新科技对于司法裁判思维和法律推理模式的挑战及其回应;后者则着力探讨新科技对于基本法律理念(如自由、平等、安全)可能带来的威胁及其价值捍卫。相较而言,对于概念论即法学基本范畴的讨论比较少。新科技对于法学基本范畴的挑战看上去不如对方法论和价值论的挑战那么直观和明显,但这种挑战的意义或许更为重大。因为如果这种挑战最终成功,就会涉及整个法学底层逻辑的彻底变革。如果不成功,则反过来会(在新语境中)使得这种底层逻辑更加稳固。
法学基本范畴涉及对法理学中基本概念的含义、结构及其一般基础的研究。本文并非着眼于单个基本范畴,探讨其因应新科技条件的发展变革。本文意图是较为宏观却又有限的:通过择取一些代表性范畴,来例证法学基本范畴在新科技时代可能受到的冲击及其不同的回应方式,从而刻画出新科技时代法学基本范畴之处境的“大致图景”,为后续研究提供起点或指南。大体上,可以将法学基本范畴在新科技时代受到的挑战及其回应方式分为三类,以下分述之。
二、挑战与回应之一:独立范畴地位的放弃
随着新科技汹涌而来,部分法学基本范畴继续存在的理论必要性和实践“有用性”面临根本质疑。当然,对这些范畴的质疑和反思其实在法理学中一直或明或暗地存在,只是新科技时代的到来使其进一步放大,从而加速了这些范畴被抛弃的命运。其中,比较有代表性的范畴是“法律关系客体”和“法律部门”。
(一)“法律关系客体”的消亡
法律关系客体是法律关系主体之间的权利义务指向的对象。法律关系总是承载着一定的得到法律认可和保护的利益(法益),客体就是这种法益的外化与载体。从20世纪90年代至今,法理学界的主流见解形成了关于客体的四分法,即物、人身、精神产品和行为(或行为结果)。
人工智能的基础性要素是数据和算法。数据是人工智能的“石油”和“养料”,它的内容就是信息。数据与信息具有高度的共生性和共通性,但因当事人利益的侧重点、具体诉求的性质和救济的可能方式不同,二者也有在法律上区分的意义。从法律属性看,数据仅有财产属性而无人格属性;个人信息主要应被归类为法律上的人格利益,但同时包含一定的财产属性,因而具有人格与财产双重价值。新科技时代带来的问题是,个人信息法律关系或数据法律关系的客体是什么?相对清晰的是对数据的客体归类。既然数据被认为是一种财产,即便是一种新型财产,那么它就基本等同于虚拟世界中的物,也就可以成为数据法律关系的客体。这种理解虽然就其本身而言没有问题,但一旦考虑到数据与信息的关联性就会产生问题。因为数据毕竟是信息的载体,数据的定性会限制信息的性质。在民事领域中主张个人数据的私人财产属性,必然会带来强调信息权利人对其个人信息享有独占性支配权的结论。但这种思路与新科技时代个人信息的公共性并不相容。
相比而言,信息更难进行客体上的归类。基于信息与数据的不同,既有的思路可分为两种:一种思路是将信息视为个人人格利益的载体。例如,纪海龙认为,所谓个人信息权,其客体指向的并不是个人信息本身,而是与个人信息相关的人格利益。我国《民法典》将个人信息保护置于“人格权编”之下,似乎也应和了这种观点。“人格”(personality)是人之为人的基本属性,是作为法律关系主体的人(person)不可或缺的要素。虽然我们可以在语言上谈论“人格利益”,但人格或人格利益不能被客体化。人格与人身并不相同:人身是由各个生理器官组成的生理整体(有机体),属于法律关系客体的一类。人身在物理形态上也是物,但由于它是人(拥有人格者)的物质载体,因此作为法律关系的客体相比于一般的物要受到更严格的法律限制,以实现对人格和人的尊严的保护。可见,如果将信息界定为“人格利益”或人格的组成部分,就相当于在某种程度上否认了信息的客体属性。但是,既然信息具有人格和财产的双重价值,财产属性又具有物的定位,那么就会产生一个悖论:信息既是法律关系主体不可分割的要素,又是法律关系客体的一种。另一种思路是将信息视为独立于既有类型之外的新的客体类型。但这种做法并不可取,不仅因为信息兼具主客体属性而无法单独归类为“客体”,还有一个理论分类上的原因:如果每诞生一种新的法律关系都独立出一种新的客体类型,那么客体清单将无穷无尽。
关于数据和信息之客体属性讨论的困境,折射出法理学层面上一个更深层次的问题,那就是,法律关系客体这一范畴还有无保留的必要。这不是说在逻辑上不能存在“客体”的概念:在主客体二分框架不变的前提下,主体、客体与内容、条件一起在逻辑上构成“法律关系”这一总范畴的完整面向。这里所质疑的,是法律关系客体作为一个独立的法学基本范畴的理论价值。既有的客体理论既无法说明民事法律关系的现状,也无法用于其他法律关系领域。一方面,法律关系的客体(权利客体)这一概念源自民法学。传统民法学在构造客体概念时预设了以“所有权”为原型的支配权模型。这种模型以主客体二分范式为基础,强调权利主体对于客体的排他支配,指向外在于权利主体的明确对象。正是受这一模式影响,民法学者才将人格权作为独立的权利类型,其实就是将人格或人格利益理解为类似财产的客体。但是,支配权模式对于以请求权、形成权和抗辩权为内容的法律关系的说明力并不足够。如果说将“行为(行为结果)”视为请求权的客体仍有一定说明力的话,那么形成权和抗辩权的客体又是什么?正因为如此,民法学者早就突破了四分法,枚举了大量的客体类型。另一方面,在将起源于民法学的法律关系客体概念运用于其他法律领域时,产生了异常的混乱。如关于刑事法律关系的客体究竟是什么,一直以来争论不休。除了套用行为、物、精神内容的主张外,还包括实现刑罚、犯罪行为、犯罪构成与刑事责任等观点。鉴于这种乱象,有论者干脆笼统地主张刑事法律关系的客体就是“犯罪人利益的载体”,并列举了生命、自由、资格、财产作为其外延。因此,如果要勾勒出一份跨越民法和其他法律部门的法律关系客体清单,这份清单的数量将十分庞大,并且由于总是有新的法律关系产生,客体清单也将呈现不断扩大的趋势。这样一来,客体理论终将沦为一种纯然映射各类关系现实的描述性理论,而失去对现实的规范化和格式化的功能,最终影响其作为一种“理论”的价值。
因此,法律关系客体究竟有无必要继续被当作独立的法学基本范畴?进而,用主客体二分范式来理解法律关系的做法是否还值得维系?可以说,数据/信息法律关系的涌现将长久以来的这种潜在疑问摆上了台面,并为一种理解法律关系的新思路提供了机会。例如,近来就有学者主张,数据界权不应受确立财产所有权思路的局限,而应致力于调整社会主体间围绕数据价值开发利用而形成的具体利益互动关系。换言之,到了揭开“客体”的面纱,来直接面对其背后利益关系的时候了。从根本上说,这或许是因为“法律关系客体”在法理学知识体系中本就没有作为独立范畴的必要,新科技时代的到来则为这一认识提供了新的也更具有说服力的社会条件。
(二)“法律部门”的解体
在传统法理学中,法律部门是指根据一定的标准或原则对一国现行的全部法律规范进行划分所形成的同类法律规范的总称。若干法律部门形成的有机联系的整体就是法律体系。因此,法律部门的组成单位是(同一性质的)法律规范,而其本身又是法律体系(传统上也称为“部门法体系”)的组成单位,由此形成“法律规范—法律部门—法律体系”的三阶构造。在此视角下,法律体系虽由一国现行全部法律规范组成,却以法律部门的划分为必要环节。学界主要采取主辅标准说来划分法律部门。其中首要标准是法律的调整对象,即法律所调整的社会关系,次要标准是法律的调整方法,即法律对社会关系进行调整或保护所采用的调整机理或具体方式。据此,当代中国法律体系被分为宪法、民法、商法、行政法、经济法、社会法、刑法、诉讼与非诉程序法等部门。
新科技日新月异的发展迫切要求立法的及时跟进,因此我国近年来出台了不少信息保护、网络安全、数据安全等方面的法律法规。以这些法律文件为载体的法律规范该如何归类?这里大体有两种思路:一种是切割归类法。调整新科技时代法律关系的法律往往涉及不同性质的法律关系,兼采多种调整方法。例如,《个人信息保护法》既有调整平等主体之间财产关系和人身关系的法律规范,又有调整国家与个人之间行政管理关系的法律规范(如“国家机关处理个人信息的特别规定”,第33—37条),还有调整国家与国家之间关系的法律规范(如第43条),以及与诉讼法律关系相关的法律规范(第70条)。在调整方法上,既有损害赔偿等民事责任形式(第69条),又有行政处罚和行政处分等行政责任形式(第66、68条),还有刑事责任形式(第71条)。如果既有的法律部门划分不变,那么就需要将整部《个人信息保护法》切割开来,将它所包含的法律规范分别归入民法、行政法、刑法等法律部门。另一种思路是整体定类法,也就是不对相关法律作切割处理,而是整体上划为一类。法律部门的类别虽具有相对稳定性,但也具有开放性,法律规范需要适应和调整社会关系的发展变化,法律部门需要与外部环境及时沟通协调。按照这种思路,可以单独设立一个新的法律部门(科技法部门),然后将诸如《个人信息保护法》这类法律整体上纳入新的法律部门。这两种思路各有利弊:切割归类法维系了既有的法律部门划分,但使得一部法律文件被零敲碎打,在适用和研究时人为将有联系的法律规范区隔开来,不利于从整体上把握整部法律的目的和精神。整体定类法虽然可以避免这一弊端,但会冲击既有的法律部门划分标准,使得整个法律体系的结构设计失去科学性和严谨性。同时,“法律部门”范畴在此也面临与“法律关系客体”范畴相同的困境:如果因应现实的发展不断新设法律部门,那么法律部门理论终将失去其意义。
这促使我们反思一个问题:将法律体系划分为不同法律部门的做法在今天究竟还有多大意义?法律部门的划分起源于古罗马的公法与私法的二元论。这种划分与古罗马人的特殊认识有关:私法构成罗马法素材领域的核心内容,也是科学的主题,可以从作为法律原材料的细碎规则中提炼出原则并精心构成一个体系;公法因为与政治的关联,通常不被认为是作为科学对象的“真正的”法。这种区分也为法学教育和研究的分化提供了依据。但在今天,正如后文关于“(狭义)法律行为”的讨论所显现的,这种(私)法与政治的二元论早就失去了意义。无论是社会法领域的出现,还是公私法的融合发展都说明了这一点。相应地,今日之法学教育和研究也越来越呈现出跨领域、跨部门的特色。在这种背景下,无论是切割归类法还是整体定类法都已显得不合时宜。正因为如此,有学者主张放弃“部门法”思维,转向“领域法”思维。这种思维以问题为导向,采取“诸法合一”的姿态,运用“领域性整合”模式和“问题—经验—逻辑”一体化实用型思维。既然法律体系在制度层面上以领域性的主题而非调整的社会关系或方法为基础,那么法学研究和教育同样不应画地为牢,壁垒森严。
因此,或许是时候来瓦解部门法的分立格局,促成法律体系内部既有结构的解体了。进而,这终将促使我们彻底放弃将“法律部门”作为法律体系的组成单位,建立起“法律规范—法律体系”的二阶构造。在新的视角下,法学研究以要处理的问题为核心,以法律体系为搜寻范围来组构法律规范群,而无需考虑法律规范的性质问题。根据问题的不同,同一法律规范可以属于不同规范群,不同法律规范可以属于同一规范群,从而使得法律体系的内部结构呈现出动态的特征。对部门法模式的挑战并非始于新科技时代,但在新科技时代被显著放大。由此,“法律部门”的范畴将在很大程度上丧失其存在的必要性。
三、挑战与回应之二:既有理解的不同重构
与被放弃的法学基本范畴相比,更多的基本范畴需要在新科技时代得到重构。根据重构的不同程度,又可以分为两种情形:一些基本范畴需要彻底重构,另一些基本范畴则仅需要部分重构,或者说在某些层面上重构。前者的典型是“法律行为”,后者的典型是“法律权利”。
(一)彻底重构:(狭义)法律行为
法律行为是法律关系主体所实施的能够发生法律上的效果,即引起法律关系形成、变更和消灭的法律事实。法律行为(Rechtshandlung)又可分为表示行为(意思表示行为和准意思表示行为)与非表示行为(事实行为)。意思表示行为就是狭义法律行为(Rechtsgeschäft),指当事人旨在根据意思表示的内容获得相应法律效果的行为。在我国,这种狭义法律行为也称为“民事法律行为”。循名责实,这一称呼力图凸显私法领域的核心价值:私法自治。因为在民法学者看来,(狭义)法律行为是私法自决的一般工具,(狭义)法律行为概念之形成所贯穿的中心线索,正是私法自治之维护。由此,(狭义)法律行为也成为公法与私法相界分的标志。
这一界分标志区分了私人间平等、自主塑造的私法关系与不平等、受到权力支配的公法关系。从规范创设的角度看,两者的区别在于,私法关系中负有义务的主体参与了施加义务之规范的创设,而公法关系中负有义务的主体没有参与这种创设。如在典型的私法关系即合同关系中,在法律上负有采取某种相互行为之义务的人就是订立合同的当事人。而在典型的公法关系即行政法关系中,行政命令由行政机关单方确立,负有采取合乎命令的行为或者说承担法律义务的相对人并不参与命令的确定。所以,前者是“私人间的”,而后者是“政治性的”。但如果从一般法理论的视角来看,两者之间的共性要远大于个性。首先,民事法律行为与行政命令一样都是对一般法律规范的个别化,只不过后者是对行政性法律的个别化,而前者是对民事性法律(如民法典)的个别化而已。它们都是可归属于法秩序之统一性的法律创设的构成要件。其次,民事法律行为的效力与行政命令一样来自法秩序的授权。合同是双方当事人之间关于应当做某事的约定,但在脱离法秩序授权的前提下,这种应当只具有主观意义。法秩序通过一般规范(合同法或民法典)授权个人订立合同,就将这一民事法律行为的主观意义提升为客观意义。如果说合同为缔约双方创设了义务,那么这是因为法秩序将某种制裁联结于违反合同的行为,即联结于与通过合同产生的规范相对立的行为(违约行为)。最后,民事法律行为与行政命令一样都具有“政治性”。无论是合同还是行政命令都是依据上位一般法律创设下位个别规范的活动,两类个别规范都属于法秩序的组成部分。如果将法秩序看作国家意志之构造,那么两者在此意义上都参与了这一构造,只是方式有所不同。所以,无论私人还是行政机关都是法秩序的(法律创设)“机关”。如果说有什么“自治”的空间,那么这对于公法领域或私法领域而言也无差别。因为一般法律规范在个别化的过程中,都为私人或行政机关留下了意志行为行使的空间。
如果说(狭义)法律行为有什么特殊之处的话,那也是相对于事实行为而言的:(狭义)法律行为是在一般法律规范所授权和允许的范围内创设出了个别规范,而事实行为只是单纯地引发法律规范的效果,它并没有创设出个别规范。换句话说,法律行为的效果直接由获得授权的意志行为带来、间接由一般法律规范造成,而事实行为的效果由一般法律规范直接赋予。从语言哲学的角度看,(狭义)法律行为是这样一种宣告式言语行为:在授权规范的保证之下,这种言语行为中的内容将被转变为制度事实。这类行为在私法领域和公法领域中都不罕见。所以,民事法律行为只是这种言语行为在私法领域的变种,并不具有结构上的特殊性。以(狭义)法律行为为界分标准的公私法二元论具有强烈的价值意识形态性,私法上的意思自治更多存在于法政策学而非法理论的层面上。
新科技时代进一步挑战了(狭义)法律行为的独特内涵。除了大数据外,人工智能的另一个基础要素是算法。算法是通过计算机语言解决问题的办法,机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。举例而言,机器学习算法的一个典型应用场景是“算法交易”。在算法交易中,受计算机控制的算法在高于或低于特定交易所价格时,决定买入还是卖出有价证券。在传统法学中,买卖有价证券属于经典的债法上的法律行为,会带来财产转移的效果。无论买入还是卖出的行为都以买入者和出售者的意思表示为前提,而这恰恰是算法交易所缺乏的。但无论从交易效率还是从交易“判断”的准确度看,算法交易都不亚于真人之间的交易。另一个例子是2008年Google推出了Google Assistant系统。该系统可以打电话预约剪发或订餐厅座位,而接到电话的服务生并不知道是人工智能打的电话。这里当然隐含着一个人工智能是否应该揭露自己是人工智能的伦理问题。但从现实的角度看,如果能成功地完成互动沟通,并达成法律效果(例如完成剪发预约或餐厅订位),那互动的对象是真人或人工智能又有何区别呢?假如没有区别,那么在这类具体情境中运用以“意思表示”为核心的传统法律行为概念的做法就将面临重大挑战。因为“意思”是一种观点,它属于心灵的能力,而心灵必须具备外在的物质基础。很显然,人工智能不具有物质意义上的人类心灵。因而人工智能并不具备“意思”:它没有观点,只有观察。
可怖的是,虽然人工智能不具备心灵和意思,却可以依照事先设定的算法、甚至通过自我学习掌握的算法作出程式化的“表示”。更可怖的是,这种“空心化”的(没有“意思”的)表示行为看起来并不影响社会交往,无论在上述算法交易中,还是在通过人工智能系统预定服务的情形中都是如此。所以有论者认为,人工智能这个概念里面的智能(intelligence)部分,重点并不在于心灵,而在于社会功能。亦即,并不是人类的心灵或智慧可以为人工智能所取代,而是人类的互动沟通与大量的社会行动或社会关系,早就已经社会功能化了。这类社会关系不仅存在于私法领域,也可能存在于公法领域。比如可以想象,当人工智能系统捕捉到汽车闯红灯的画面时,自动对驾驶员开出罚单。在此,从“意思”到“表示”的逻辑链条被打断了:“意思”不必是“表示”之因,“表示”未必是“意思”之果。在大量日常的、程式化的社会关系中,内在的“意思”对于特定法律效果的发生不再必要,只要有自动化决策的外在“表示”就足以完成有效的法律交往。由于人工智能完全可以通过纯粹的表示行为胜任原本由人类的意思表示行为承担的社会功能,因此,至少在这类社会关系中,既有的(狭义)法律行为概念面临解体之虞。这一范畴不仅不是私法领域所独有的,而且其内涵也将被彻底重构:作为宣告式言语行为,(狭义)法律行为可以只是一种纯粹程式化的宣告,是根据(外在)表示的内容获得相应法律效果的行为。
(二)部分重构:法律权利
法律权利与法律义务是法律关系的核心内容。一直以来,法理学孜孜不倦地探讨着权利的概念、性质、结构、类型等问题。在传统法理学中,权利以个人为出发点,因为权利被认为与权利主体的主体性(个人性)密不可分。在德语中,权利就是主体(主观)的法(subjektives Recht)。同时,权利的重要性被认为主要在于“保护或促进一个人的利益,使之免受他人或社会的侵犯”。所以在传统法理学中,个人权利具有明显的“私”的属性,与具有“公”的性质的公共利益相对,对后者的保护由权力来进行。“私”权利与“公”权力构成了又一个经典二元框架。
新科技时代使得个人信息的法律保护成为焦点之一。目前争论的要点在于,个人信息的保护模式应采取权利模式(个人信息权)还是利益模式(个人信息权益)。参与争论的以部门法学者为主。但事实上,个人信息保护带来的挑战不仅存在于部门法教义学层面,也终将触及法理学层面上对“权利”这一范畴本身的理解。与传统权利的内容相比,个人信息具有鲜明的公共性面向。个人信息虽与个人有关联但又是一种公共资源,它需要以某种制度安排来更为有效地实现公共利益,而非仅实现单纯的私人利益。一方面,个人信息本身只是一种可以识别某个人的事实或记录,它虽与特定个人有联系,但不足以使个人对该数据具有支配利益。在网络化、数据化、智能化的时代,全息化、多样化的大规模个人数据,不仅成为社会治理、企业管理创新和改善的资源,也成为科学文化艺术创新进步的资源池。仅因信息与个人存在联系即赋予个人对个人数据的排他控制权,与人类社会进步发展的制度基础相悖。另一方面,个人信息的公共性体现为其在数字市场和社会中的认证、连接和声誉功能,其使用不具有排他性。为了确保广泛的市场和社会有效运作,需要不断将个人生产的信息转换为公共信息,帮助生产要素不断流动,使在整个系统中活动的参与主体和生产要素获益。利益模式的支持者正是基于个人信息的公共性,才反对将个人信息视作一项权利。问题在于,权利与公共利益真的不可兼得吗?
这里其实涉及权利的概念和证成两个不同的层面。民法学界关于权利与利益的区分虽然起源于德国侵权法教义学的特殊语境,却触及了权利概念的根本。那就是,权利只是保护利益的工具之一,立法者完全可以通过单纯设定义务的方式保护他人的利益。权利概念的独特之处在于,它是保护个人的内在独立性和个人自治的重要概念和制度设置。权利蕴含着个人提出主张的能力,而这构成了人的尊严的基础。因此,权利以主张为核心要素。这意味着,个人在权利的内容所规定的领域内是自主的,权利人可以成为指向性义务的操控者。如果说义务意味着限制,那么与关系性义务对应的权利人,就获得一项比从非关系性义务中获益的那些主体更多的东西,即对于关系性义务的“控制”,而“控制”的内容就是权利人针对关系性义务的自由或者选择。所以哈特(Hart)才说,拥有权利基本上等同于“拥有一项小范围的主权”。正是这种自治和个人控制,使得权利区别于其他利益。质言之,权利固然反映利益,但利益未必都能够上升为权利。只有当法律制度将保护特定利益的自由或选择交由特定之人(权利人)时,才会产生权利。对于这种个人控制,要说明两点:其一,这种控制并非绝对,因为即便在传统权利的领域,权利也要受到他人利益和公共利益的限制,因此权利无需呈现为一种排他性控制。其二,这种控制并不意味着特定利益(如个人信息)的“私有化”,也就是说特定利益并非只具有权利人之私利的属性,或者这种利益只能通过权利来获得保护。它只是赋予权利人引发关系性义务的优先地位。所以,个人信息功能上的公共性和使用上的非排他性并不足以证明其不能够成为一项权利。因为x是y的权利,与x兼具公共利益,是完全相容的,这并不会对权利概念本身构成挑战。
当然,尽管利益不等同于权利,权利的证成基础却在于利益。只有正当的利益才有可能被作为权利来保护。就此而言,个人信息的公共性的确对权利的传统证成方式提出了挑战。在新科技时代,由于个人信息承载着公共利益,个人权利的证成基础不再完全是个人利益,甚至不主要在于个人利益,而是同时在于对公共利益的保护。这意味着,权利人的利益与权利本身并不等同,权利的重要性超过了权利人利益的重要性。这表现在,是权利而非权利人的利益直接证成了他人的义务。所以,权利是一个比权利人的利益更强的理由,权利不仅反映了权利人的利益,而且为其添加了一个额外的、独立的理由。这个理由,就是其他人的利益或共同善。共同善成为决定权利分量或重要性的一个因素,它增加了权利的重要性或价值,并使得这种重要性超过了权利人的利益。权利存在的价值很大程度上就在于它对共同善的贡献。有论者进一步认为,公共利益可以分为消费型公益与参与型公益,而权利主要涉及消费型公益,它包括国内外安全、社会和平有序、生态环境、各类公共服务等。这就提示了一种新的权利证成方向,即共同善权利观。根据这种观点,公共利益可以和权利人个人利益一起作为使他人负有义务的充分理由。例如,言论自由权能够向他人施加义务的充分理由,既在于权利人自由表达的利益,也在于信息得以自由交流的社会环境这种公共利益。对于个人信息权而言也是类似的。事实上,这样的主张早在150年前德国法学家耶林的名著《为权利而斗争》中就有所体现。他将“对社会的现实利益”也包含进权利所具有的价值(利益)之中,并旗帜鲜明地主张为权利而斗争也是对社会的义务。而在中国,20世纪80、90年代兴盛的“权利本位论”也早就辨清了权利本位与个人本位的区别,提出权利本位法同样可以社会为本位。
可见,在新科技时代,法律权利的概念(独特性)可以得到维系,但其证成基础却应当被修正。其基本思路在于摒弃“私”与“公”对立并将权利的正当性完全置于“私”的一侧的传统偏见。这种偏见并非新科技时代才出现,但在这一时代更凸显出其内在缺陷。
四、挑战与回应之三:坚定辩护与更好捍卫
对于部分法学基本范畴而言,新科技虽然对它们造成一定冲击,但未形成根本性的撼动。这些基本范畴通常关联着被广泛承认且不可轻易动摇的基本理念和价值预设。其典型代表是“法律责任”和“法律主体”,它们背后的价值预设是构成现代法律体系及法学知识体系之基础的人的自由意志或尊严。
(一)“法律责任”的辩护
法律领域的责任可以分为过错责任(responsibility)与严格责任(liability)。新科技时代主要对过错责任的概念提出了挑战。在传统过错责任学说中,归责的一个主要条件是控制力条件。据此,行动者要对行为有足够的控制力,这样的行为才是行动者自己的行为,而不是完全为外在因素所决定。只有建立起被归责的对象与其行为之间的内在关联,行动者才需对自己的行为负责。控制力条件的本体论载体就是自由意志。具有某种自由是我们能够对行动承担责任的一个先决条件,而自由意志构成了责任的核心和前提。没有自由意志就没有自由,没有自由也就不会导致责任。我们在新科技时代所面临的考验最终都会被还原或归结为对自由意志的挑战。这种挑战可分为三个方面,但它们都是不成功的。
第一个方面的挑战是利用大数据的信息追踪和算法推荐营造“信息茧房”,削减人们的自由选择空间,从而诱导、影响乃至决定人们的行为。大数据时代的人为各种各样的数据追踪和算法推荐所包围。当使用各种网络社交媒体的免费服务时,人同样是产品,产出的是个人数据,而平台就利用这些数据并通过算法向人们进行“完美个人化”或“量身定制”的产品推荐或服务推荐。在这种商业逻辑的背景下,“行为预测”与“行为诱导”交织到一起,营销目标变成了自我实现的预言,人的“意思自治”和主体性被消解了。这种个性化推荐还会进一步导致过滤泡沫,公众只有机会接触自己感兴趣的信息,长此以往,就仿佛是被桎梏于蚕茧之中的蚕蛹,被禁锢于信息的茧房之中。更可怕的是,信息茧房效应对于个人自由的影响是不自觉的:人们以为是自己在作选择,但其实是被数据“喂养”的。由此就产生了“自由意志”的幻想或自由的悖论。当然,信息茧房并不必然挑战自由意志本身,而可能只是影响了自由意志发挥的现实条件。但是,如果认为人的行为是预先就被某些条件(因果链条中的原因)决定的,那么信息茧房就会抛出意志自由本身是否存在这个问题。这就将回到一个经典的哲学问题,就是意志自由和决定论的关系。决定论意味着未来是被过去和现在完全决定的,如果决定条件得到满足,那么被决定的事件就变得不可避免。如果人的所有选择都是被预先设定好的,那么因为人无法意愿那些没有在头脑中设定好的欲望,从根本上说他的意志就是不自由的。具体地说,信息茧房可能会支持一种行为主义版本的心理决定论。这种决定论认为,人的行为严格地说是其在物质环境和社会或文化环境中偶然形成的条件反射的结果。因而,可以通过一种行为控制技术(比如大数据加算法)来操控人的行为。
这里不是探讨这一哲学问题之处,只是简单地指出:决定论可以分为严格决定论与非严格决定论。后者不否认行为的普遍因果关系,甚至认为不仅人的自由要服从因果关系,而且正因为有了因果关系,人才有自由。如果有些因果关系起源于人,而人通过自己的精神和意志产生某些行为,那就可以说人有某种自由。大数据和算法是根据人的行为的历史轨迹来进行预测和诱导的,它只是强化了已经存在的人的(可能自己没有意识到的)行为模式,降低了人改变自己的行为模式的可能性,但不能说这种行为模式本身不是人的精神和意志的产物。所以,非严格决定论与自由意志可以相容,即便身处信息茧房中的人也可以为自己的行为担责。当然,考虑到信息茧房对于自由意志发挥的现实影响,可以将它设定为免责(减轻或免除责任)的一个条件。但免责的前提是存在责任。
第二个方面的挑战是人工智能时代作用于神经的各种综合性医疗手段,比如人工耳蜗、脑机接口、生物芯片等,可能改变人的生物属性并进而影响到人的自主意识和决定。这种挑战比较容易解决,因为它只涉及人工智能在工具意义上的合理使用所带来的外部性效果。人工智能装置只要在科学的意义上对人的自主判断能力产生影响,就可以考虑减轻或免除相应的责任。但前提仍旧是承认以自由意志为核心的责任概念。
第三个方面的挑战是强人工智能有可能创造出全新的非人类主体及其不以生物特质为基础的自由意志。这种挑战的根本问题在于,强人工智能体是否拥有自由意志?过错责任以自由意志为核心,就意味着承担过错责任的主体需具备自由意志。过错责任要求行动者对其行为负责,就是要在二者之间建立一种联系。但这种联系并非单纯的因果联系,它要求行动者对处于社会关系中的行为有自主判断能力,这种判断能力不是因果判断能力,而是一种规范判断能力。它又包括两个方面:一是具有理解回应性态度及其包含的规范性理由的能力,二是行动者具有依据上述理解改变既有认知和行为模式的能力。简单说,就是行动者对理由的回应能力。拥有自由意志或承担过错责任就蕴含着对理由的回应能力,这包含着复杂的理由认识、判断、理解以及按照理由来行动的能力。人工智能体,哪怕是强人工智能体,都显然不具有回应理由的能力,无法通过了解来接受一套社会规则,形成对规则之规范性的认知。其能够执行的只是技术意义上的算法,而非规范性的判断。以智能化的自动驾驶为例:在发生紧急情况时,传统驾驶中作出决定(撞行人还是撞乘客)的是处于紧急情况中的人,如何决定完全取决于个人在紧急情况下的道德信念或理性能力,而自动驾驶中作出最终决定的是预测紧急情况并事先作出决策的自动程序。这使得风险决策在时间上被“前移”,模式上被“固定化”,人工智能体在紧急情况中并没有进行个别决策的自由意志,如何决策是提前由制造商通过“受害者算法”设定的。在此意义上,即便存在“机器伦理”,它也只是一种“不担责任的道德”(nicht-verantwortliche Moralität)。所以,人工智能体不可能拥有自由意志,因而也不可能成为承担过错责任的主体。
所以,人工智能对自由意志进而对过错责任的挑战是不成功的。除非我们完全放弃过错责任,将法律责任完全等同于无过错责任。这其实已经涉及下一个法学基本范畴,即“法律主体”。
(二)“法律主体”的捍卫
法律关系主体(法律主体)就是法律意义上的人,或者说法律人格的担纲者。只有成为法律主体才能参加法律关系,享有特定的权利,履行特定的义务,承担特定的责任。这样的“人”包括两类,一类是自然人(natural person),另一类是法人(legal person),前者以生物意义上的人(human)为基础,后者则来自法律上的拟制。无论自然人还是法人,作为法律主体必须满足的两个前提是权利能力和行为能力。权利能力是依法享有一定权利和承担一定义务的法律资格,这种资格由法律赋予和承认。行为能力是法律关系主体能够通过自己的行为实际取得权利、履行义务、承担责任的能力。无论如何,责任能力都是法律主体资格构成的一个重要条件。
上文已然表明,在过错责任的意义上,人工智能体并非拥有自由意志的适格归责主体。被认可拥有自我决定的资格的,只有具有理性的人类。因为人类会自行对其行为及其他可预见的后果进行归责。对自然人来说,这些行为和后果并非借由自身或经过自身而发生的任意现象,它们的起源在于自然人自身,在于其采取不同行为的能力。因为自然人曾能够采取不同的行为,也因为如此一来后果或许就得以避免,所以就不能简单地将它们作为与自身无涉的某事来知晓,而是要自行对它们进行归责。在此意义上,赋予人工智能主体地位,将冲击人格尊严的基础,削弱自主决定。
如此,要让人工智能体成为法律主体,唯一的可能就是放弃过错责任,将法律主体限于严格责任的承担者。根据纯粹法学说,法律关心的是对行为的规范调整。作为法律主体的“人”其实只是权利、义务、责任的拟人化说法,“人”的问题就是规范集合的统一问题。所以,“人”是一种法学上简化表达的辅助性概念,是责任的归结点。换言之,法律将责任归结于谁,谁就是责任主体(人),无需以责任主体具有自由意志和过错为前提。这种思路下的归责模式有两种:一种是行为主义的归责模式,以刑法领域为代表。其主张由实施行为者自己承担责任,实施行为者为法律主体。如果具备足够决策能力的人工智能可以实施刑法意义上的行为,它就可以具有承担刑事责任的能力,并在此意义上具有法律人格。另一种是风险归责模式,以侵权法领域为代表。根据经典表述,所谓风险归责指的是,“如果某人(的行为)相对于他人构成不可预测的肇因,且根据双方的关系特征无法期待后者能够保护自己免于损失,那么前者必须向后者因这种不可预测遭受的损失进行赔偿”。它将特定的损害风险归责于那些(即便是以被允许的方式)产生了这一风险的人,或者因其利益维系了这一风险的人。
但是,无论是哪种模式,都无法合理地证明人工智能体就是法律主体。让实施致损行为或招致风险的人工智能体自己承担责任并无实际意义。这一点在刑事责任领域尤其明显。且不说人工智能体能否像自然人那样承担特定形式的刑罚(如自由刑),即便能够承担(以变相的形式,如特定时长的断电),也无法达成刑罚的目的(无论是报应还是预防)。对于侵权责任也是一样,因为人工智能体无法自己对被侵权人进行赔偿,也不拥有自己为赔偿所需的独立财产。当然,或有论者指出,至少在民事领域,可以将人工智能体设定为不完全行为能力人意义上的法律主体。就像未成年的儿童由其监护人来承担民事责任那样,人工智能体实施致损行为或招致风险所引发的责任,可由其“监护人”(如设计者、制造者或使用者)来承担。如此,就可以在不让其自行承担责任的情况下维系其法律主体的地位,让其成为不具有责任能力的法律主体。但是应当看到,监护情形中责任转移的前提在于行为人之“不完全行为能力”的判断,这就涉及行为能力的判断标准。自然人的行为能力是其意识能力的反映。确定自然人有无行为能力及其行为能力是否完整的标准有二,一是行为人能否认识自己行为的性质、意义、后果,二是行为人能否控制自己的行为,并对自己行为负责。实践中,则将年龄和心智作为客观的判断标准。不完全行为能力人的行为责任之所以让其监护人承担,就是因为其心智成熟程度和自我控制能力尚未达标。而一旦达标(如达到特定年龄),这种责任就会从监护人那里回转到行为人本身。人工智能侵权的情形与这一机理完全不符:它既不具备人类的心智和意志,也没有责任回转的可能。如此一来,称人工智能体为“法律主体”就是既没有规范意义,也没有实践价值的纯粹技术表达,不如戳破其“主体性面纱”,直接将其背后的自然人或法人作为法律主体。
另有观点将人工智能体与法人相比较。有论者指出,既然法人可以被赋予法律人格,机器人为什么不能拥有法律人格?关键在于,人工智能体并不满足法人作为法律主体的底层原理:法人虽然是由法律直接拟制的法律主体,但指称的是一个自然人的集合,它能通过“归入”技术与自然人的行为建立起联系。换言之,现实中并不存在法人的“行为”,而只存在特定自然人(在法律上被视为法人的代表或代理人)的行为。但是根据法律规范,这些自然人行为的法律效果被归属于法人,即由法人来承担责任。同时,法人所承担的责任(如赔偿责任或罚金)最终是由作为自然人集合体的每位成员(如股东)来承担的(只是可能限定了其承担责任的范围,如以出资额度为限)。因此,在法人作为法律主体的背后,存在着这样一种归责模式:自然人—[法人]—自然人。从这个意义上说,法人只是法学上一个具有中介性的辅助概念,责任的源点与终点仍然是自然人。而强人工智能的情形并不相同:强人工智能体并不是自然人的集合,它的行为是自行实施的,而非由自然人来代理。它至多具有“人工智能体—自然人(集合)”这样的归责模式。但正如上文所说,在这种归责模式下无需赋予人工智能体以法律主体地位。
所以,至少就目前而言,人工智能体不能(就过错责任而言)或不必(就严格责任而言)被赋予法律主体的资格,而“人”的既有标准或者说“人”的独特性也应得到捍卫。因为在法律上为机器人的行为负责,从而确保为它们在法律界限内的活动负责的总是人类自己。
五、终极挑战:“法律”范畴的范式转换?
新科技时代受到挑战的不仅是主观法和客观法的诸多范畴,还包括“法律”范畴本身。在传统法理学中,实证意义上的法律被界定为一套具备特定特征的社会规范。新科技时代至少从表面看对法律的三个传统特征构成挑战,但目前尚无充分理由来决定是否必须放弃这些特征。
一是法律的国家强制性。传统意义上的“法律”指的是“国法”,即以国家强制力为后盾,由国家强制力保证实施的社会规范。新科技时代出现了大量非由国家机关创设的规范。此外,也有虽由国家机关创设但仅具有指导意义的规范。前者如中国电子信息产业发展研究院和人工智能产业创新联盟发布的《人工智能创新发展道德伦理宣言》、全国信息安全标准化技术委员会发布的《人工智能安全标准化白皮书(2019版)》。后者如国务院发布的《新一代人工智能发展规划》。这些规范往往被称为“软法”。应当说,软法在新科技时代之前就存在,但新科技时代带来了“软法革命”。问题在于,软法是法吗?论者通常认为,“软法”不依靠国家强制力保障实施,不具有绝对的拘束力,因而并不符合国法的标准。在此,法律的国家强制性特征看起来就会动摇。事实上,这里要区分两类不同情形:如果软法的制定获得国法授权,那么它们就已经成为国家法秩序的一部分,只是属于非独立的法律规范。并非所有的法律规范都必须规定强制行为,非独立的法律规范要借由其他规范与制裁相联结,只要它们构成制裁的构成要件之一。如《网络安全标准实践指南》完全可能作为“不履行安全保护义务”的认定标准(之一),从而通过《数据安全法》规定的法律责任条款与国家强制力发生关联。所以,这类软法具有间接的国家强制性。真正有疑问的是没有获得授权而被创设出的软法。由于这类软法没有与国家强制力发生直接或间接的关联,所以只有两种可能:要么它们本就不属于法律,此时法律的国家强制性仍可以得到维系;要么它们也被视为法律的一部分,如此国家强制性这个特征就要被放弃。
二是法律的普遍性。传统法理学认为,法律是一套规则,规则的本质就在于一种“稳固的一般化”或者说普遍化。法律的这种普遍性也是其区别于个别规范(如行政决定、判决、裁定)之处。有论者认为,新科技诞生前的社会,由于信息成本的约束,只能通过普遍规则来处理概率较大的事件。但在人工智能和大数据时代,对每个个体活动所生成的数据进行全样本的收集和分析已不成问题。当人们从平台获取对法律运作结果的预测时,由于此前的认知与反馈都可能成为积累下来的数据,其获取的结果正是人工智能学习这些数据之后形成的结果,这种结果不是普遍的,而是与具体的个人数据联系在一起的。在此情形下,起作用的是围绕一个个“个人”形成的个别性规则。但这里要注意的是:所谓个别性规则其实是将算法运用于个人数据(事实)后的产物,而算法在本质上也是一套普遍性的规则(程序规则)。所以,这里同样存在两种理解上的可能:一种可能是,只有普遍性规则才属于法律,而将普遍性规则适用于具体事实(个人数据)后产生的个别性规则并不属于法律,所以法律的普遍性仍然成立。当然,随之而来的问题是,算法是不是法律?这就涉及下一点。另一种可能是,不仅普遍性规则,有些个别性规则也属于法律。这种可能性并非是在新科技时代被提出的,在法理论学说史上早就可以听到其声音,代表就是纯粹法学说。据此,不仅宪法、法律这类通常被称为规范性法律文件的规范属于法律,像司法裁判、行政决定,甚至民事法律行为(如合同)这类非规范性法律文件也都属于法律。如果持此立场,那么法律的普遍性特征确实将受到挑战。但目前对此并无定论。
三是法律的规范性。首先要指明的是,现下社会生活的日益计算化和算法与法律的日益融合虽是事实,但仅此不足以证明算法就是法律。一方面,在人工智能时代,算法如同法律一般调整和规制着人们的行为。在算法预测和诱导的情形中,人们如同在法律的制约框架下一般面临选择空间压缩的情况,因而在此意义上他们的行为也不是随意的。据此,在法律之功能替代物的意义上,莱斯格(Lessig)认为,算法(代码)就是法律。法律的计算化带来的根本性挑战在于法律在这种经验层面上的功能独特性的丧失。另一方面,算法与法律依然具有重要区别:根据传统法理学,法律具有指引并拘束人们行为的性质。凡有法律之处,人类的行为就不再是随意的,而是具有义务性的。同时,与人工智能采取深度学习的态度不同,法律最本质的特征在于“深度不学习”,它不能时刻根据外界信息、参数或标识的变化,灵活调整它的规范、原则和价值。但恰恰是这种“深度不学习”使得法律成为规范性预期的担保,使得处于社会互动关系中的行动者“有义务”采取合法的行为,或者说对法律进行回应。相反,算法只是通过技术的手段“迫使”行动者采取某种行为,行动者的行为是必然的(被强制的),而非应然的(有义务的),它并不需要行动者回应,只需其认知。所以,假如算法等同于法律,甚至替代法律,那么规范性就会被认知性取代。进而,算法与法律的这种差异也会影响到司法裁判的思维。在传统理解中,司法裁判是一个法律推理的过程。推理是旨在回答某个问题的意向性活动,是一种对理由的特定回应。这预设了推理参与者对理由的回应能力,而参与者必须理解的理由就是规范性。相反,大数据技术的核心在于基于司法行为的历史数据、通过计算(算法)来预测未来的裁判。它信奉数字解决主义,以数据计算取代论证说理。因为大数据只需“知道是什么就够了,没必要知道为什么”。这将完全改变既有的裁判思维及其实践。法律与算法在功能上的相似和性质上的差异提出了这一问题:我们是要将“法律”的名义保留给一种规范性事物,还是将它扩展至具有认知性的功能类似物?如果采纳前一种做法,则法律的规范性特征得以保留,法概念的独特性也将得以维系;如果采纳后一种做法,则规范性将不再被作为法律的特征。
隐藏在上述问题背后的是这样一种根本范式冲突:在理解法这一范畴时,究竟应当采取概念分析的进路还是功能主义的进路?传统法理学主张在定义法律这一事物时首先要确定反映其性质的特征,凡不符合这些特征的事物,哪怕能发挥相同甚至更有效的社会功能,也不是法律。下定义时必须如其所是地通过定义来反映事物的客观性质,而没有自由选择的余地。功能主义进路则放弃了对法的概念特征的坚持,主张从社会功能或功能替代物的角度出发:在人工智能时代,人将在代码的框架内完成自我利益的实现,人的行为将受制于代码,人的行为空间以及自由取决于代码所设置的规则,从这一意义上讲,代码即法律。算法甚至可以形成埃里克森(Ellickson)所说的“无需(国法意义上之)法律的秩序”。这种功能主义进路其实是概念实用主义的一个特定版本,后者主张我们在试图回答“什么应当被称为‘法’”这一问题时拥有选择的自由。虽然有论者从法律所具有的“全面且至高无上”的性质出发,论证算法体系再重要也无法获得如同法律的地位,但依然采取的是概念分析的进路,而功能主义者挑战的恰恰是这种进路本身。当然,这并非说必然要将算法归入“法律”的范畴,而只是说,仅凭概念分析与功能分析本身都不足以证立算法是或者不是法律。是否要将算法划归法律的范畴,最终取决于我们是否珍视法律作为一种规范性实践的独特价值。而这一点,有待法理学界未来通过充分的价值论辩来形成重叠共识。
六、结语
本文未能处理所有的法学基本范畴,从有限的代表性范畴出发所作的“回应”也只是初步性的(对每个范畴的深入讨论将是一系列研究的任务)。但前文的讨论已经可以说明,现代法学知识体系和法律制度建立在数百年来发展起来的一套大体自我圆融的概念和范畴的基础之上,这些概念和范畴不可能被一揽子抛弃或予以颠覆性重建。同时可以看出,新科技时代并没有“肇生”全新的法理学问题。部分法学基本范畴面临的问题其实一直以来都存在,只不过在新科技条件下,这些问题要么以改头换面的形式重新呈现,要么被放大了。所以,至少在法理学层面上,当我们说新科技的“全新挑战”时,并非是指“问题”的新,而只是指“语境”的新。在此意义上,新科技只是构成了对既有法理学知识体系进行“激扰”的环境。这种“激扰”无法直接引起法学基本范畴的更新,而是促使我们对固有理解进行反思。这种反思是一种以法理学自身的理论逻辑、语言和方式来进行回应的过程。它意味着,在新技术条件下未必要对既有范式及其蕴含的价值予以调整和改变,也可以对其进行更好的辩护。在这种“激扰—回应”的背后,隐藏着一个历久弥新的总体性问题,即法律与科技的关系以及(法律背后的)人与科技的关系。这个问题同样属于法理学问题。在中国实施新科技弯道超车战略的背景下,法学界不仅要提供应对工具性挑战的制度建议和教义学智识,也要及时提出有效应对根本性挑战的法理学方案。唯有如此,才能抓住中国法学自主性发展的新机遇。