高级检索

学术资源

行政法学

当前位置: 首页 -> 学术资源 -> 行政法学前沿 -> 行政法学 -> 正文

刘绍宇:论数字政府中人工智能的法律地位与规范体系——以人工智能立法为背景

信息来源:《行政法学研究》2025年第1期 发布日期:2024-12-08

随着人工智能技术及产业的发展和数字政府建设的不断推进,人工智能在数字政府中的应用越来越频繁,程度越来越深,但在提升行政效能和行政质量的同时,也给民主、法治和基本权利保护等公法价值带来极大的冲击。为了解决这一问题,将人工智能在法律定位上视为数字时代的行政助手,公共任务民营化的教义学框架便可用于解决上述公法价值的协调问题。一方面,行政助手具有一定独立性和自主性,符合目前人工智能向高阶甚至超级人工智能发展的趋势。另一方面,公共任务尽管交给了作为行政助手的人工智能,但是其不可逃逸出包括民主原则、法治原则和基本权利保护原则等公法义务的约束,国家仍负有保障其合法有效运行的责任。公共部门人工智能的规范体系尽管与私人部门相比存在相似之处,但是背后的价值理念和推导逻辑截然不同,应在公法原则指引下建构。未来在人工智能立法中,应对公共部门人工智能的应用予以专门规范,突出与私人部门的不同,对透明原则、公平原则和人工干预原则予以明文规定。

关键词强人工智能;数字政府;公法;行政助手


一、问题的提出


近年来,以ChatGPT为代表的生成式人工智能技术的迅猛发展,让人们看到了强人工智能甚至超人工智能的曙光,使得人工智能再次成为社会关注的焦点。在这一轮由大模型掀起的人工智能浪潮中,更多的人们切实感受到了人工智能带来的便捷与效能。与此同时,人工智能所带来的风险也全面凸显,如何对这些风险进行治理,引起了全球政府的高度关注。世界范围内,各国掀起了一场人工智能立法的运动,《欧盟人工智能法案》即是代表性立法。在我国,人工智能立法已经连续两年被列入国务院2023年和2024年年度立法工作计划,进入正式立法程序。《十四届全国人大常委会立法规划》中也指出要推进科技创新和人工智能健康发展。这意味着,人工智能立法的研究重心已经从是否立法转向如何立法。在这一大背景下,人工智能立法也成为我国学界关注热点议题,围绕这一议题已展开了初步研究。

目前我国关于人工智能立法的讨论整体上来说还是围绕私人部门而展开,对公共部门的关照有所不足。目前专家建议稿中均对公共部门人工智能的应用予以专门规范,但是规定较为粗糙简洁。从现实来看,我国正在大力推动数字政府建设,鼓励人工智能在社会治理中的应用。对于公共行政来说,人工智能不仅能够显著提升行政效能,还能够强化法律执行,提升行政决策的质量和精准度。但是,人工智能技术在公共部门的应用,可能带来公权力与公民关系的失衡,侵蚀政府权力,对民主、法治和权利保障等传统公法价值造成冲击,所造成的风险与私人部门相比有过之而无不及。因此,欧盟人工智能立法同时对公共部门人工智能的应用予以一体规范,美国目前的人工智能相关立法则仅针对政府。目前我国学界对此已有一定关注,但是绝大多数聚焦于自动化行政和算法行政,围绕人工智能展开的研究尚不多见,无法满足人工智能立法背景下的理论需求。

有鉴于此,本文试图在人工智能立法这一大背景下探讨数字政府中人工智能的规范体系。必须强调的是,尽管对于公共部门来说,人工智能治理目标,看起来与私人部门存在相似之处,例如透明、平等和人工干预等原则,而实则背后的价值理念和推导逻辑截然不同,进一步导致制度建构上的差异。公共部门人工智能的规范,可以且应当借鉴私人部门的经验,但必须在公法原则下重新审视和调适。为了解决这一问题,本文引入民营化理论中的行政助手理论,将人工智能定位为人工智能时代的行政助手,进而以民营化的法教义学框架,结合人工智能自身的技术特点和治理经验,探索其公法规范框架,并结合国内外立法经验探讨符合我国国情的规范路径。


二、数字政府中人工智能的法律地位


确定法律地位是规范人工智能的前提,一直以来也是人工智能研究的中心议题之一。近年来,以ChatGPT为代表的生成式人工智能的崛起使得人工智能的发展迈入了快车道,强人工智能甚至超级人工智能的曙光仿佛就在眼前。在这一大背景下,人工智能的法律地位也正在从客体转向主体,这一趋势在公法中也有所体现。

(一)数字政府中人工智能法律地位的嬗变

关于人工智能法律地位,即人工智能是否具有法律主体资格的争论由来已久,在生成式人工智能兴起的背景下再次受到关注。整体上来说,对于该问题主要存在客体论和主体论两大观点。客体论将人工智能视为法律关系的客体,具体可以进一步区分为工具说、软件代理说和道德能力缺乏说。主体论在承认人工智能的法律主体地位,具体可以进一步区分为代理人说、电子人格说、有限人格说和人格拟制说。

随着人工智能技术的飞速发展,其智能化水平不断突破新高度,尤其是近年来生成式人工智能的兴起,不仅极大地拓宽了人工智能的应用范围,也让人们对于实现强人工智能乃至超人工智能的愿景更加充满期待。在这一背景下,人工智能的主体性特征愈发显著,它们不再仅仅是辅助工具或被动执行命令的客体,而是逐渐展现出能够进行自主决策和创造性工作的主体特质。在这一大背景下,人工智能主体论的观点再次受到重视。因此,有人在主体论和客体论基础上提出折中论,即认为弱人工智能对应客体论,强人工智能对应主体论。上述讨论尽管是在一般意义上讨论人工智能的主体地位,但是仍旧带有浓厚的私法色彩。事实上,在公法语境下,类似的学术讨论和观念变迁同样存在,只不过是基于行政法中的主体理论而展开。近年来,随着数字技术在公共行政中的引入,承认数字系统的主体地位已经越来越成为一种趋势。宋华琳教授更是提出,应在强人工智能背景下赋予人工智能体法律主体地位和执法资格,而他选择人工智能体的表述,也突出了人工智能的主体性。

不仅如此,随着人工智能技术的不断发展,客体论向主体论的变迁在公法领域也有所凸显。这在德国有较为明显的体现:在代表了强人工智能发展趋势的生成式人工智能之前,行政自动化的话语占据主流。在当时的语境下,行政自动化的表述和研究仍带有较强的弱人工智能背景,隐含了一种将人工智能视为辅助工具的客体论立场。这种立场将人工智能看作是提高行政效率、实现行政决策和执行过程自动化的手段。正是在这一立场下,人工智能在公共行政中的应用受到较大限制,德国《联邦行政程序法》第35条直接禁止涉及不确定法律概念和裁量行政程序中人工智能的应用。而在近年来,行政自动化的学术话语开始转向,人工智能的主体性有所强调,关于人工智能在政府中应用的讨论增多。这些研究大多批判了自动化话语下对人工智能应用的保守立场。例如Kreyßing指出:新的人工智能模型开辟了可能性,即需要做出存在判断余地和复杂不确定法律概念的裁量决定的行政程序,也可能由人工智能系统执行。在他看来,为了未来能够充分利用人工智能系统在行政中的全部潜力,应该追求一个全面的、自主的基于人工智能的处理。这意味着,从理想状态来看,行政程序的每一步——也就是从事实认定到决策形成,或者直到发布行政行为——都应该由人工智能系统来执行。Kronke直接指出,德国《联邦行政程序法》第35条存在问题,因为其在一般意义上禁止了人工智能做出裁量和不确定法律概念具体化行为。 Tischbirek指出,《联邦行政程序法》规定的对裁量行政全自动化的禁止无法适应人工智能的技术发展,尤其是高性能人工智能的出现。Siegel指出,机器学习人工智能的发展,尤其是近几年来大语言模型的兴起,使得人工智能出现了性能突破,对行政法学来说具有重大意义。

(二)数字政府中人工智能法律地位的争论

前文已经表明,人工智能主体性的强化在公法领域也有所体现,具体表现为人工智能的行政法主体地位越来越被承认,成为一种通说。但数字政府中人工智能究竟具备何种法律地位?目前学界主要存在两种学说。

1. 行政委托说

该学说主张,基于行政委托理论解释数字化平台与行政主体之间的关系,并基于该理论明确政府和数字化平台之间的权限和责任。基于委托关系从事某些自动化的行政活动,但指挥权和责任仍归属于行政机关。其次,基于行政委托关系原理,肯定作为被代理人的行政机关的勤勉注意责任、在公私合作中的监管责任和担保责任。行政委托说脱胎于行政代理说,两者并不存在实质区别,只不过后者是借用民法概念,前者是直接使用了行政法概念。事实上,行政委托说论者对这两个概念也是交叉使用,而且直接指出两者并不存在严格区分。两种学说虽然承认人工智能的主体性,但更多侧重于其相对于行政主体和公务员的附属性。

2. 行政助手说

该学说主张,将人工智能视为政府的数字行政助手。由于行政助手是私人参与公共任务完成的重要表现形式,可以将人工智能参与公共任务比照私人参与公共任务。由于学界对私人参与公共任务已经有一个教义学体系,包括法律容许性理论、民营化后果法和国家保障责任等,对人工智能行政具有指导价值。该学说的核心主张在于,对人工智能在数字政府中的应用,应该采取积极的立场,尽可能避免对其进行一般意义上的禁止,而是应该将重点置于如何确保公法价值不被贬损。与该学说类似的还有行政外包说,该学说基于外包理论,认为人工智能行政本质是公共任务外包给人工智能。该学说主张,不应完全否定人工智能在行政中的应用。近年来,全球范围内不少国家均在一般意义上完全禁止人工智能在公共部门的使用。在该学说看来,限制这种做法是错误地识别了问题,因为行使政府职能的公共部门决策之所以合法,不是因为它们是正确的,而是因为它们能够通过政治或其他程序被追究责任。因此,问题的关键在于如何在将公共任务外包给人工智能以后,确保原有程度的责任性。这两种学说都是在公私合作治理和公共任务民营化这一理论脉络下提出,只不过前者更具有大陆法系色彩,而后者则是英美法系话语。从具体内容来看,这两种学说都是强调人工智能的自主性,政府的任务不是对其予以限制,而是通过监督、合作和支持等诸多形式确保公法价值不被贬损。

3. 比较与分析

上述理论虽然都是将数字政府中人工智能视为主体,但是在对其主体性认可程度上却存在差异。行政委托说仍是强调人工智能的辅助性和附属性,其发源于电子政务时代,兴起于数字化时代,对于人工智能在数字政府中的应用则难以提供理论解释。而行政助手说则进一步强调人工智能的自主性,是在迈向强人工智能时代背景下的产物。不得不承认,从目前现实来看,高级别人工智能在数字政府中的应用并不多见,这在全球范围内都是如此。即便是近年来备受瞩目的生成式人工智能,其在我国目前数字政府建设中也只是刚刚起步,已有不少省份开始推动政务大模型的研发和应用。因此,这两种学说并没有对错之分,更多的是取向不同:行政委托说更多的是面向当下,行政助手说则更多的是面向未来。随着人工智能技术和产业的迅猛发展,强人工智能在数字政府中的应用是一个趋势,在这一大背景下行政助手说会越来越具有市场。

(三)行政助手理论及其证成

接下来的问题是,究竟什么是行政助手理论?为什么要选择该理论?本文下面先对行政助手这一概念做一个澄清式的梳理,进而在此基础之上分析行政助手何以能够揭示人工智能在数字政府中的法律地位。

1. 行政助手概念的澄清

行政助手,又被称为行政辅助人,虽然是一个源自德国的学说,但是在我国学界被经常使用。但是德国法上的行政助手概念是一个十分含糊和语境依赖的概念,在国家赔偿理论和一般行政法理论中具有截然不同的意义。这导致这一概念极容易带来误解,例如,我国学界对德国行政助手理论的理解更多是国家赔偿理论意义上的,即强调其作为行政机关手臂之延长,对行政主体的辅助性和工具性,因此有人在探讨人工智能在数字政府中的地位时援引行政助手理论来证明其辅助性特征。有必要强调的是,本文所用的行政助手概念是在民营化语境下的。

在民营化语境下,行政助手这一概念最早起源于上个世纪60年代,由Boge教授在《警察法中的行政助手》一文中提出。在1970年,Ossenbühl教授第一次在私人参与行政任务视角下分析行政助手,将行政助手理解为一个包括行政授权、被纳用的私人和公法上的公民义务等形式的宽泛概念。在上个世纪90年代,行政助手开始在民营化理论的脉络下独立发展。最早在民营化理论之中探讨行政助手这一概念的是Schon教授,而德国民营化研究的权威学者Burgi教授则在其代表作《功能民营化与行政助手》一书中将这一理论进行了全面深入的发展。在他看来,行政助手是私人在任务范围内责任运行阶段的部分参与。由此,行政助手不仅是私人参与公共任务的表现形式,而且还可被视为一种社会自我规制。

2. 行政助手理论的证成

从上述可知,民营化语境下行政助手作为一种私人完成公共任务的形式,不再是国家赔偿理论语境下作为一种工具来协助行政机关,而是作为独立的主体自主地去完成公共任务。也就是说,其既具有一定的自主性,表现为在任务完成上的自主性;又具有较强的辅助性,表现为依然要受到行政机关的监督和控制,且并不具有独立法律资格。为了证成行政助手理论,本文提出如下两点理由:

其一,与行政委托理论相比,行政助手理论传达了一种对政府应用人工智能的积极立场。人工智能作为一种数字技术不应在公共部门被一般禁止,在行为活动上应具有一定的自主性。尽管人工智能在数字政府中的引入的确给民主、法治和基本权利保障等公法价值带来诸多挑战,但是其所带来的促进作用不容忽视。尤其是其所带来的绝不仅是行政效能的提升,还包括行政质量的提升,能够解决我国行政管理实践中存在的不少顽疾。一直以来,我国行政活动都存在懈怠行政、恣意行政、偏私行政、选择性执法、运动式执法、过度执法和逐利执法等诸多问题,人工智能作为一种技术中立的治理工具能够在很大程度上解决上述问题。因此,有人提出要求自动化行政构成一种权利,因为如果传统行政模式存在上述问题,那么相对人的权利很容易受到侵犯。如此看来,人工智能的引入整体上来说是提升了权利保障水平。与此同时,行政助手理论又强调政府对人工智能活动的监督和控制。这背后的理念在于,与其限制人工智能在公共部门的应用,国家的任务毋宁是确保人工智能在数字政府中的应用符合民主、法治和基本权利保障等公法价值的要求。这意味着,尽管公共任务交给了人工智能去完成,但是其仍处于辅助地位,而国家才具有最终决定权限。

其二,与行政委托理论相比,行政助手理论在民营化这一脉络下形成了较深的理论厚度。具体来说,学界对于民营化的形式、法律容许性、法律限度和国家责任等问题都展开了持续深入的研究,形成了一个完善的教义学框架。这一教义学框架至今仍在不断丰富完善,一直以来也被我国学界用来解决大量具体问题。本文也遵循这一分析框架对数字政府中人工智能的规范体系予以分析,即从法律容许性、法律限度和国家责任这三个方面展开。


三、数字政府中人工智能的规范体系


基于行政助手理论,类比公共任务民营化的教义学框架,本文试图勾勒出一个对数字政府中人工智能的规范体系。

(一)数字政府中人工智能应用的法律容许性

建构数字政府人工智能规范体系的首要任务是解决其法律容许性问题,即人工智能在政府中的应用是否被法秩序所容许。这一问题具有很强的现实意义,因为各国目前均存在不同程度上禁止包括一些数字技术的实践。对于人工智能技术,尽管尚未表现出高度的恐慌,但是其高风险也引起了一定关注,公共部门人工智能的应用在不同程度上受到限制。传统上公共任务的履行被视为国家机关的固有职责,这是基于国家垄断公权力原则的要求。但是随着实践中民营化的不断推进,绝对意义上的国家保留已经不复存在。

比照公共任务民营化,在将公共任务交给人工智能完成时,一个类似的思考是,公共任务是否必须由人完成?这涉及公法理论中的功能保留。在德国法上,功能保留规定在德国《基本法》第33条第4款,高权权限保留给制度意义上的行政担当中的官员行使,故学界一般认为,高权权限的行使,作为持续性事务,原则上必须委任给拥有公法上劳动关系和忠诚关系的公务人员,只有在临时性事务或例外事务的情况下,将高权权限的形式委托给非官员的人才是允许的。功能保留是一项制度保障,旨在确保公共任务执行的专业化、忠诚度和对法律的忠诚。如果严格按照该条规定,即高权权限必须由公务员行使,那么人工智能参与公共任务完成便违反了规定。然而,从规定或规范本身的目的中,并不能推导出一个要求必须由公务员作出决定的主观权利。因此,《基本法》第33条第4款不应简化为要求公务员的存在。要真正理解其含义,还是应从其规范目的入手,即保以中立性和客观性、公正性、无私性和合法性为特点的公务员行为。换言之,其不是主要针对一个人类公务员,而是更多地针对通过此实现的公务员行为,目标是确保行政决策是合法、明确和中立的。具体到人工智能在政府中的应用,只要人工智能能够满足《基本法》第33条第4款的规范目的,实现中立性、客观性、公正性、无私性和合法性为特征的任务执行,那么就符合功能保留原则的要求。

(二)数字政府中人工智能应用的法律界限

从前文可见,人工智能在数字政府中的应用并不存在不可逾越的界限。关键在如何确保其应用能够符合公法原则。

1. 民主原则

人工智能在数字政府中的应用,首先给宪法中的民主原则带来了冲击。民主原则是现代法治国家的共通原则,在我国宪法有明文规定。作为社会主义国家,我国民主原则最本质属性在于全过程人民民主。全过程人民民主主要包括三个层次:(1)形式民主:不可中断的民主正当性链条;(2)实质民主:实质性地保障民众的广泛参与性;(3)商谈民主:通过制度化的合宪性审查机制纠正以多数决原则为基础的代议制民主之弊端,在多元社会当中实现价值整合。不可中断的民主正当性链条意味着,在国家权力行使和运行的整个环节,都不可脱离民主的控制。在这一不可中断的民主链条中,立法、行政、司法、监察等诸项权力的行使,都离不开人民的授权和民主的控制。

随着人工智能技术的快速发展和在公共行政中的广泛应用,它在提高行政效率、优化资源配置等方面发挥了重要作用。然而,人工智能的引入也在一定程度上对民主正当性链条提出了挑战。首先,人工智能系统往往是由技术专家设计和开发的,它们在公共决策过程中的运用,并没有经过广泛的民主程序授权,这可能导致公众对这些系统的决策逻辑和结果缺乏足够的理解和信任。这些技术专家具有自身独特的价值判断,其观念并不等同于民意,但其自身价值观念很容易被导入人工智能系统之中。其次,与传统的决策模式不同,自学习人工智能不再完全依赖于人类程序员预设的指令来执行任务,而是拥有自我学习和适应的能力,能够根据环境变化自主调整行为策略。这种脱离于具有民主正当性的公务员掌控的机器自主性,使得人工智能打破了民主正当性链条,进而欠缺形式民主。最后,实质民主的角度来看,人工智能的决策过程往往具有黑箱特性,其算法的不透明性和复杂性使得公民难以有效参与到决策过程中,这与实质民主所倡导的公民广泛参与和监督公共行政活动的理念相悖。

2. 法治原则

人工智能在数字政府中的应用,与法治原则之间也存在紧张关系。法治原则强调所有国家权力的行使必须依法进行,确保行政行为的合法性、可预测性和可重现性。法的可预测性是法治的核心要素,它确保了法律规则的明确性和稳定性,使得公民能够合理预见自己行为的法律后果。这一原则要求法律明确规定行政权力的范围和行使方式,使得公民能够预见并理解政府行为的法律依据和可能的后果。可重现性也是法治原则的重要要求,这意味着政府的行政决策都具有可回溯性,错误在哪个环节发生都能够重新发现,进而为行政责任追究和权利救济提供基础。

然而,人工智能系统的引入,特别是那些具有高度自主性的系统,包括机器学习、深度学习和大模型等在内的自学习人工智能,使得行政活动在结果上无论是对于行政机关还是公民来说都不具有可预测性。此外,由于人工智能的决策过程可能缺乏透明度,其内部算法和学习机制往往被视为黑箱,这使得人工智能系统的输出结果难以预测和解释。当这些系统被用于影响公民权利和自由的决策时,如果缺乏适当的法律框架和监督机制,它们的自主性和不透明性可能会导致行政权力的行使超出法律规定的界限,从而与法治原则产生紧张关系。除此之外,随着人工智能技术的发展,不少人工智能技术并不具有可重现性,因为其输出结果并不是基于因果关系。也就是说,即便输入相同的数据,得出的结果也可能有所不同。

3. 基本权利保护原则

基本权利保护是我国宪法的重要原则,对人工智能在公共行政的应用也构成了限制。普遍认为,人工智能的发展给基本权利带来了极大的威胁,对一系列基本人权产生了深远的影响,这些权利包括但不限于隐私权和个人信息保护权,表达自由,思想和良心的自由,宗教自由,自由与安全权,公平审判权,平等权,性别平等和儿童权利。人工智能系统通过其算法可能侵蚀个人隐私,通过收集和处理大量个人数据,增加了对个人生活的侵入性监控。此外,人工智能在内容审核和决策制定中的应用可能限制表达自由,并影响思想多样性。人工智能的自动化决策过程可能缺乏透明度和可解释性,从而对公平审判权构成挑战。同时,人工智能的偏见和歧视问题可能导致对特定群体的不公正对待,违反了非歧视和公平原则。儿童可能因缺乏对人工智能影响的认识而特别容易受到操纵和侵犯。

除此之外,人工智能在数字政府中的应用,能够通过技术系统的设计来直接实现法律,尽管推动了法律执行的可能,但是可能会侵犯公民基本权利,违背宪法的根本价值。具体来说,人工智能可以在行为发生之前就通过预设规则界定可能性,从而提前防止违规行为,即理论上的通过设计的法律(law by design)。然而,这种设计也可能导致过度封锁,使得即使是合法的行为也可能被限制,这在宪法上可能难以被接受。事实上,执行本身并不是目的,最终目标是法律所设定的价值和目标,而在没有人工干预的情况下,人工智能很可能以机械执法法律为最终目标,进而侵犯公民权利。个人自由的极度压缩,也会导致社会创新和社会活力的丧失。

(三)数字政府中人工智能应用的国家责任

在民营化理论之中,民营化结果法居于关键地位,其主要作用在于确保公共任务交给私人完成以后,民主原则、法治原则、基本权利保障原则和效能原则等公法原则和价值不被贬损,对此国家负有责任。而理论界将民营化后的国家责任区分为担保责任和兜底责任。其中担保责任侧重于国家对公共任务完成的持续监督和管理控制,强调组织程序义务,进而确保公共任务能够合法有效完成;而兜底责任则侧重于私人在完成公共任务出现失灵情况下的政府补救,并对受损害的第三人权利予以救济。该理论对于人工智能执行公共任务中的政府责任也具有启发意义。

类似的是,尽管公共任务交给了作为行政助手的人工智能去完成,但政府有义务确保任务的完成合法有效,即符合民主原则、法治原则、基本权利保护和效能原则的要求。就担保责任来说,政府负有对人工智能系统的持续监督义务,以及建立确保人工智能系统合法有效运行的组织程序义务。就兜底责任来说,政府在人工智能系统失灵或者不足时具有介入接管和做出最终决定的义务。而为了实现这些责任,必须深入自动化行政的过程和逻辑,预设充分的介入渠道和控制点,使人类主体可以有效地分析、审查机器的行为并在必要时调整乃至接管系统,从而对行政过程实行精细的立体化控制

有必要强调的是,国家在履行责任时须结合具体场景综合考虑上述原则,而不能因为单一因素禁止或者完全放开人工智能的使用。例如,如果一个自学习的人工智能系统的引入对基本权利的确造成一定强度的影响,且在透明度上存在天然缺陷,但是其对任务高效高质完成起到显著推动作用,加上还存在诸如数据保存、人工审核程序、权利救济机制的补偿,那么依然可以考虑引入。


四、数字政府中人工智能的规范原则


上述规范框架更多是从宪法层面探讨数字政府中人工智能的规范框架,但是在人工智能治理实践中,更常见的是一些具体层面的规范原则,例如公平、平等、透明和人在回路等。表面看来,这些原则和私人部门人工智能治理原则是一致的。从发生学上来说,公共部门的确借鉴了大量人工智能治理经验。长期以来,科技企业在发展技术的同时,也出于消费者保护、企业信誉和企业社会责任等诸多动机发展了科技伦理,甚至一整套人工智能治理流程,以及诸如可解释人工智能这样的技术治理机制。对此,公共部门完全可以充分借鉴。但值得注意的是,公共部门人工智能治理有特殊之处,在公法的规范框架下对这些治理经验应予以调适。本文下面以公平原则、透明原则和人工干预原则为例,试图在上述建构的公法规范体系下对这些私人部门的人工智能治理原则进行重述。

(一)公平原则

公平原则也是人工智能治理中最为重要的原则之一,是指人工智能系统应该平等对待所有人,不应该有人被歧视。其核心在于,相同情况应同等对待,不同情况则应根据其差异合理地区别对待。这种原则强调了个体的独特性和情境的重要性,认为每个决策都应在具体情境中进行全面考量。公平原则的规范依据主要来源于作为基本权利的平等权,同时也是法治原则的内在要求。

人工智能系统被称为是一个歧视系统,因为其工作原理天然地容易导致歧视结果的发生。人工智能系统与公平原则之间的冲突主要源于四个关键点:数据偏差、情境理解的缺失、决策过程的不透明性以及系统的保守性。第一,数据是人工智能系统学习的基础,如果这些数据在收集或处理过程中存在偏差,人工智能系统就可能学习并复制这些不公平的模式,导致对某些群体的不公正对待。第二,人工智能系统通常缺乏对复杂社会情境的深入理解,它们无法像人类那样在决策中考虑道德和法律的细微差别,这可能导致忽视个体的独特性和情境的多样性。第三,人工智能系统的决策过程往往被视为黑箱,缺乏透明度,使得外部监督和审查变得困难。这种不透明性不仅增加了公众对人工智能决策的不信任,也使得歧视行为难以被发现和纠正。第四,人工智能系统的保守性意味着它们倾向于保留训练数据中的模式,对于新情况的适应和学习可能非常缓慢,这可能导致系统在面对社会变化时无法做出及时和公正的响应。

由于公平原则是宪法要求,国家有责任通过组织程序和技术的措施减少歧视,尽可能保证公共部门人工智能系统的应用出现歧视的情况。首先,国家需要制定和实施明确的法律和政策,确保人工智能系统的开发和使用符合公平原则。这包括对数据收集和处理的严格规定,以防止数据偏差的发生。正如上文所述,数据偏差是导致人工智能系统不公平决策的主要原因之一。因此,监管政策应要求开发者和使用者确保数据的质量和多样性,避免因数据不均衡而产生的歧视。其次,提高人工智能系统的透明度也是至关重要的。国家应要求人工智能系统的决策过程可解释、可审查,以增强公众信任并促进公平性。人工智能系统的决策过程往往被视为黑箱,缺乏透明度,使得外部监督和审查变得困难。因此,透明度的提升不仅有助于识别和纠正潜在的歧视行为,还能促进公众对人工智能决策的理解和接受。再次,致力于加强人工智能系统对情境的敏感性,在产品设计中融入个案正义的理念,纳入具体情境的参数,本文认为这都可以通过法律和技术工作者的合作实现。最后,国家需要建立持续的监测和评估机制,定期评估人工智能系统的影响,在出现有损公平原则的情况时及时更新,确保它们在不断变化的社会环境中保持公正和有效。

(二)透明原则

无论是公共部门还是私人部门,人工智能治理中的透明原则显得尤为重要。然而,人工智能系统常常被视为一个黑箱,其内部运作机制往往难以被外界所理解,这与透明原则之间存在着天然的矛盾。随着人工智能技术的迅猛发展,我们见证了从简单的预先设定的人工智能到复杂的自学习人工智能的转变。这种转变不仅增加了技术的复杂性,也加剧了与透明原则的冲突。自学习人工智能系统能够通过不断学习和适应来优化自身的决策过程,但这种自我优化的过程往往是不透明的,难以被人类完全理解。这种黑箱现象的存在,无疑给实现透明原则带来了巨大的挑战。在公共部门,透明原则更有其特殊意义,具有更高要求,这是因为其不仅是民主原则的要求,更是法治原则和公民权利保障的前提。具体来说,人工智能系统运作的不透明性使得无论是公民还是政府工作人员都无法对其予以有效控制,民主正当性链条就此中断。而不透明性也直接导致了人工智能决策的不可回溯性,即一旦发生错误,很难知晓究竟是哪个环节出现故障,进而影响公民权利救济。

因此,国家有责任保障人工智能系统的透明。有必要说明的是,即便是人工决策,其也带有较大的不透明性。社会心理学家卡尼曼用双系统模型来解释人类思维:在他看来,人类思维存在两个系统,一个系统以直觉方式运作(快速思考,系统1),另一个系统则以分析方式运作(慢思考,系统2)。与人工智能相比,人类在系统1上更具优势,在系统2上则存在较大劣势。而系统1则是一个完全不够透明的决策系统,而且带有较强的主观性。但是这种不透明性是为法秩序所允许的,原因在于政府工作人员在身份上具有民主正当性,且存在一系列的责任机制,例如责任追究和权利救济等,来对这种透明性不足予以弥补。对于人工智能系统来说同样如此,随着人工智能技术的不断进步,完全的透明是一个永远不可能实现的目标。一方面,应通过人的干预和责任机制补强其透明性不足给民主原则、法治原则和基本权利保障带来的威胁。另一方面,政府应通过组织和技术措施,尽可能提高人工智能系统的透明度。一般来说,人工智能决策主要是基于四个层面而做出:数据层面、参数和权重层面、程序层面和决策标准层面。也就是说,通过对影响决策结果的因素和流程的记录、保存和监督,可以实现人工智能决策的可追溯性和可控制性。因此,为了满足透明原则的要求,政府应能够一直拥有访问训练数据、参数权重、程序和决策规则的权限,进而实现持续控制的义务,这些信息也应当留存并公示。此外,政府应尽可能选择部署具有可解释性的人工智能系统,例如在采购时优先采可解释人工智能产品。还有人提出这样一个类似于数据最小化那样的原则:即选择一个可以达到目的的人工智能系统,该系统的复杂性程度必须被控制在必要的程度。

(三)人工干预原则

人工干预原则,也被称为人在回路原则,是近年来人工智能治理研究关注的焦点。在私人部门,人工干预原则尽管在一定程度上在法律中有所体现,但更多仍是一项伦理要求。而在公共部门,人工干预原则,也被称为公务员在回路(official in the loop),则源自民主原则的要求,构成了一项强制性要求。近年来,人工干预原则受到不少批判,主要是因为可能影响人工智能决策的质量。由于人工智能技术复杂性的不断提升,回路中的人越来越难以理解人工智能的工作原理,不仅无法起到有效的监督作用,而且还会影响自动化决策结果的质量。这一现象在公共部门可能更为明显,因为公共部门在技术素养和人才储备上明显不及私人部门。但是,人工干预原则在公共部门中之所以重要,并不是出于准确性的考虑,而是出于民主正当性的要求。前文已经指出,人工干预原则对民主正当性的补强,弥补了人工智能系统在透明度要求上的天然缺失。

因此,无论人工干预原则受到何种批评,其在公共部门都具有不可或缺的作用。为了实现人工干预原则,主要存在三种机制:事前的人工干预选择,即相对人在行政行为作出前可以选择由人还是人工智能决策;事中的人工干预参与,即人和人工智能共同作出行政决策,而不是完全交给机器决定;事后的人工干预审查,即相对人在人工智能决策作出后,可以请求人工审查。这三种机制并没有绝对的优劣之分,同样应结合具体场景综合判断。整体来说,如果不是对相对人基本权利存在重大威胁,那么事后的人工干预审查既能够发挥人工智能的优势,又能够确保一定的责任性。目前,已有地方尝试这一机制,例如德国石勒苏益格-荷尔斯泰因州在2022年出台的《关于在公法行政活动中使用数据驱动信息技术的可能性的法律》(以下简称《信息技术应用法案》)中引入的人工纠正权即体现了该项机制。

此外,尽管人工干预原则被证明可能有损于自动化决策质量,但是政府有义务针对地予以补正,这都是国家责任的体现。例如,既然政府工作人员在理解人工智能工作原理上存在障碍,那么可以通过加强培训的方式提升工作人员的人工智能技术素养,招聘具有人工智能专业技能的人才。实证研究显示,人们即使在面对来自其他来源的警告信号时,也会存在过度依赖人工智能结果的倾向,这被称为锚定效应或自动化偏见(automation bias)。人们倾向于信任算法的输出,特别是当算法复杂或决策过程困难或模糊时。根据上述研究,事后的人工干预审查应交给没有接触过自动化决策的政府工作人员重新审查,避免其受到人工智能决定的影响。与此同时,应采取适当措施尽可能发挥人机合作框架下各自的优势,加强政府工作人员对人工智能决策结果的批判的能力,发挥他们在照顾个案和行政共情上的优势。


五、数字政府中人工智能的规范路径


为了实现规范数字政府中人工智能的应用,各国政府已经初步采取了一些立法举措予以应对。但是由于尚处于摸索时期,各国路径有所不同,大致存在行政法规范路径、数据保护法规范路径和人工智能法规范路径这三大路径。本文对比这路径,并基于上述研究和我国实践,试图提出了一个较为符合我国国情的规范路径。

(一)行政法规范路径

规范数字技术在公共行政中的应用,是一个经久不衰的行政法议题,通过行政法规范的做法也由来已久。最早引起关注的是德国《联邦行政程序法》对自动化行政的规定,德国《联邦行政程序法》第35条引入了全自动具体行政行为的概念,以适应智能电子政务的发展趋势。除了联邦层面的行政程序法外,一些州立法也进行了对公共部门应用人工智能予以规范的尝试,在一定程度上体现了一定多样性。对于人工智能这一日新月异发展的技术,立法者需要积累一定的立法经验,获取更多的信息,而这些立法在一定程度上也起到了立法试验的作用。德国石勒苏益格-荷尔斯泰因州在2022年出台了《信息技术应用法案》,对数字技术在公共行政中的应用专门予以规范。其中第12条开创式地引入了人工智能纠正权。根据该规定,公民可以在基于人工智能技术做出的自动化决定公布之日起一个月内要求由自然人复查并确认或更改或撤销该决定。如果该复查有效,那么该行政行为视为尚未作出。具体到我国,目前可以考虑在《中华人民共和国行政处罚法》《中华人民共和国行政许可法》和《中华人民共和国行政强制法》等法律中对人工智能的应用予以初步回应。而如果未来行政法典化工作有望推进,那么也可以在其中进行规范。但值得注意的是,目前从各国立法例来看,普遍的做法是围绕行政自动化来规范,但这种模式已经无法满足人工智能时代的需求。

(二)数据保护法规范路径

通过数据保护法监管人工智能技术是目前各国政府采取的重要做法,可以被认为是数据保护法规范路径。从实践来看,通过数据保护法来监管人工智能技术是目前各国政府的通行做法。在生成式人工智能产生以来,全球不少数据保护监管机构对其采取了监管措施,甚至发布了专门针对人工智能的数据保护指引。本文认为,该路径本质上是一种路径依赖。在以生成式为代表的人工智能出现以后,监管者在短期无法制定出具有针对性的规制工具,只能运用数据保护的监管体制和框架对其予以规范。近年来,学界均意识到人工智能给数据保护带来了体系性的挑战,尽管提出了诸多应对机制,数据保护法也经历了风险化转型,但是这种监管上的不匹配性始终难以消除。无论数据保护法如何调整来适应人工智能的特殊性,监管过度与监管不足的问题会始终存在。也就是说,数据保护法仅能解决人工智能技术所带来的部分问题。尤其是在公共部门语境下,人工智能应用面临民主原则和法治原则的约束,数据保护法更是无法提供解决方案。加上我国数据保护的规范重心一直以来便在私人部门,通过个人信息保护解决公共部门人工智能应用显得并不具有实现可能性。

(三)人工智能法规范路径

随着人工智能立法在全球范围内的推进,通过人工智能立法对政府应用人工智能予以规范成为一种更加流行的做法。从目前的人工智能立法文本和有关讨论来看,绝大多数均对公共部门应用人工智能的情况予以考虑。在欧盟人工智能法案中,立法者延续了GDPR的进路,即采取了公共部门和私人部门一体规范的路径,即法案规定的合规义务同样适用于公共部门。而针对公共部门人工智能的应用,法案也有一些特别的立法安排。在我国,人工智能立法已经初步被列上立法计划,国内已经对此展开了深入探讨。在现有的专家建议稿中,也都涵盖公共部门人工智能应用的规范。张凌寒教授领衔草拟的《人工智能法(学者试拟稿)》(以下简称试拟稿)在第69条规定了国家机关使用人工智能:国家机关使用人工智能实施行政行为的,应当遵守合法、合理、正当、比例原则,人工智能决策仅可作为行政行为的参考。周辉教授组织草拟的《人工智能示范法(专家建议稿)》(以下简称建议稿)则在第43条规定了国家机关提供、研发义务:国家机关及其他依法具有管理公共事务职能的组织,在政务服务、公共管理等领域研发、提供人工智能的,应当遵守本法规定的人工智能研发者、提供者的义务,尤其应当保障人工智能用于公共事务管理中的安全性、透明性、公平性。本文认为,上述规定无疑具有明显的进步性,充分考虑了人工智能技术的发展和公共部门的特殊性,在一定程度上体现了公法理念。例如试拟稿明文规定了合法、合理、正当和比例原则,并明确人工智能仅能作为决策参考,这实际上是人工干预原则的体现。而建议稿也规定了安全原则、透明原则和公平原则,并初步明确了一体规范的思路。但是这些规定目前来看较为粗糙,条文数量较少,难以满足公共部门人工智能的规范需求。

(四)规范数字政府人工智能的中国路径

本文认为,较为理想的模式是在行政法典中对数字政府予以全面回应,并在其中对人工智能技术予以特别规范。然而,我国行政法法典化的努力持续了接近四十年,至今尚未取得成功。目前,行政法典并没有提上立法议程,在短期似乎很难看到立法的希望。而人工智能立法作为一项新时代立法,在全球成为一个立法趋势,在我国也被多次纳入全国人大和国务院的立法规划之中,似乎更具有成为立法现实的希望。因此,通过人工智能立法规范人工智能在公共部门的应用可能是目前较为现实的努力方向。至于数据保护法的规范路径,前文已经指出,在我国当下不太具有可行性。因此,我国未来对数字政府人工智能的规范主要寄希望于人工智能立法。

无论采取何种立法模式,最重要的是改变立法思路,即从行政行为自动化的规范思路转向对人工智能本身的规范思路。行政行为自动化的讨论是缘起于电子政务时代,尽管对人工智能技术的发展进行了一定程度的回应,但是仍是建立在弱人工智能和简单算法基础之上。从现实来看,这也的确符合我国数字政府建设的实践状况,但是科技立法应具有一定的前瞻性。尤其在我国人工智能立法进程中,考虑技术、产业和应用的发展趋势至关重要,否则法律很快就被技术进步所淘汰,德国联邦行政程序法第35条的规定即是典型例子。面对人工智能技术的发展,尤其是强人工智能时代的来临,是否自动化的区分已经不再重要。即便是人工智能辅助行政决策,由于锚定效应的存在,人们总是倾向于直接采纳这一决策结果。而强人工智能的黑箱属性,以及决策结果的不可预测性与不可重现性,对民主原则、法治原则和基本权利保障都带来了严峻挑战。此时规范的重点应是如何确保人工智能系统在公法秩序框架下运行。

从目前专家建议稿来看,关于政府应用人工智能的规定尽管存在而且具有很强的开创性,但是仍相对单薄。在未来人工智能立法进程中,应设专门章节规定,突出与私人部门的不同。如果说私人部门人工智能立法的重心在于发展与安全之间的平衡,那么公共部门的核心则在于解决公共任务交给人工智能完成后公法价值的维持,突出民主原则、法治原则和基本权利保障等原则的指引。而为了实现这一目标,公平原则、透明原则和人工干预原则可以明文规定,并在具体的制度设计中予以体现。以人工干预原则为例,可以规定人工智能决定的人工纠正程序,甚至确立辅助原则,即人工智能仅能作为决策参考。除此之外,还应加强对政府工作人员人工智能素养的提升,进而在人机合作框架下发挥各自的优势。以透明原则为例,可以规定训练数据、参数和权重、算法和决策标准等关键要素的记录、保存和公示义务,规定政府应鼓励可解释人工智能开发以及在数字政府中的应用,在能实现同等功能的前提下优先采购可解释人工智能。以公平原则为例,可以明确规定训练数据的质量和全面,避免训练数据导致的歧视,建立持续监控和定期更新程序,鼓励开发能够兼顾具体情境和个案特殊性的人工智能系统。


六、结论


回顾历史,公共任务民营化的过程呈现出从初步的局部排斥到最终的全面接受的演变轨迹。当前,我们面临的主要问题不再是为民营化设定界限,而是在公共任务民营化之后,如何确保原有的公法秩序得以维持和适应新的挑战。人工智能在公共部门中的应用也会经历类似的过程。通过人工智能实现公共任务并不存在任何法秩序上的障碍。此外,人工智能还能够促进行政活动的质量,解决我国行政管理中存在的诸多问题,无论从合法性还是合理性角度而言均不应排斥人工智能的应用。问题的关键在于如何确保公法原则不被贬损。随着人工智能技术的不断发展,其自主性和复杂性越来越强,黑箱现象日益明显,与民主原则、法治原则和基本权利保护原则之间的冲突也越来越大。此时国家应承担担保责任和兜底责任,通过组织程序、程序和技术措施,尽可能保证同等程度的责任性。我国应把握人工智能立法这一契机,对公共部门人工智能应用予以充分回应。