摘要:人工智能的勃兴推动了自动化行政的发展。算法是实现自动化行政的手段,手段应服务于目的。自动化行政目的分为法意目的和工程目的,内含“范围”“价值”“效果”基准,构成了算法目的范式。算法目的失范自算法规则制定伊始就已伴生,呈现出越权隐患、价值迷失、系统缺陷等样态。算法规则是特殊行政规范,应当以比例原则为检视路径审查具体算法规则的正当性,并围绕事前算法制定环节、事中算法运行环节、事后算法审查环节整体性构建关于算法目的的公法规制框架,以系统治理算法目的失范。
关键词:自动化行政;算法目的失范;比例原则;公法规制
当今世界,人工智能掀起的科技革命自夯基之始逐渐厚积成势,已深嵌于社会各领域。在公共行政领域,更是出现了以自动化行政替代人为活动的发展态势。随着数据挖掘、人脸识别、智能预审等新技术层出不穷,行政权开始弃守其本应由人类把守的藩篱。
对于关涉行政权运行的行政法学而言,“自动化行政”并非规范意义上的概念范畴,而是对图示化、智能化行政活动的一种描述。《法治政府建设实施纲要(2021—2025年)》将“智能高效”作为法治政府的建设目标,强调运用人工智能等技术手段促进依法行政,实现公共行政智能化与法治化的有机融合。显而易见,在某种程度上,这是治理主体对“自动化行政”的政策性认同。当然,自动化行政并不是一个新事物,其发端于“政府上网”的理念,经历了“互联网+”模式的重塑,在大数据时代迅速呈现“智能化”转向。这种转向的动因,是人工智能的勃兴与新算法的涌现。
“算法”是良定义(well-defined)的计算过程,以有限、抽象、有效、复合的控制结构,能够在给定条件下实现给定目标。也就是说,算法是实现自动化行政目的的手段。手段应当服务于目的,不为实现一定目的的手段是不会被创造出来的。现实中,算法目的酝酿于设计主体的理解,服务于行政主体的期待,渗透于自动化行政的过程,最终指向对自动化行政目的的增进或实现。当算法无益于实现行政目的时,即为“算法目的失范”。
算法是中性的,本身并不承载价值。“由于人类能力的发展和人类智慧的进步,不平等才获得了它的力量并成长起来。”为有效防范算法目的失范所造就的价值偏差,本文以自动化行政过程为逻辑起点,首先探明算法适当目的的内在意蕴,进而识别目的失范的多维样态,继而回溯到算法规则制定的上游,并且引入比例原则对具体的算法规则进行检视审查。同时,研究视点流转往返于算法规则与自动化行政过程之间,亦在整体性公法规制框架下铺陈开对算法目的失范进行系统治理的制度构想。
一、算法的适当目的蕴藉于自动化行政过程
算法目的由行政目的所赋予。它被设计、开发和部署,皆是为了部分或全部实现行政目的。行政目的一旦确定,算法的未来结果也得以固定。自然,该结果也就反向赋予算法以正当性。因此,有必要对自动化行政目的予以准确描述,以期联动地确定算法的适当目的。
(一)自动化行政的“过程性”
自动化行政改变了以往的行政法治范式。它通过互联网、大数据、云计算等技术手段,搭建起自动化平台系统,由算法引导数据实现自动传递、互联互通,使得大量原本需要人工完成的信息收集、分析、处理工作实现了自动化运行。由此可见,自动化行政目的的实现,需要一系列连续作出的步骤或行为来达成。以自动化行政审批为例,该业务办理可以简单分解为申请、受理、办理、办结、反馈等步骤,全过程依托政务服务数据共享平台支撑,业务数据在互联网政务服务门户、政务服务管理平台、业务办理系统之间流转,自动完成信息的收集、分析与处理。具体自动化流程如图1所示。

可见,自动化行政具有动态性、整体性,运用传统行政行为理论进行应对已捉襟见肘。原因有二:一是灵活、开放的自动化行政类型势将冲击固化、封闭的概念分析方法。因为,层出不穷的算法必将导致行政行为概念崩溃,套用传统的类型化行政行为来考量、评判和审查自动化行政的合法性必然流于僵化。二是连续、动态的自动化模式必然挑战定型、静态的传统行政行为框架。因为,自动化系统的核心往往需要全阶段数据的持续“供养”,而行政行为理论仅处理某一时点的法律关系,至于后续发展则不再关心。
鉴于此,对于自动化行政的考察,不宜拘泥于某几个具体的行政行为形式,而应以“过程论”的视角透视自动化行政的动态运行。一是应关注行政相对人或利害关系人的行为。因为自动化行政目的的实现,相当程度是相对人或利害关系人与自动化系统交互操作的结果。例如无人干预自动审批。二是应关注行政行为之外的各种行为形式,包括行政主体的事实行为和柔性行政活动。只有将这些行为形式作为整体把握,才能全面认识自动化行政的法律效果。例如公安部门使用交通流量预测系统,向市民提供行政指导。三是应关注自动化行政过程的层次性。关于行政过程的范围存在不同理解,大体可以划分为最广义、广义、狭义、超狭义四个层次。四是应关注自动化行政过程的阶段性。借鉴有的学者提出的“行政过程阶段性构造” 的分析框架,可以将复数行为组成的整体界定为自动化行政的宏观过程,划分为标准阶段、行为阶段、执行阶段和救济阶段。将单一行为的过程界定为微观过程,抽象为信息的收集阶段、分析阶段和处理阶段。需要说明的是,当自动化技术应用于宏观过程的某几个阶段时,该行政过程可以纳入广义上的自动化行政范畴;当自动化技术应用于微观过程的某几个阶段时,则属于自动化辅助行政或者部分自动化行政。
(二)自动化行政目的的“层次性”
行政主体所作的系列行为,均为实现自动化行政目的。鉴于自动化行政过程的层次性,行政目的也相应具有一定的层次性。一般表现为较大的目的由较小的目的组成,实现较小目的是实现较大目的的前提。具体而言,宏观过程的主观意图为宏观目的,微观过程的主观意图为微观目的,二者均体现出行政法的内在意愿与价值理性,共同构成自动化行政的法意目的。此外,微观目的的实现依托于算法构成的工程系统,这些系统的设计有相应的工程目的。可见,自动化行政目的层次可以划分为法意目的与工程目的。具体层次构造如图2所示。

自动化行政的法意目的是通过复数行为或单一行为,维护公共利益,保障公民权益。具体而言,宏观目的是实现对某一场域的治理。目前,自动化行政已经涉及破案打击、治安防控、反恐维稳、规范执法、情报研判和服务群众等场域。微观目的是完成对具体领域的规制,表现为行政行为和行政相关行为,能够产生创制性效果、解释性效果或指导性效果。法意目的的形成缘由有三:一则,行政机关的身份是公共利益的维护者,其行为无外乎“完成国家之目的、制限个人之自由、增广人间快乐之境遇、扩充人间处世之机会”。二则,行政机关的行为必须受行政法的约束与限制,且符合行政法的立法目的,即保障公民的合法权益。三则,法意目的的依据是行政职权,即行政主体依法享有的、对于某一行政领域或某个方面行政事务实施行政管理活动的职责及其权能。
自动化行政的工程目的是设计、开发、部署能够完成特定任务的自动化系统。该系统通过数据挖掘收集信息,借助大数据模式分析信息,通过算法决策处理信息。在此过程中,算法、算力和数据是推进达成工程目的的三驾马车。首先,算法是自动化系统的核心,算法分为机器学习算法与普通算法。机器学习算法是从大数据里生成和选择模型,具有自主学习能力,在运作中能够自动优化模型。普通算法是使用人类定义的模型,结果具有可预测性,即同样的输入值会得到同样的输出值。其次,算力是自动化系统的保障,基于机器学习算法的自动化系统在模型训练与推断方面都需要算力的支持。最后,数据是自动化系统的“燃料”,对数据收集、分析、处理是查明信息、作出决策的过程。“信息之于规制,犹如血液之于生命。”在现实中,需要由技术开发方、项目规划方和行政机关就数据的采集、处理及使用达成共识。
(三)自动化行政目的:算法目的范式的基准
美国科学史学家托马斯·库恩提出“范式”(paradigm)的概念,意指某一个历史时期为大部分共同体成员所广泛承认的问题、方向、方法、手段、过程、标准等,有“模板、模式”之意。依照常理,算法的目标只是实现工程目的。但在行政过程中,算法目的若没有为实现法意目的的内在要求留有余地,自动化行政的结构就会危如累卵,进而酿成整个行政体制的系统风险,甚至撼动行政法治的基本原则。因此,有必要对自动化行政目的的内在要求进行解构,确定算法的“范围”“价值”和“效果”基准,并由此形成算法目的的基本范式,确保算法不仅与其工程目的合拍合辙,而且与其法意目的同向而行。
首先,自动化行政的宏观目的限定了算法的范围基准。理所当然,行政管理的灵活性意味着多种行为选择的可能性。但是,自动化行政的宏观目的限定了管辖权的范围,构成一个内在的、实质的界限。行政机关应在该范围内选择如何行为,若逾越职权界限,则被视为越权。实践中,算法嵌入公权力的运行,能够实质性调配资源且作出决策,所以也必须以宏观目的的实现为范围基准,避免行政机关借助算法扩张自己的权力版图。
其次,自动化行政的微观目的预设了算法的价值基准。自动化行政过程所追求的价值目标,需要考虑行政法总体的价值追求与不同行政主体各自的价值追求。现实中行政关系纷繁庞杂,面对价值的对立与冲突,例如自由与秩序、正义与效率,行政机关必须在不同价值目标之间权衡取舍。
最后,自动化行政的工程目的决定了算法的效果基准。工程目的是算法的直接实现效果,算法是工程目的的技术解决方案。不同类型的算法提供的解决方案不同。对于普通学习算法,是由算法设计者预先设置指令,然后输出确定的信息。对于机器学习算法,则需要围绕数据处理、模型训练、部署运营和安全监测等环节形成丰富完善的算法工具链,并且引入量化评估指标来反馈系统性能,这种反馈会促使机器学习模型不断更新迭代。
综上所述,算法目的既是设计者用数学工具包装出来的主观观点,又是行政主体对于行政权实际运行的预设效果。毋庸置疑,算法对于实现预设效果具有积极意义。但是,行政活动的目的不是一个孤立的效果实现,而是在动态过程中“体现法治的价值诉求”。换言之,算法目的范式蕴藉于自动化行政过程,以“范围”“价值”和“效果”为基准,在技治与法治之间保持必要的张力与平衡。
二、算法目的失范的多维样态
算法目的范式由“范围”“价值”和“效果”基准构成。如果设计算法的目的本身偏离基准,致使自动化行政目的无法完全实现,便会形成算法目的失范的具体样态,最终导致技治与法治之间张力结构的断裂与脱节。因此,与自动化行政目的的内在要求相照应,对算法目的失范的样态描述和原因探究也需要从范围、价值和效果三个维度展开。
(一)范围之维:算法黑箱掩盖越权隐患
自动化行政的宏观目的是实现对某一场域的治理。对算法目的的内在要求是“在法所容许的范围内,受到法的适当支配,始符合法治国家依法行政原则的要求”。申言之,算法目的应在行政职权的法定范围和边界内,不能逾越行政权限,否则构成滥用职权。
1.算法可达致多重目的
现实中,行政部门所选择的规制措施可能会实现多重目的。学界将多重目的的情形归为四类:一是多重目的的等价并联,即算法出于多重目的考虑,而且这些目的在价值上是等价地位;二是主要目的与附属目的,即算法的意图有主次之分,次要的是附属目的;三是明示目的与隐藏目的,即在明示目的的背后,存在着不能明示的隐藏目的;四是主要目的与远程目的,即在主要目的之外,有可以扩展出去的远程目的。在自动化行政中,算法作为规制的手段,受人的主观认知偏好影响,同样也会产生上述多重目的的情形。
2.算法多重目的的规制规则
在现代法治国家,行政主体必须严格遵循“法定职责必须为,法无授权不可为”。据此,可以推导出规制算法多重目的的一般规则:其一,多重目的均有授权的,视为合法。例如,交通管理领域的智能交通信号灯系统,既可提升交通通畅度,又可降低交通事故风险。其二,主要目的有授权,行政主体通过未授权的附属目的或隐藏目的获得了一些次要的附带利益的,该行为亦合法。例如,行政主体通过智能城市管理系统优化资源分配、加强城市基础设施、提升公共服务水平的同时,也获得了收集市民行为数据的附带利益。其三,借授权目的之名、行越权之实的,属于非法行为。例如,在“新冠疫情”期间,有些地区的村镇银行储户健康码被强行赋红码,严重侵犯了公民的人身自由。其四,主要目的无授权的,则该行为不合法。例如,行政机关在无授权的情况下,利用海量数据对相对人进行画像。
3.算法多重目的的越权隐患
统合以观,自动化行政中多重目的存在越权隐患。首先,技术交叉引发目的交叉。自动化系统中存在多种技术的合纵连横,比如机器学习、数据分析、传感器技术等。设计者可能在系统的组件、模块中嵌入多个目的,以确保系统在不同方面表现良好。在系统中,算法形成具有复杂层次的“手段—目的”链条,交叉的、多层次的技术与目的,共同塑造了系统的行为和性能。其次,算法黑箱掩盖越权目的。算法黑箱加剧了权力行使的隐蔽性,使得算法设计者和行政主体掌握了将偏好与特权隐藏于算法架构的能力,更加剧了行政主体与相对人之间的“算法鸿沟”。“算法鸿沟”凭“算法黑箱”而生长膨胀,却又借它遁于无形。最后,公民往往只能被动接受算法规制的结果,却无力揭开权力寻租的“面纱”。
(二)价值之维:效率优位引发价值迷失
自动化行政的微观目的是实现对具体领域的规制,本质是对不同的价值取向予以有序保护。“有序”是指诸多价值按照一定位阶排列,高位阶的价值被优先考虑。具体领域的规制效果,则是设定算法目的时对价值位阶排序的遵从基准。
1.算法蕴含价值判断
人们对自动化行政的期待,是既推进整体公共利益,又维护个人合法权益。关于二者的关系,德国行政法学家毛雷尔一语中的:公共利益和个人利益有时相互一致,有时相互冲突。为了实现公共利益,有时需要限制公民权利,或增加个人负担。要使相对人接受对其不利的行政决定,就必须对利益冲突进行调和。因此,生成该行政决定的算法就必须同时蕴含事实判断与价值判断。“价值”是内在的、主观的概念,它所提出的是道德的、伦理的、美学的和个人喜好的标准。而算法是纯粹客观理性的工具,只能依赖算法目的中所植入的道德伦理进行价值判断。“不要宣称算法是道德的。虽然算法可能模仿道德,但除非它理解它所做的道德选择,否则算法不可能是道德的。”若算法伦理偏离价值基准,将削弱行政主体行使权力的合法性,甚至引发严重的信任危机。
2.算法以效率为核心价值
应当指出,自动化行政并非政府在“有温度的人性”与“无道德的算法”之间弃明投暗,而是兼取“人类算法”与“数字算法”之所长。具体而言,推动算法应用于公共行政的缘由有二:其一,可用“大数据”的规模呈“指数级”增长,彻底改变了程序设计、机器学习模型的训练和执行方式;其二,私营领域的算法应用呈“指数级”增长,也引发政府对私营领域进行有效监管的算法需求呈“指数性”增长。由此可见,政府出于对算法专业化、高效性的需求,将算法嵌入了公共治理的疆域,形成了“自动收集、自动分析、自动处理”的自动化行政过程。可以说,效率是算法中最突出、最显著的价值理念,算法秉持的就是一种以效率为核心的群组正义观。
3.算法的效率优位致使利益保护失衡
毫无疑问,在算法目的中完全遵循效率优位,必然忽略或降低平等、公正、宽容等其他价值偏好,终将导致利益保护的失衡。退而言之,即便在算法中选择性地植入了一些较为“柔软”的理念,效率优位也会使算法对其他价值日渐式微。因为,算法就会根据行政主体单一化的效率偏好不断迭代强化。如果算法主体是理性人,且偏好更高收益,这意味着算法决策将总是采取严格优势策略且避免任何劣势选择。那些收益不明显的价值将次第让位于效率,形成算法目的的价值迷失,终将撼动法治政府的基础。
(三)效果之维:假想因果导致系统缺陷
自动化行政的工程目的是根据预定义的指标进行抽象认知,集成“自动收集、自动分析、自动处理”的工程系统。它对算法目的的内在要求是:一是能够客观量化系统功能;二是能够最大化发挥数据要素效能;三是能够筛选出可用的指标。满足这三个逻辑假设,才符合算法目的的效果基准。
1.指标选择关乎算法公正
指标是用于衡量、评估或比较某种事物的标准或度量。算法借助指标,将复杂的现实世界简化为由数据组成的模型。选择指标时需要考虑指标与预设功能之间的相关关系,比如因果关系、关联关系、反馈关系等。其中,选择与预设功能具有因果关系的指标,将使得算法的处理结果相对客观公正。按照休谟的因果关系理论,具有因果关系的指标和功能之间具有三层关联:一是时空毗连,即指标的内容与功能的效果处于相近的时空;二是时间顺序,即指标应用在先,功能实现在后;三是恒定关联,即所选指标与功能实现之间具有必然联系。
2.指标选择基于经验
在休谟看来,因果关系不同于逻辑,而是来自于经验。当我们反复观察的两种现象相伴而生,“我们便认定二者之间有某种联系,某种力量,使其中一现象能够屡试不爽地、确定地、必然地产生另一现象”。实践中,算法设计者与行政主体对于因果关系的理解也是一种基于经验的进路。本质上,这是一种对未来的预测,即算法主体和行政主体在选择某一指标时,相信这一指标的应用与功能实现具有因果关系,这种确信显然是一种推断式确信,会受人的主观偏好影响。
3.假想因果致使指标失效
算法设计者和行政主体是否具备足够经验来识别因果关系并筛选出可用指标呢?有学者发现,指标集通常基于年度数据收集,但数据处理的过程可能耗时较长,导致这些指标数据滞后于当前形势变化,无法准确反映大型复杂组织内部质量的显著变化。鉴于指标的选择和应用是一种推断式确信,因此算法的实现必然带有预测的不确定性。这种不确定性将使得自动化系统内部存在算法偏见、算法歧视、算法共谋等潜在缺陷。
2020年10月,美国佛罗里达州启动了一个算法模型,用于预测其司法管辖区内可能犯罪的人。当该算法确定某个人被认为有犯罪风险时,警方会访问该人的住所,并以任何可能的理由对其进行逮捕。该算法确实建立了一个智慧警务系统,但是算法采用的指标与预测结果之间可能存在假想因果关系。也就是说,即便出现了指标所考量的情况,也不一定会导致犯罪结果。因此,错误的指标会引发系统的内在缺陷,这将导致无辜的公民被错误逮捕。
综上所述,算法目的失范将会导致越权隐患、价值迷失和系统缺陷。而且,算法的运用通常是以规则的形式嵌入事实认定层面,我国现行行政诉讼法并不鼓励对事实问题采取过于严格的审查标准。因为“法官是法律问题专家,然而考虑到不同部门涉及的领域不同,他们必须尊重行政管理人员的专业知识以及他们对事实的认定”。因此,相对人纵然享有提起行政诉讼的申请权,却因信息不对称、资源不对等以及法院对事实问题的过度宽容而难以获得实质性的权利救济。
三、算法规则正当性的行政法检视路径
自算法规则制定伊始,算法目的失范就已伴生。目前,学界热衷于探幽算法属性。这种不断重返“事物本身”的努力,初步形成了“技术论”和“规范论”两种认知模式。“技术论”将算法视为法律规制的客体,即实现法律规范的工具或者“承载法规范的计算程序”(normativ aufgeladene Programme)。“规范论”将算法视为规范本身,最具代表性的主张是约耳·芮登博格(Joel Reidenberg)提出“代码即法律”。笔者以为,形成上述两种认知的原因在于“算法”概念的模糊性。我们在理解算法时应注意区分静态的算法(即算法规则)和动态的算法(即算法运行),也就是美国行政法学者科利亚尼斯(Coglianese)所区分的“自动化规则制定”(robotic rulemaking)和“算法裁决”(algorithmic adjudication)。当我们聚焦于算法规则的制定时,有必要从规范论的视角出发,即将算法置于行政法规范体系之中予以评判。然而,目前我国关于算法规制的行政法规范普遍缺位,且相关制度供给严重滞后。这就要求我们必须上升至行政法基本原则中援引依据和标准。其中,可供评判算法规则正当性最直接的标准应为比例原则,即通过手段与目的之间的均衡体现个案正义和实质正义。
(一)算法规则属性之澄清
在计算机科学中,算法是执行计算和数据处理的规范(specifications)。将算法规则置于行政规范体系之中,遭遇的首要问题是:它是否与法的规范具有同等的法律效力,即算法是否有权威性或约束力?在实然层面,算法能够为行政决定提供依据,或直接作出行政决定,显然已经具备了法的规范效力。在应然层面,算法规则的法律效力却有待深究。
1.自动化行政过程的法律适用
行政过程是将纸上的法律规范适用于具体个案的法律活动。依据三段论的涵摄模式,行政主体只有在认定事实和适用法律的基础上,才能设定、变更或消灭相对人的权利义务。在自动化行政中,法律适用的过程可以演变为下图所示的几个阶段(如图3所示):

输入阶段:输入的内容包括案件事实和法律要件。
算法运行:算法判断案件事实要件是否与法定事实要件一致,确定法律后果的三段论推理模式:大前提(对T的每个事例均适用法律后果R);小前提(S为T的一个事例);结论(对于S应适用法律后果R)。
输出阶段:输出法律效果。
在此过程中,因为人类语言与计算机语言之间的不适配性,因此需要经算法设计者转译,将行政目的转译为由代码表示的算法指令,辅助甚至替代行政机关完成若干步骤。需要转译的要素有:案件事实(转译为小前提)、法律要件(转译为大前提)、结论(转译为法律效果),这些要素不可避免地带有算法设计者的主观认知。
对于行政主体而言,尚有主观判断余地的要素是法律要件和结论。理由如下:其一,法律要件涉及行政主体的主观认知,“任何制定法都需要解释,而且不是所有法条都规定在制定法中”。这说明行政活动可能面临没有制定法或制定法需要解释两种局面,那么理论上需要有创设性算法和解释性算法进行转译。其二,结论涉及行政主体的主观意志,本质上是行政机关的效果裁量,所以需要算法规则作为裁量基准,包括情节补充和效果选择。
综上所述,创设性算法、解释性算法以及裁量性算法,均体现出行政的能动性,具有普遍的约束力,可以将其命名为行政规则类算法(以下简称“行政算法”)。除此之外的算法规则,只涉及对客观事实的转译,不具有法的规范效力,应视为技术规则类算法(以下简称“技术算法”)。至此,有必要廓清行政算法的法律属性边界,全面透视算法背后的权力运行。
2.行政算法的内涵
关于行政算法的内涵,应从三个层面来把握:其一,制定主体是行政机关。因为算法规则由行政主体设定,再委托给算法设计者加以实现,因此该算法的主体宜表述为行政机关;其二,制定依据是宪法、法律、法规、规章及上级规范性文件的要求或者授权;其三,制定目的是创设、解释和裁量。
创设性算法的目的在于创设要件,要求行政机关具备宪法和组织法上的职责权限依据。面对现实中纷繁复杂的行政事务,行政机关往往会在法规范“穷途末路”之地创制一些规则,以提高行政效率,维护社会秩序。创设性算法的作用可以细分为“创设规则”和“创设指导”。比如,“新冠疫情”期间健康码中就有算法的创设规则,帮助政府或相关机构对人群的健康状况进行有效管理和筛查,以便及时采取相应的防控措施。又如,公安部门使用交通流量预测系统属于算法的创设指导。
解释性算法的目的在于解释法律、法规、规章或上级行政规范中已经形成的法律要件。如果法律要件已经明确,则解释性算法以实际执行为目的;如果法律要件尚不清晰,则解释性算法以细化补充为目的。解释性算法是一种主观上的认知问题。原则上在法律规则既定的情况下只有一种正确答案,但现实情况复杂多变,需要把抽象的法律规则转化为以事实要素为构成的算法指令,使机器可就个案事实进行组合运算。从而使法律规定更加具体明确,避免陷入法律难以适用的困境。
裁量性算法出现在算法行政决策过程中,是行政机关预设了一些补充情节作为裁量因子,以及这些情节与法律要件结合后所触发的法律效果,包括对行为方式、行为内容、行为程序、行为时间的裁量。在自动化行政中,必要的裁量可以发挥行政的能动性,有利于实现个案正义。
3.行政算法是特殊行政规范
在我国,狭义上的行政立法是指行政法规和行政规章;广义上是指包括行政机关创制的各种规则,有学者主张使用“行政规范”这一名称。在实在法层面,我国行政诉讼法第13条和行政复议法第12条将其表述为“具有普遍约束力的决定、命令等规范性文件”。行政算法在形式上虽然没有规范化的文本,但能够以自动化系统为载体,产生实质性的约束力。因此,应将算法纳入“行政规范”的概念范畴之中,即行政算法是一种在载体形式上与时俱进的特殊行政规范。
具体来说,创设性算法属于自主性行政规范,是行政机关为了行政管理的实际需要所自主制定的算法规则。依法律效果的不同,其可以分为创制性行政规范和指导性行政规范。解释性算法属于解释性行政规范,是为了适用法律、统一认知,对法律、法规、规章以及其他规范性文件进行解释而形成的算法。依制定目的的不同,其可以分为执行性解释规范和补充性解释规范。因为解释性规范没有独立设定权利义务,故而不能构成一个独立的外部行政行为。裁量性算法属于裁量基准,属于行政自制规范,是行政惯例和法律原则的载体,目的在于对裁量权的正当行使形成一种法定的自我约束。(见表1)

综上所述,行政算法整体上属于行政规范,是非制定法源,并不直接构成对法院审判具有强制性和拘束力的依据,但在事实上有法律规范的功能。因此,有必要设计针对具体算法规则的行政法检视路径,以识别某一系统建设及运行过程涉及的算法规则的目的失范,防范自动化行政系统的设计者和使用者借此恣意滥权。
(二)比例原则的理论重构
算法可能对公民的权利义务产生现实影响。为了避免价值偏差的发生,必须确保算法规则目的适当,且采取的手段有助于目的实现;在同等有效地达成目的的手段中,应选择对相对人损害最小的手段,即应当遵循比例原则的基本要求。
1.传统比例原则之内涵
法治国家理论中的比例原则,是为了保护公民权利而加诸于国家行使公权力的分寸要求。比例原则是指导公权力行使的基本准则,能够最大程度检视因果关系的有效性,增强对行政行为的可预测性。关于比例原则的内涵,“三分论”是目前学界的通说,即包含适当性、必要性和均衡性三个“子原则”。
显然,将传统的“三分论”应用于算法规则制定过程中,有助于防范自动化行政过程中价值迷失,避免假想因果导致的系统缺陷。其法治功能有二:其一,比例原则的内容包含了对价值伦理的考量,能够兼顾算法规则对公共利益的推进效应与对个人权益的保障使命。比例原则的目的在于调和公益保护和权利克减,通过利益衡量排除算法中根深蒂固的效率优位理念,让个人利益能在算法的天平上受到公平考量。其二,比例原则对手段运用合理与否的关注,有助于防范算法指标选择错误导致自动化系统缺陷。因为,比例原则蕴含着经济性的分析策略,可以通过反复的“比较”与“量化”,最大程度地避免假想因果,排除不适当的先验指标。
但是,传统比例原则却无法回应因多重目的导致越权隐患的失范样态,无法对算法规则的目的正当性进行严格审查。这显然有悖于一般逻辑进路:无正当之目的,自然无正当之结果。如果算法目的不正当,则后续对手段进行审查、对利益进行衡量就无意义。因此,有必要对比例原则进行重构,用全新视角防范算法目的跌入失范之境。
2.比例原则的“四分论”
当前,学界已普遍关注到比例原则中“目的正当性原则”的缺失。“目的正当性原则”是指以科学的判断方法与标准,审查立法活动、行政活动限制公民权利目的的正当性。在运用目的正当性原则审理个案时,首先应当查明立法者、行政者的真实目的,否定明显不正当的目的;然后以适度的司法克制与尊让,综合判断目的的正当性。如何在传统比例原则中加入目的正当性原则?学界有两种观点:一是保留传统比例原则,在适当性原则中加入目的正当性原则;二是将传统比例原则修改为“四分论”,在适当性原则前加入目的正当性原则。
笔者更加倾向第二种观点。因为,法治理论的发展绝非为了逻辑自洽的自娱自乐,而是为了精准有效地解决原有理论无法回应的法治难题。本文引入比例原则的目的是为了形成对算法规则的清晰检视路径,其基本要求就是层次清晰,指向明确,具有可操作性。更何况,算法目的失范样态的出现,很大程度上恰是因为对目的正当性的漠视,因此有必要以独立的“子原则”的形式凸显其重要性。综上,经发展重构后的比例原则应该包含以下四个“子原则”:目的正当性原则、适当性原则、必要性原则和均衡性原则。
(三)作为一种检视路径的比例原则
比例原则的优点在于思路清晰,层次明确。但是将抽象的理论应用于具体的算法规则还是需要进一步提炼出在法解释学上具有可操作性的分析路径。从“四分论”出发所形成的检视路径旨在适用于更广泛的场域,包括算法规则的制定、运行以及后续的审查,相关主体都应当审慎地遵照比例原则的要求仔细斟酌、权衡利弊。
1.目的正当性原则
目的正当性原则是判断算法目的是否在算法目的范式的基准之内。其检视审查包含如下三个步骤:
第一步,查明目的。包括行政主体的目的与算法设计者的目的,行政主体的目的一般体现在行政算法的设计中,可供考察评判的载体是交付给算法设计者的需求说明书、项目开发过程中的沟通记录,以及后续部署使用后的反馈及调试意见。算法设计者的目的通常是基于行政主体的要求,但不可避免会夹杂个人的主观认知,所以应当要求设计者提供有意义和有特定指向的算法解释说明书。但是,从机器学习模式的角度来看,只有监督学习状态下的算法才在设计者的掌控之下。对于无监督学习和强化学习而言,结果是无法预测和解释的。因此,除了掌握承载着行政主体和设计者主观认知的材料外,有必要进行沙盒测试,依靠数据的大批量统计不断逼近真实的测试结果,进而检验有无遗漏目的。
第二步,确定目的。普通算法的目的较为单一,而机器学习算法可能会有多重目的,有的目的正当,有的目的则不当。应确定究竟哪一目的对算法结果产生的影响最大。判断方法包括主导目的说、真实目的说、决定原因说以及两种逆向推定方法(因果关系说和反推理论)。这些方法互为补充,从不同的角度和侧面去观察目的的作用和影响。
第三步,审查目的。首先,审查目的的合法性。判断有无合宪性与合法性基础,如果滥用职权、违宪违法,则将直接进入非法状态,审查即告终止。其次,审查目的的合理性。通过与算法目的范式的基准逐一对比,确保算法目的能够增进或实现自动化行政目的。最后,依据规制算法多重目的的一般规则予以处理。
2.适当性原则
适当性原则是判断具体算法是否有助于实现行政目的。需要强调的是,这并非一种事后检验,而是检视相关主体的事前预测是否有足够充分的依据。如上所述,在自动化系统中存在两类算法:行政算法和技术算法。它们的目的并不重合,行政算法目的内涵更宽泛,因此需要分别判断。
对于技术算法,只需要判断是否有助于实现自动化行政过程中的工程目的。对于行政算法,则需要判断所调用的具体算法是否有助于实现自动化行政过程中的法意目的和工程目的。起初,确保“正当联结”。它要求具体算法与目的之间的联结必须是合理正当的。检查算法功能,判断算法的调用、指标的组合、数据的筛选是否有助于实现行政目的,在判断时,需要结合行政算法规则制定时的事实基础和社会经验。继而,排除“实现不能”。若所制定的算法在方向上是与行政目的一致,但是在实践中不能达到预设效果,则不认为符合适当性原则。比如,部署大规模的神经网络,但如果算力不足无法满足实时处理的需求,算法的实施不能达到预期效果,也就违背了适当性原则。
3.必要性原则
必要性原则是判断手段是否符合最小侵害的要求。这里的手段包含两个维度,即行政之维度与算法之维度。该原则需在两个维度上同时符合最小侵害的要求。行政之维度是指行政机关用以达到行政目的所选择的手段和措施,比如创设的规则、行政裁量基准等。算法之维度是指自动化系统中可供调用的算法。此外,适用该原则的前提是,有多种手段可供选择。如果有一维度缺乏选择余地,则只要另一维度满足最小侵害的要求就可被视为整体符合了必要性原则。
首先,确定达成目的可供选择之手段,形成“从自由放任到全面禁止的渐进谱系”。其次,对于相同有效性手段的损害比较,只需要比较这些不同手段的原始损害大小,就可以选择出一个最小损害的手段。对于异同有效性手段的损害比较,可以采用成本收益分析方法,科学准确地确定不同手段的损害值与收益值的大小,再借助于手段的相对损害计算公式,实现相对客观准确的判断。最后,对于确定的手段,还需要考虑不同的实施时间、场所以及标的等内在构成要素是否满足最小侵害的要求。
4.均衡性原则
均衡性原则是衡量算法规则中所欲侵犯和所欲保护的法益是否均衡。这需要将二者放在一个客观的天平上加以衡量。对此,学界形成了两种进路:权衡者进路与当事人进路。在实践中,当事人进路的事实问题商讨模式虽有助于从不同角度发现问题,但最终仍需回到实质权衡的阶段。因此,审查时应以权衡者进路的数学计算模式为主,在涉及公民宪法权利等重大利益时,适当引入当事人进路的事实问题商讨模式。
具体而言,权衡者进路需要紧扣个案进行法益衡量。所谓衡量之准则,建立在“越……则越……”的比较性命题上,即对于个人权利侵害越深,则该算法所欲维护的公益必须越重要。在此基础上,德国学者罗伯特·阿列克西(Robert Alexy)进一步提出了具体化的权衡法则(law of balancing)。依此而为,权衡过程可以分为三个步骤:首先确定对个人利益未满足或损害的程度;其次确定满足另一个相冲突的法益的重要性;最后判断相冲突法益的重要性能否证成对个人利益的损害。在关涉利益重大、数学衡量难以为继的情况下,应当与当事人就事实问题展开商谈,为各方当事人提供平等的表达意见的机会。
综上所述,比例原则为防范某一具体算法的目的失范提供了清晰的检视框架。但是,该原则的各个“子原则”之间也并非泾渭分明,它对算法目的的检视往往难以一举竟全功。它需要相关主体付诸一定体量的人力物力,辅之以极致的责任心,一次次在目的与手段之间往返流转、久久为功,以维护算法中的人之尊严价值。
四、算法目的失范的公法规制框架
算法目的失范的根本原因,在于技治与法治之间的失衡。如果法治的引导严重滞后于技治的迭代,失范的负外部性将日益凸显。当算法目的失范成为高悬于自动化行政之上的“达摩克利斯之剑”,整体性建构一个可供调和相关权益冲突的公法规制框架,精准、有效、及时地提供相关制度供给,就成为当下数字法治政府建设中最为急切的法治需求。扩而言之,应当围绕事前算法制定环节、事中算法运行环节、事后算法审查环节,从制度规范上进行源头治理,以系统性地匡正算法目的失范。
(一)算法规则制定规范
算法规则可谓兹事体大。它对行政目的的实现往往“牵一发动全身”,须“防患于未然”,即在事先通过严格的制定规范进行控制,避免一些不规范、不协调的要素滋生其中。
1.以算法目的清单为镜鉴
自动化行政过程中的算法包括行政算法与技术算法。其中,行政算法的制定是对行政权的具体运用,其目的包括创设、解释和裁量,并对外产生相应的法律效果。为了对行政权进行有效的控制,有必要在事前采用一种规范化的方法,通过场景化、精细化各部门的职权范围,以清单的方式列明行政算法的制定目的,使算法目的能够从主观臆断走向客观公正。
算法目的清单是以文本的形式对行政机关在设计行政算法时的目的范畴予以明定。与算法目的范式中范围基准的区别在于,算法目的清单是从行政机关行使的行政管理权、行政执法权、行政审批权、行政制裁权等权力范畴的角度出发,而后者是从不同治理场域中权力运行的角度出发。二者相互交织、相互支撑,共同框定算法的目的范围。
我国个人信息保护法第6条规定:“处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关。”由此推知,算法目的清单也应以“明确”“合理”为内在要求。具体而言,“明确性”体现为清单内容明确。清单应涵盖算法目的、目的说明、理由依据,内容的依据是法律和行政法规、国务院规定等,对于上述内容应按照标准格式文本逐一列明。“合理性”体现为制定流程合理与管理流程合理。在制定流程上,目的清单原则上可以由控权主体制定,也可以由行政系统制定,但按照我国的行政习惯,比较合理的路径是由行政内部从自律的角度自行拟定,再由政府组织进行合法性审查与专家评估,最后向社会公示。在管理流程上,算法目的清单应具有动态调整机制,做到实时调整与定期集中调整相结合,以适应现代治理的需求。
通过制定算法目的清单,使行政自觉转化为外在要求,从而能够有效观测行政主体的权力半径和履职尽责情况,直观显示行政机关在权力自我约束、政务信息公开以及优化公共服务等方面的诚意和决心。行政机关在自动化行政中部署算法必须受限于目的清单与范围基准,确保算法在实践中符合法律法规、伦理道德的要求,最大程度减小越权的风险。
2.以法定化制定程序为遵循
算法在实然和应然层面均表现出权威性和约束力,可以视之为载体形式与时俱进的特殊行政规范。在我国的行政法规范体系中,行政规范虽然处于最低位阶,但却因为其制定程序较为宽松,使得行政机关得以任意扩张行政权力或者克减公民权利。因此,对于算法规则的制定,必须以法定化的制定程序筑起防范权力扩张的高墙。
行政算法制定程序的法定化旨在解决两个问题:一是行政机关与算法设计者的信息不对称。传统行政活动中的信息,通过人工调查进行收集,采取经验模式进行分析,最后由决策者进行事实涵摄。自动化行政中的信息,储存在数据共享平台,通过大数据模式进行分析,并由算法进行决策。这种模式的转变,使得算法设计者能够和行政主体共享数据。相较于行政机关,算法设计者因具备专业优势而对数据具有更强的控制力。为了消解因技术能力悬殊而可能引发的威胁,应当建立起评估、论证、审核程序,力求以程序上的审慎,弥合行政机关与算法设计者之间的信息差。二是行政机关与行政相对人信息不对称。在自动化行政中,算法的运行架空了公众参与原则,行政相对人常常作为消极的客体参与进来。横亘在行政机关与行政相对人之间的算法鸿沟,使得受行政决策影响的当事人对于决策主体缺乏最基本的信任,最终将使得行政机关陷入“塔西佗困局”。因此有必要在算法制定之初,就预先建立起信息沟通机制。
据上所论,结合2018年国务院办公厅印发的《关于加强行政规范性文件制定和监督管理工作的通知》的相关规定,可以对行政算法的制定程序进行如下设计:其一,认真评估论证。首先,要进行风险评估,对算法可能带来的潜在风险和负面影响进行评估,包括隐私侵犯、歧视等。同时,开展多方论证,确保算法合理性、必要性和可行性。其二,广泛征求意见。因为算法具有技术壁垒,因此,征求意见前,需要对算法进行解释,至少应提供上一环节的评估论证报告。其三,严格审核把关。审核包括技术性审核与合法性审核。技术性审核主要关注算法的设计、实现和运行方面,确保其技术上的合理性、有效性和安全性;合法性审核主要关注算法的设计和应用是否符合法律、法规和政策的要求。其四,集体审议,及时公开。公开发布的文本包括技术文档、因素权重、用户说明等。公开发布的要求是,在不泄露商业秘密的前提下,尽可能全面完整,同时具有可理解性,确保公众能够访问并理解所发布的信息。其五,依法备案审查。有关部门要对自身部门制定的行政算法做到有件必备,政府法制机构应当对行政算法有备必审、有错必纠。
(二)算法运行跟踪机制
在算法规则制定环节,算法目的清单制度与算法制定程序的法定化有助于防范行政主体和算法设计者显性的不适当目的。但是,对于自动化行政运行过程中一些隐性的不适当目的,包括算法对行政规则转译时产生的偏差、机器学习算法从信息中习得的歧视性推定等,则需要在算法运行的过程中持续跟踪识别,不断调试优化自动化系统,让隐性的不适当目的无所遁形。
1.算法效果评估机制
行政机关应建立算法效果评估机制,即通过制定明确的评估标准和指南,建立一套系统性的评估机制,检验算法在实践中的表现是否真正有助于实现行政目的。评估结果可以形成自我问责的压力,并为基于比例原则检视审查某个具体算法目的是否失范提供实证依据。为了确保行政机关能够掌握算法在不同时间尺度上的表现,算法效果评估应建立定期评估计划和长期评估计划。
算法效果评估的评估主体包括开发方、行政机关以及第三方。其中,行政机关最应该掌握算法运行情况的一手反馈,敏锐地对现实情况作出判断与应对。然而,相对于开发方与第三方,行政主体在技术上处于劣势。久而久之,这种认知与理解上的障碍将使得行政机关失去评估的积极性。对此,有必要探索政务首席数据官制度。有学者将其职责定位为“在政府部门中负责数据战略的制定与执行,并通过提高政府部门的数据能力支持行政监管、公共服务、行政决策等行政活动的数据管理者”。显然,兼具法治思维与技术能力的首席数据官,有助于整合行政资源与数据资源,成为推动算法效果评估的重要组织保障。
算法效果评估的评估标准,实践中已然有例可循。2018年7月,中国首个人工智能深度学习算法评估标准《人工智能深度学习算法评估规范》正式发布。该标准基于深度学习算法可靠性的内外部影响考虑,结合用户实际的应用场景,给出了一套深度学习算法的可靠性评估指标体系。未来,还需面向自动化行政中所运用的各种算法,从可靠性目标出发,验证算法运行各个阶段的关键活动,实现对效果的准确有效评估。对于评估结果,需要建立相应的质量保障程序,通过内部控制对抗算法结果的不公正和歧视性。
2.公众参与治理模式
行政相对人是行政主体自由裁量权的承受者,对于行政行为是否合理的问题,他们享有参与治理的权利。从法律制度的设计上,也必须赋予他们这种权利。因为,公众对“技术利维坦”的恐慌需要合适渠道予以纾解和治愈。参与治理模式能够促使行政机关更好地了解相对人的需求、意见和关切,并从中识别算法的不适当目的,进而更有效地防范和矫正算法目的失范。
公众参与必须有参与程序及“公众充权”(civil empowerment)予以保障。参与程序是约束算法权力的重要机制,参与程序的形式不应设限,可以通过政府门户网站发布公告,并鼓励相对人网上参与评论。“公众充权”是指赋予公民个体更多权利以对抗行政主体因算法技术进一步扩大的强势地位,包括如知情同意权、理解权、算法解释请求权等技术性正当权利,以及人工替代权利和传统权利。实际上,这是“平等武装”这一刑事司法原则在自动化行政领域的借鉴性输入。它要求在“人机互动”过程中,必须通过法律机制赋予行政相对人与算法技术平等地位和平等权利,以保护行政相对人的合法权益。
具言之,公众参与治理模式可以被描述为如下流程:首先,确定特定自动化行政目的,以便界定相应的“参与强度”。为了避免公众参与过度增加不必要的成本,可以根据行政目的可能损害的利益,来确定公众参与的人群和规模。其次,结合实际情况,在不同时间点确定对应的参与程序。例如,前期采用“公告评论”或者听证会收集群众意见,后期采用“投诉举报”畅通反馈渠道。最后,对于公众提出的意见或方案,在适当考虑各种利益诉求的基础上进行协调,并及时予以回应。
(三)算法实质审查机制
以上所述的规制机制主要基于行政内部监督的视角,虽然引入了公众参与,但本质上是封闭的体制,相对人并不充分享有内部监督的启动权利。因此,有必要结合我国的行政救济制度,为行政相对人启动算法审查开辟出一定的制度空间。
1.算法的审查
在行政过程中,相对人受到不公正的对待时,优先选择的应对方式是寻求行政救济,行政救济主要包括行政复议与行政诉讼。行政复议机关审查行政规范的合法性与适当性,而司法机关仅审查合法性。但是,由于只能对行政规范进行附带性审查,这将导致一些不适当的算法逃逸出审查范围。此外,由于种种难以克服的巨大障碍,我国对行政规范的司法审查几乎处于停滞状态。凡此种种,对于开展算法审查显得极为不利。笔者认为,解决困境的出路是,在现行行政复议制度的基础上,增加一种独立的算法实质性审查制度,即行政相对人可以单独就算法申请复议审查,充分发挥行政复议的监督功能和救济效果。
具体而言,算法实质审查制度应以行政复议制度为依托,即遵循我国行政复议法所规定的原则和程序要求。当然,审理过程需要考量算法的特殊性予以改造。在审查主体上,应有行政复议机关的政务数据官参与,旨在解决条块分割带来的数据联通困难,保障审查的全面性和有效性。在审查标准上,参照前文引入的基于比例原则的检视路径。在审查模式上,存在不同待遇审查和差异性影响审查两种模式,旨在识别技术性错误、客观偏见等合法性瑕疵。在审查强度上,可以参照美国法将审查强度分为三种,分别是“合理基础标准”(reasonable basis test)、“严格审查标准”(strict judicial scrutiny)和“中等程度审查”(middle-tier review),在自动化行政中应结合比例原则,按照侵害法益的大小确定相应的审查强度。
无疑,算法实质性审查制度必然意味着更高的行政成本。为了缓解行政资源上的压力,审查应以书面形式为主。只有牵扯重大且迫切的利益,需要进行严格审查时,行政复议委员会可以通过召开听证会的方式进行公开审议。
2.审查的算法
由于审查人员在击穿算法“外衣”时常常力不从心,越来越多的研究者寄希望于“算法审查算法”。有学者设想“通过规范的计算化、规制的技术化、技术的反馈化三个界面的勾连,使规范穿透算法的外衣,直达算法的后台”。但理想的路径伴随着同样的风险,即如何审查“审查算法的算法”?对于此类审查,可以将其命名为“元审查”(meta-auditing)。“元”(meta)意指超越,元审查不再关心算法的具体内容,转而分析纯粹的审查逻辑结构。
五、结语
算法作为人造物,所得皆习自人类。它所展现的智能愿景,也皆为人类世界的镜像。既是如此,何故惶恐?因为,“想象的未来”永远是一种包含万千不确定性的未来。只有辨识出人的复杂性,才能在诸多不确定性中有所依偎。理所当然,治理算法目的失范的思路,也应该深究至隐于算法之中的人为因素。
在算法中立的话术包装下,自动化行政可能充斥着被代码层层掩盖的谎言与偏见。这些具有偏差的主观判断是经人类之手输入,经过机器学习后,又模仿人类的方式输出,形成典型的算法目的失范。只有将算法置于行政法的检视框架中去细察和识别不适当的目的的多维样态,通过构建起整体性的公法规制框架进行系统治理,我们才可能跳出算法恐慌、建立基于制度的信任合作,在更加幽远漫长的岁月里与之共生共荣。