[摘 要]:自动化处罚裁量是对处罚裁量过程的技术性还原,将处罚裁量权部分或全部交由依托算法规则运行的机器行使。根据执法人员和机器在处罚裁量决定作出过程中的不同作用,自动化处罚裁量可被具体划分为辅助计算模式、执行既定规则模式和机器学习模式。自动化处罚裁量的本质属性可被归为裁量权运作的算法表达,其对传统裁量模式进行了变革性重塑,同时也引发新的合法性风险,需要结合不同自动化处罚裁量模式的各自特点,采取有针对性的风险控制策略。
[关键词]:自动化行政;行政处罚;自动化处罚裁量;合法性风险
伴随大数据、人工智能的迅猛发展,自动化行政现身于执法实践,行政权力被部分或全部交由依托算法规则运行的机器行使。自动化裁量在行政处罚领域已不鲜见,甚至已经出现了引发行政诉讼的争议纠纷。国务院办公厅发文指出:“要积极推进人工智能技术在行政执法实践中的运用,研究开发行政执法裁量智能辅助信息系统……”。考虑到行政处罚对相对人利益侵害甚巨,而裁量权又是基于个案正义,由立法赋予行政机关的判断和选择权,具有特别的重要性。因此,自动化行政处罚裁量应成为自动化行政研究中的一项重要议题。具体而言,自动化处罚裁量在行政管理活动中的运行原理及表现样态为何?自动化处罚裁量是否会引发现行法律制度难以解决的法律问题,继而需要对现行法律制度进行相应调整?
为回答上述问题,本文将首先从法学角度解析自动化处罚裁量的运行原理及模式划分。在此基础上,本文将指出自动化处罚裁量对传统裁量权行使带来的变革性影响及相关合法性风险,并提出应对合法性风险的制度调适建议。
一、自动化处罚裁量的运作机理及具体模式
(一)自动化处罚裁量的运作机理
自动化处罚裁量是法律与科技的耦合,也即“借助计算机软件及数学建模等科技手段,模仿执法者裁量思维的方法,模拟裁量处罚实施过程”。其运作机理可被概括为两个部分:一是基于法律知识图谱搭建算法模型,二是将算法模型运用于个案中的裁量决策。
其一,基于法律知识图谱搭建算法模型。知识图谱本质上是一张数据网络图,用以表现客观世界中的概念和实体及其之间的关系,是自动化决策的基础技术之一。而法律知识图谱是将法律规范、证据材料等法律资料中的知识点以一定的法律逻辑连接在一起所形成的概念框架。通过构建法律知识图谱,将从事法律适用推理所必需的法律知识与思维逻辑教授给机器。可以说,法律知识图谱是机器进行法律知识推理的基础,目的在于赋予机器模拟法律人的真实法律逻辑的能力。
为搭建基于行政处罚法律知识图谱的算法模型,需要完成以下工作:首先,梳理某行政执法领域中的法律规范,逐项厘清各项违法行为及其对应的违法后果,同时明确处罚机关及其权限。如南京市环保局为实现自动化处罚裁量,先全面梳理涉及环保处罚事项的法律规范,按照一个违法行为对应一项行政处罚权力、一项行政处罚权力对应一条或多条法律规范的原则,明确环保部门的权限。其次,对各项违法行为及违法后果进行拆解,明确违法行为及违法后果所包含的裁量因子。也即,将违法行为和违法后果分解为若干子行为和子后果,从中析出裁量因子,确定违法行为和后果的事实表现形式。后将裁量因子、法律规范与案件事实之间的对应关系应用于构建算法模型。仍以南京市环保局为例,结合执法经验,从处罚裁量所涉及的违法行为和违法后果中析出违法时间地点、方式手段等若干要件,并进一步细化为多个裁量因子。同时针对不同违法行为及违法后果的要件依次设定处罚等级。继而便可在技术层面搭建算法模型,设置算法规则,自动化处罚裁量决策系统也便得以生成。
其二,个案中的裁量决策。当算法模型搭建完成,机器便可以仿照执法人员进行裁量判断。当一项违法行为发生,执法人员仅需查明处罚裁量所涉及的违法事实,并对应选择裁量因子,完成数据输入。机器将对裁量因子进行叠加运算,从而给出具体的裁量结果。行政机关参酌裁量结果,作出最终的裁量决定。
(二)自动化处罚裁量的模式划分
根据机器与执法人员在行政裁量决定作出过程中的参与程度、功能角色等考量因素,可以将自动化处罚裁量具体划分为辅助计算模式、执行既定规则模式以及机器学习模式。
第一,辅助计算模式。在辅助计算模式下,机器仅需依照量罚步骤进行逐步计算,协助执法人员加减经量化处理的处罚结果(如拘留天数、罚款数额等),无需综合各项裁量因子判定违法情节的严重程度以及相应的处罚结果。换言之,机器并不独立完成效果裁量,仅以被动执行裁量规则的方式参与效果裁量,其主要发挥量罚的计算功能。辅助计算模式适用于裁量因子较少、裁量过程相对简单且裁量规则具体化程度较高的行政执法领域,典型的如治安管理领域。如针对赌博、盗窃等治安违法行为,根据裁量基准预设从轻从重等备选情节,备选情节指向处罚结果的加减计算。执法人员根据案件事实对备选情节进行一一确认,对拘留天数、罚款数额进行加减计算,从而得出处罚结果。
第二,执行既定规则模式。在执行既定规则模式下,机器具备执行既定裁量规则、独立完成效果裁量的能力。执法人员仅需将案件事实录入系统,由系统进行效果裁量并输出具体的裁量结果。执行既定规则模式可以完成复杂的处罚裁量过程,多用于环境治理等专业性较强的行政执法领域。如衡水市生态环境局于2020年作出一份《行政处罚决定书》,其中载明:“根据衡水市行政处罚自由裁量辅助决策系统各项裁量因子计算……,裁量认定:情节轻微,处罚款人民币伍佰肆拾伍元整。”其中“情节轻微,处罚款人民币伍佰肆拾伍元整”,便是机器综合各项裁量因子所得出的裁量结果。需要强调的是,执行既定规则模式的根本推理程序仍是简单的规则导向型算法。机器虽可独自完成效果裁量,但其仍以既有的法律规范、裁量基准等裁量规则为依据,只不过是由机器而非执法人员完成裁量判断。
第三,机器学习模式。机器学习模式不仅可以完成效果裁量,尚可以不断完善、充实裁量规则,寻求最优的裁量结果。机器学习模式以机器学习算法为基础,其能够自动利用海量和非结构化的数据来识别难以被人感知的隐性模式和相关性,从而最大限度地实现一案一判的精准裁量。这一模式代表着自动化处罚裁量的未来发展方向,在执法实践中也已显露苗头。如南京市正在努力打造裁量基准大数据和处罚案件大数据,这将为训练机器学习算法提供数据养料。以机器学习算法为基础的自动化处罚裁量系统可以进行自主决策,其可以依据外界环境的反馈持续更新算法,系统设计与设置人员均无法直接控制这一更新,其结果输出具有不确定性。而且经海量数据“喂养”的机器学习算法可以具备超越人的裁量能力,“对于系统实时输出结果的准确性和质量,人类并不具备实施有效监督的能力”。

二、裁量基准算法化
(一)裁量基准需被重新界定
在自动化处罚裁量出现之前,处罚裁量权均由执法人员行使。为规制高位阶法律规范所授予的宽泛裁量权,行政机关通过制定裁量基准实现自我规制。裁量基准对上位法律规范进行分解细化,细致罗列出不同处罚种类的具体情形和不同处罚幅度的具体标准,将宽泛的裁量空间压缩进分格分档的技术操作中。所以,人工裁量中的裁量基准主要表现为细化上位法律规范的行政规则。但是,人工裁量基准难以成为自动化处罚的裁量基准,自动化处罚裁量中的裁量基准需要被重新定义。原因在于,机器虽可模仿人脑进行裁量判断,但这种模仿更多是对法律适用过程的形式模仿。也即由机器完成将事实涵摄于法律规范的法律适用任务,并给出法律后果的裁量判断。但是,对于执法人员进行裁量判断时的生理思维活动,机器却难以模仿。自动化处罚裁量是纯粹技术的构造物,而人工裁量则是人脑思维逻辑活动的反映。人工裁量基准可以限定考量因素、压缩裁量空间,从而对人脑思维逻辑活动施加有效约束。但对自动化裁量来说,有效的规制只能借助技术规则实现。
(二)裁量基准算法化的具体意涵
作为技术的构造物,机器不同于人脑,其有着自身的一套语言体系和思维逻辑。机器所使用的语言体系由计算机代码组成,代码与人类所使用的自然语言存有本质不同,但通过将自然语言转译为代码,并借助编译操作可将自然语言翻译成计算机可执行的二进制指令。如将以自然语言表达的法律规范转译为代码,并通过编译操作使之成为计算机可执行的二进制指令,计算机便可以具备适用法律的基础能力,所以“电脑代码是自动化执法系统的核心”。但是,纯粹的代码仅是散乱的字母,难以再现复杂的裁量过程。只有当代码被有条理、有逻辑地组合起来,并按步骤还原法律适用中的裁量过程,机器才可以参与裁量过程乃至具备真正的裁量能力。而将代码进行前述组合的便是算法,算法于是也就构成机器的思维逻辑。简言之,算法将裁量过程分解为可供机器运行的计算步骤,而代码则以机器语言的形式对计算步骤进行具体化表达。也正是依托代码和算法,裁量过程被以逻辑规则的形式转变为计算机语言。法律规范、证据事实等法律知识也被计算机结构语言以语义网络的方式组建成裁量决策系统,并通过机器执行二进制指令来完成违法事实数据输入、法律效果计算和裁量结果输出工作。
可以看到,代码和算法不仅形塑了效果裁量的过程,而且也决定着裁量的结果。在代码及算法的支持下,机器有序进行一系列嵌套的二进制决策,从而完成裁量判断任务并输出裁量结果。算法的设置以及遵循算法规则排列的代码将直接影响自动化处罚裁量结果的精准程度。代码和算法使得“特定违法行为+特定违法后果”的个案效果裁量成为现实,同时对自动化处罚裁量的规范运作、裁量结果的合法适当起到规制作用。基于此,代码以及支配代码组合的算法构成自动化处罚裁量语境下的裁量基准。代码及其背后的算法控制以技术功能的抽象串联支撑起机器的裁量权行使,这一现象可称为裁量基准的算法化。
(三)裁量基准算法化下的裁量变革
藉由裁量基准算法化,行政裁量过程得以被技术性还原。自动化裁量依托算法对裁量步骤进行模拟再现,其本质属性可被归为裁量权运作的算法表达,这同时构成自动化裁量与人工裁量的根本区别。自动化裁量的这一本质属性宣示着行政裁量本身正在经受技术的变革重塑。主要体现为两个方面:其一,通过对法律规范的技术解构消解法律适用中的裁量空间。算法使得裁量权的行使过程呈现为裁量因子的“魔方组合”,事实要素被直接纳入,实现事实与法律规范的具体对应。如果说“法律可以从诸多方面解读,是因为法律现象远比法律本身复杂”,那么对法律规范和法律现象的极致细化则可以消解法律规范与案件事实之间的涵摄过程。其二,借助技术操作实现客观的裁量判断。裁量权是行政权限范围内的判断和选择自由,“是给决定者在确定的框架与内容之内的一定程度的自治”。裁量本身带有强烈的主观性,深受价值观念、喜恶偏好等个人因素的影响。但自动化裁量将执法人员抽离出裁量过程,转由无主观意识的机器依托算法完成裁量判断,从而一定程度上得已屏蔽执法人员的主观因素,增强裁量判断的客观性。
三、裁量基准算法化的合法性风险
(一)代码对法律规范的技术性改写
前已提及,为实现自动化处罚裁量,需要将以自然语言表达的法律规范转译为代码。代码应确保机器在法律规范所限定的范围内进行裁量,从而可以实现法律的真正目的和意图。然而,自然语言与机器语言并非属于严丝合缝的一一对应关系,在将以自然语言表达的法律规范转译为代码的过程中,存在着技术性的调整与修正。这是因为,机器系统中运行的代码需要严格的精确度,而这样的要求在抽象概括的法律中是欠缺的。由此,在将抽象的法律规范转译为系统可处理的代码时,需要将法律规范解构为指向具体违法事实的裁量因子。从而在抽象的法律规范与具体的事实之间建立起对应关联关系,解构出法律规范所涵摄的事实内容,消解代码的高精确度与法律规范抽象性之间的抵牾。但是,从法律规范中解构出的裁量因子,可能会逸脱法律规范的涵摄范围,从而改变法律规范对违法构成要件及法律效果的原本设定。而当裁量因子被转译为代码后,其在个案中经由算法叠加所生成的法律规则将难以与原法律规范相契合。因此,在以算法方式对法律规范进行编码的过程中,会对法律规范进行不同于立法意图的解释,不具备立法权限的程序员和系统设计者将以算法和代码的形式改写法律。
上述担忧并非空想,此类问题已显露端倪。在浩峰能源公司与嘉峪关市环保局行政处罚纠纷案中,环保局依据《大气污染防治法》第117条对浩峰能源公司进行处罚。环保局将“存在拒不整改行为”设定为“从重情节”,从而得出的自动化处罚裁量结果为“处以罚款91994元”,该裁量结果被处罚决定采纳。但根据《大气污染防治法》第117条,与拒不改正行为相对应的法律后果为责令停工整治或者停业整治,并非从重处罚。将“存在拒不整改行为”设定为“从重情节”,是对法律进行有违立法原意的修改。法院亦认为,“被告关于原告存在拒不改正,有从重处罚情节的主张,是对自由裁量权的扩大理解,显然违背了《中华人民共和国行政处罚法》的立法本意。”机器作出并被行政机关采纳的裁量结果最终被法院认定为违法而予以撤销。
(二)算法裁量决策合法性控制的制度失语
自动化处罚裁量的实质是算法决策,即由算法将代表违法行为构成要件及违法效果的裁量因子进行叠加组合,从而生成适用于个案的裁量结果。如重庆市渝北区环保局曾就一起违法排放污水行为进行处理,执法人员在调查取证后,将下列11项裁量因子输入机器:“(1)行为地点:非饮用水水源保护区,情节一般;(2)污染水体:Ⅳ类,情节较重……(11)排放去向:排入集中式污水处理设施,后果轻微。”机器经算法运算后输出裁量结果,即“违法行为情节特别严重,后果特别严重;责令停止排污,处罚款人民币83900元整。”值得追问的是,代表不同情节的裁量因子是如何被认定为“违法行为情节特别严重,后果特别严重”的?机器又是如何得出“83900元整”这一具体的罚款数额的?这些问题直接关涉算法决策的理由,更关乎行政裁量的合法性控制。尤其在自动化处罚裁量结果被行政机关采纳的情况下,若这些问题不能得到解答,则行政机关可能会以自动化处罚裁量结果在处罚幅度范围内为由,主张裁量结果合法适当,从而借机器规避对行政裁量的合法性控制。
其实,机器在进行裁量判断时,也是在行使立法预留的裁量权限,与执法人员并无二致,所以对其施加合法性规制实属必要。在我国,立法在赋予行政机关以裁量权的同时,尚还对其课加了合法性控制的“镣铐”,即《行政诉讼法》所设立的“滥用职权”与“明显不当”。该两则司法审查标准要求执法人员在作出裁量决定时,需要对相关因素进行充分考虑、平等对待相对人、追求适当目的、并尽到合理注意义务等,否则裁量决定便可能被法院认定为违法。但是,在自动化处罚裁量中,将裁量因子输入系统可直接得到裁量结果,裁量判断可在系统内部瞬间完成,前述针对执法人员设立的裁量控制机制难以径行适用于自动化处罚裁量。可以说,“传统的法律在制定之初并未纳入自动化”,也未对自动化处罚裁量的合法性控制预作制度性安排。
(三)机器篡夺裁量决策权的危机警示
1.机器篡夺裁量决策权的表现
在行政机关的措辞中,可以作出处罚裁量结果的机器设备往往被代称为“辅助决策系统”。根据《辞海》的解释,“辅助”一词的本义为“佐助,帮助”,并可从中延伸出“非基本的、非主要的”含义。换言之,机器仅是帮助执法人员作出处罚裁量决定的工具。所以“辅助”一词无形中强化了机器的工具性价值,同时凸显执法人员的主导地位。但是,“辅助”一词同时也具有误导性,它容易掩盖机器在处罚裁量决定作出过程中所发挥的真实作用。当自动化处罚裁量优于人工裁量成为一般性认知,并在执法实践操作中获得不断强化,那么执法人员容易让自己陷入依赖机器的境地。结果便是执法人员倾向于无条件接受机器的裁量结果,辅助系统也便可能成为主导系统。
在认知层面,研发自动化处罚裁量的初衷,是其被预设可以有效克服人工裁量的诸多不足,增强裁量决定的合法化外观。裁量决定的作出受制于主观偏好、个人经验,还易出现“人情罚”“关系罚”等不良现象。借助自动化处罚裁量,执法人员所带有的各种主观因素被抽离出裁量过程,裁量结果具有了客观公正的合法化外观。而且执法人员也热衷于采纳机器所作出的裁量结果,并将之视作公正执法的体现。此外,当处罚裁量决定引发行政诉讼,行政机关更是会将“裁量结果是由机器作出的”作为处罚裁量决定合法适当的理由。
而在实践操作中,自动化处罚裁量对执法人员施加诸多限制,导致处罚裁量决定作出过程中的人工作用被大幅削弱,执法人员有将裁量决定权限实质性让渡给机器的倾向。具体表现如下:其一,执法人员的调查权限被严格限定。执法人员需要提前完成事实调查工作,为自动化处罚裁量提供数据支持,但执法人员仅能调查与机器圈定的裁量因子相关的事实。而且违法事实一旦录入系统,执法人员便无权修改与撤销。这使得机器对执法人员的权力限制从效果裁量阶段延伸至行政调查阶段。其二,执法人员对机器裁量结果的变更权限被严格限定。自动化处罚裁量决策系统往往由省级政府或其工作部门统一部署,基层执法人员往往无变更权限。即便是对自动化处罚裁量结果负有审核职责的行政机关,若要变更裁量结果,也需遵循严格的附加程序要求。这使得机器对执法人员的权力限制从效果裁量阶段延伸至裁量决定的最终作出阶段。
2.机器篡夺裁量决策权的合法性风险
自动化处罚裁量虽可有效规避人工裁量的种种不足,但处罚裁量往往蕴含着价值衡量,遵循着公共管理政策动向,需要一定的灵活性。而严格依循算法逻辑运行的裁量系统具有不可避免的僵硬性缺陷,“机器总是带有僵硬死板的潜在可能”,对自动化处罚裁量决定的忠实遵循可能会产生有违正义理念的法律适用结果。本文将通过一则案例,进一步揭示机器篡夺人工裁量权所引发的合法性危机。
针对何某的违法行为,交警部门对其处罚款500元。何某以行政处罚缺乏证据和罚款裁量失度为由,提起行政诉讼。交警部门辩称,该队使用的全省公安交通管理综合应用平台已设定此类违法行为的罚款数额为500元,其无法对罚款额度进行调整。二审法院认为,交警部门以其无法修改全省平台之设定,主张无法对罚款额度进行调整,有违过罚相当原则。罚款金额裁量明显不当,判决将罚款500元变更为200元。可以看到,当机器本身存在架空执法人员的变更权限、限定调查权限等缺陷时,那么违法裁量决定的作出几乎不可避免。而且行政机关内部的人工审核程序也未能有效阻止违法裁量决定的作出。
四、合法性风险的应对策略
为应对裁量基准算法化所引发的合法性风险,需要采取有效的风险控制策略。虑及在不同的自动化处罚裁量模式下,机器与执法人员在行政裁量过程中的任务分配和功能角色存在差别,而这潜在地影响着合法性风险的防范重点以及风险控制路径。因此,本文将针对各裁量模式分别提出合法性风险的应对策略。
(一)辅助计算模式下的弱风险控制:裁量基准完善与决策权限保留
辅助计算模式下,裁量基准算法化引发的合法性风险并不突出。算法模型的简单性弱化了代码转译过程中法律规范的技术性改写问题;执法人员的主导作用又使得个案自动化处罚裁量决策并未对既有的裁量控制机制逸脱太远。但是,机器毕竟参与了处罚裁量过程,并在客观上对处罚裁量决定产生作用力,相关的合法性风险控制应侧重于完善裁量基准与保留决策权限。
在裁量基准完善方面,既然机器主要发挥量罚的计算功能,那么计算结果的准确度以及计算规则的合理性便需要受到关注。在一定程度上,计算结果的准确度以及计算规则的合理性是由裁量基准决定的,机器仅在“忠实”地落实裁量基准所划定的量罚情节以及量罚幅度。因此,为保证机器计算结果的准确度和合理性,应侧重于完善传统的裁量基准并对其进行精准的代码转译。在决策权限保留方面,自动化处罚裁量的功能在于规范裁量权行使,而非剥夺执法人员的个案考虑义务,执法人员也不应怠于裁量。负责个案处理的执法人员应保有处罚决策权,应有权决定是否采用机器计算得出的量罚结果。原因在于,执法人员居于主导地位,且其处理的违法行为相较简单,可以在传统裁量基准的辅助下完成较优的裁量决策。同时也为应对机器故障等偶然因素的出现,执法人员自然不应被机器架空。
(二)执行既定规则模式下的高风险控制:说明义务与决策权限分配
执行既定规则模式多适用于专业性强、裁量规则细化难度大、裁量要素丰富的行政管理领域,要求算法模型具备一定的复杂程度,代码转译过程中法律规范的技术性改写问题会随之突出。自动化处罚裁量结果也易于逸脱既有的裁量控制机制,而处罚裁量决策权向机器不适当让渡的可能性也大大增加。为应对前述风险,应课予行政机关一项关于代码转译及算法决策合法性的说明义务,同时应合理分配人机之间的决策权限。
首先,基于说明义务的合法性规制路径。代码转译及算法决策所引发的合法性隐忧,本质上是技术手段的运用导致法律适用活动的透明度与可解释性被掩盖。技术将人类的法律适用活动转换为代码和算法操作,但这一转换过程“模糊不清”,由此削弱了现行法律制度对其所应有的合法性规制能力。那么,要求行政机关作出相应说明,从而提高自动化行政技术手段的透明度和可解释性,便成为可值尝试的制度方案。若要保障代码转译的合法性,则需要确保抽象的法律规范在被转译为代码后,其调整范围并未发生有违立法目的的改变。这便要求行政机关应就代码的设置规则及代码与法律规范的嵌合度作出说明;而为了解个案中的裁量因子如何经由组合得出裁量结果,则需就裁量结果背后的算法规则、个案裁量因子的选取进行说明。具体的制度设计可作如下考量:其一,代码转译的合法性问题出现于算法模型的搭建阶段,关涉代码与算法模型编写设置的科学合理程度,即其能否贯彻法律的目的及真实意图。在说明主体方面,鉴于技术问题的复杂性,原则上应将负责开发算法模型的行政机关作为义务主体。而在行政机关以政府采购方式购买系统的情形下,则由部署系统的行政机关作为义务主体,系统算法模型的实际开发者负有协助说明义务。在说明内容方面,义务机关应就代码转译的合法性进行有意义的说明,可邀请法学专家出具评估或论证报告。在说明方式及场景方面,可通过向公众发布系统说明书的方式完成一般性的说明义务,而无需局限于个案场景。其二,裁量因子在个案中的组合应用,直接指向具体的算法决策过程。在说明主体方面,应由使用辅助决策算法模型的主体,也即处罚决定作出机关承担说明义务,特定算法模型的开发者负有协助说明义务。在说明内容方面,义务机关应就个案裁量因子的选取、各裁量因子对结果作出的影响方式及权重作出说明。在说明方式及场景方面,行政机关可在事前以说明理由的方式作出,也可在事后作补充说明。
其次,确立人主机辅的权限分配方案。执行既定规则模式下,机器仅能依照预先设定的算法规则进行简单的逻辑运算。局限于特定的法律语境,法律推理结果也相对确定。机器尚难以进行最优的效果裁量,其所作出的每一项裁量结果仅能为执法人员提供参考样本,辅助功能的定位不应改变。而为落实人主机辅的权限分配方案,需要在技术与制度层面进行调整。具体需要从以下方面着力:其一,系统应允许执法人员保有补充事实调查内容、变更自动化处罚裁量结果的操作权限,避免执法人员的裁量权被架空;其二,执法人员在完成事实调查之后,应作出裁量判断,连同自动化处罚裁量结果一道提交审核,避免执法人员过度倚赖机器而导致裁量能力消退;最后,应强化自动化处罚裁量结果的内部人工审核,审核人员应与前期执法人员共同承担法律责任,建立责任追究机制。
(三)机器学习模式下的强风险控制:专家审查与自动化边界
机器学习模式的最大特点在于,算法模型并不受制于既定的裁量规则,其可以基于数据处理而持续地进行自我更新,输入数据的处理以及输出的结果难以被包括设计者在内的人类控制。法律规范的技术性改写风险不仅存在于代码转译中,尚还进一步延伸至算法的自我更新中,机器学习算法可以对裁量规则进行自主修改;被海量数据滋养的机器学习算法模型的裁量决策能力远非人类可以企及,人类难以对处罚裁量结果进行有意义的监督,既有的裁量权控制机制也面临瘫痪的风险。因此,合法性风险控制所面临的最大问题在于风险的不可控性。执行既定规则模式下的说明义务难以适用于不透明、不直观且难以理解的机器学习算法模型,而裁量决策权限的人机让渡问题也需要被重新考量。
虽然机器学习模式的特性使得合法性风险难以控制,但人类的干预仍有必要,“毕竟自然人是真实存在的责任主体,能够履行职责并为最终决策负责,受该决策影响的个体也可以对其提出诉求。” 但需要转向其他风险控制路径,即专家审查算法及界定自动化裁量的适用边界。专家审查算法,指允许研究人员、审计人员等专业人员切实地、持续性地访问机器学习系统,了解机器学习的运行原理,从而发现机器学习模型的缺陷并予以完善。机器学习算法模型可以受到专业人员的审查监督,其稳定、合法运行成为可能。实践中,要求机器学习算法获得专业审查,已经成为机器学习算法模型合法运行的重要举措。如英国政府《数据伦理框架》便要求算法工具受到专业审查,由具备专业知识的人员对算法模型的元数据或算法模型本身进行检查。
界定自动化裁量的适用边界,也即明确哪些处罚裁量决策可以由机器学习算法模型作出,哪些处罚裁量决策必须由人工进行。在数据的加持下,机器学习算法可以进行最佳的裁量参数设置,最大程度优化特定的性能指标。执法人员不仅难以对其输出的处罚裁量结果进行优劣评判,也不具备机器所具有的裁量能力。机器输出的处罚裁量结果只能被接受,因为其代表着当下情境中的最优选择。对于这一问题,目前尚无明晰的答案,但通常认为,“算法可以在次要问题上居于主导地位,而人类必须在首要问题上维持自己的权威。” 这将意味着侵益较弱的处罚裁量可以交由机器学习算法完成,而对于侵益较强的处罚裁量则由人工处理比较适宜。
结语
法律与科技的耦合,既可以开拓出高效快捷的权力行使方式,也可能会打开新的潘多拉魔盒。在人工智能等技术向行政管理领域高歌挺进的当下,对其保持警惕实属必要。自动化处罚裁量不仅改变了传统裁量权的行使方式,也在潜在地重塑着裁量权的行使规则。自动化处罚裁量在有效弥补人工裁量不足的同时,也引发了新的合法性风险,需要从法律制度层面进行积极回应。在这一过程中,如何结合不同自动化处罚裁量模式的特点,保证自动化处罚裁量系统的合法有效运行、合理分配人机裁量决策权应成为重点。