[摘要]:受益于大数据、人工智能等信息技术的快速发展,行政裁量数字化在政务服务的不同场景中得到应用,发挥着辅助决策的功能。行政裁量数字化具有提升裁量结果一致性的技术优势,然而也潜藏着风险,裁量的个案正义可能受到侵蚀。裁量的格式化与特定个案之间始终处于一定的张力之中,数字化裁量所代表的技术理性容易诱发执法者的路径依赖,数字化行政可能引发裁量控制程序逃逸。行政裁量的载体变化,预示着裁量治理的理念转换: 通过法律保留框定行政裁量数字化的适用范围,以技术正当程序构建数字化裁量的外部沟通方式,以系统控制程序促进数字化裁量的内部人机融合,进而构建数字化裁量过程的人机协同机制。
[关键词]:人工智能;行政裁量;正当程序 算法行政;自动化行政
随着人工智能、大数据、互联网、物联网等现代新兴数字技术在国家治理中的应用与发展,政务服务的智能化水平得到显著提高,行政裁量数字化 ( 或称行政裁量电子化、行政裁量自动化) 在此背景下逐渐兴起。2019 年 1 月,国务院办公厅印发 《关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》 ( 国办发 〔2018〕118 号) ,提出要积极推进人工智能技术在行政执法实践中的运用,研究开发行政执法裁量智能辅助信息系统。2021 年 1 月,生态环境部出台 《关于优化生态环境保护执法方式提高执法效能的指导意见》 ( 环执法 〔2021〕1 号) ,强调要推动行政裁量系统开发运用,逐步实现裁量电子化。随着电子政务的发展不断向纵深推进,行政裁量数字化将成为数字政府建设创新的重要增长点。
所谓行政裁量数字化,顾名思义,即以大数据、人工智能等新一代数字技术为支撑,按照一定的算法程序,以半自动化或者全自动化的形式作出行政裁量决定。以往的行政裁量制度规范都是以 “人” 为中心进行建构,然而,行政裁量的数字化却是以 “机器” 为载体,依靠算法程序进行裁量,人机协同深度融合。裁量载体的变化必然引发行政裁量运作形态的变化,行政裁量的治理理念与技术因应也需进行时空转换。作为行政裁量的一种新形式,当前关于行政裁量数字化的诸多问题尚未厘清,甚至充满了争议。行政裁量是否排斥数字化,现实政务服务中的应用场景有哪些? 其功能应如何定位? 行政裁量数字化是否存在技术风险? 如何保障裁量中的个案正义? 现有的行政裁量治理技术是否会被架空? 如何建构裁量数字化的整体性治理框架? 本文将围绕以上问题对行政裁量数字化展开初步的研究,以期为进一步探索裁量数字化应用的实践者提供建议,并为学术界的未来研究提供参考。
一、政务服务应用场景下裁量数字化的实践观察
随着数字政府的快速推进,政务服务的智能化水平越来越高,行政裁量数字化正是在这种背景下获得了长足发展。然而,作为行政执法领域的新事物,裁量能否数字化依然存有一定争议,这也直接影响到其功能定位。
(一) 行政裁量并不完全排斥数字化
关于行政裁量能否数字化,理论上经历了一个前期被全盘否定到后来被有条件肯定的过程。行政机关在作出裁量决定时,需要合理斟酌有关个案的一切情况,但电脑自动化作业受规格化的限制,不符合此要求,因此自动化裁量决定可能违法。此外,以电脑对当事人作出决定,无异于以机器决定人的命运,与宪法对一般人格权的保障存在抵触 。传统上,行政裁量被认为是人的一种内部意识活动,而公共行政过程需要人类的自我判断,这无法编程,智能机器无法替代人类进行自由裁量 。
与之相反,也有学者认为行政裁量数字化具有可行性。行政机关得依行政规则作出裁量决定,在以电脑自动化作业时,考虑各种因素的作业程式即无异于行政规则 。电子数据处理中的决定程序在法律上应当视为行政规则,如同一般的裁量行为可以通过行政规则 (裁量基准) 控制那样,这种程序对裁量行为具有适法性。因此,数字化并不完全排斥裁量行为 。伴随着人工智能的飞跃式发展,数字化系统将有能力作出自主代理,自我学习,进行环境评估,并通过价值、动机和情感维度进行思考,从而具备裁量能力 。
从行政裁量能否数字化的争议中,可以看出,双方在支持或反对裁量数字化的核心理由上侧重点不同。反对一方强调的是裁量的个案属性,支持一方强调的是裁量的一般属性。随着针对一般裁量所设计的裁量基准在行政执法实践中的推广,以裁量基准为基础开发的数字化裁量系统已经应用于政务服务场景中。不过,正如裁量基准在个案适用时,难以兼顾所有影响裁量的因素一样,数字化裁量系统同样也有其局限性。就当前的适用范围来看,其应用空间还相对比较有限,主要集中于类型化程度较高且易于流程化作业的行政活动。
(二) 政务服务应用场景下的数字化裁量
随着 “放管服” 改革以及 “互联网 + 政务” 的持续推动,以人工智能为代表的数字技术在政务服务场景中的应用越来越多元化,已从纯粹的服务性活动扩展至管理性与赋权性活动。就行政裁量而言,目前裁量数字化主要适用于行政处罚、行政审批、行政评级和行政给付等领域。
行政处罚领域最早引入数字化裁量。以 2016 年巴中市在全国率先研发使用公安行政处罚数字裁量系统为标志,各领域的行政处罚执法数字化裁量系统不断涌现。2017 年,南京市推出行政案件自动量罚系统,打造 “掌上公安局”,规范自由裁量权,实现同城同事同罚。2018 年,亳州市成功开发出 “城管电子执法系统”,实现全市城管执法全覆盖。2019 年,生态环境部印发 《关于进一步规范适用环境行政处罚自由裁量权的指导意见》 ( 环执法〔2019〕42 号) ,强调有条件的生态环境部门可充分运用信息化手段,开发和运用电子化的自由裁量系统。2021 年,国家税务总局辽宁省税务局将部分税务行政处罚裁量基准内嵌于金税三期税收管理系统,对申报、发票、登记等日常征管类处罚自动计算出处罚结果。
行政审批 ( 包括行政许可、行政确认等) 是当前数字化裁量应用的又一领域。2017 年 8 月,广西壮族自治区印发 《关于推进审批智能化和审管一体化行动方案的通知》 ( 桂政办电〔2017〕170 号) ,正式引入自动化智能审批系统,通过建立精细的审批许可标准体系,实现裁量数字化。以此为开端,自动化审批开始在地方政务服务中全面铺开。2020 年 6 月,上海市虹口区上线 “无人干预自动办理”,在全市推行特定商品零售许可变更。2021 年,常州市新北区探索构建了 “公共场所卫生许可变更” 等 14 个智能审批服务场景,系统通过 AI技术自动读取申请人图文信息,并与设置的审批标准进行比对,快速反馈办理回执,同时将审批信息实时推送至监管部门,实现全程自动审批。
行政评级在特定情形下也能实现裁量数字化,健康码在抗疫期间的运用就是例证。2020 年 2 月 24 日,国务院下发 《关于依法科学精准做好新冠肺炎疫情防控工作的通知》 ( 联防联控机制发〔2020〕28 号) ,鼓励对市民实行动态健康认证,健康码成为行政机关综合判断个人健康风险等级,市民获得出行、复工资格的法定证明。健康码经由机器自动化决策生成,行政机关先将评判标准程式化,然后相对人在线提交信息并申请,最终由系统自动分配以不同颜色标识的二维码,由此形成行政评级裁量数字化。新冠疫情期间,行政机关依据健康码的状态 ( 风险从高到低依次细分为 “红码” “黄码” “绿码”) ,分别采取不同级别的管控措施。
除了以上干预行政中存在的裁量数字化,在给付行政中也存在裁量数字化的适用空间。在美国,Fraud Prevention System 等数字化裁量系统在公共医疗保险与医疗补助中已经能够替代人工判断,有效识别和防止潜在的欺诈性索赔 。国内比较典型的案例是大学智慧资助系统。以往高校在对贫困生的认定上,往往采取自主申报与公示的方式,不仅损伤了学生自尊心,也不能保证评定结果的公平公正。而采取大数据的筛选方式,能够精准定位贫困学生个体,并给予 “悄悄” 补助,让学生在享受国家补助政策的同时,也能减轻心理负担和压力。
(三) 裁量数字化以 “辅助” 为其功能定位
尽管行政裁量数字化在不同的政务服务场景中获得应用,但是其功能仍然限定于裁量辅助。一方面,数字化裁量系统在开发设计之初即定位于辅助决策。诸如 “环保行政处罚自由裁量辅助决策系统” “行政执法裁量智能辅助信息系统” 等数字化裁量系统,从名称上即可以看出系统功能设计的出发点在于辅助作出行政裁量决定。尽管当前的技术发展日新月异,但是人们对大数据、人工智能等数字技术究竟能在多大程度上取代人类始终持保留态度。“技术能够看到的或解决的问题,很多都是比较简单的问题,比如快速处理垃圾倾倒和灾害报警等,甚至是细枝末节和鸡毛蒜皮的问题,真正不好解决的问题是价值观的问题、权力或权利的问题、利益上的问题以及制度上的问题” 。行政裁量作为一种相对复杂且灵活的意识活动,程序规则所能替代的空间比较有限,因此,数字化裁量系统只能发挥辅助决策的功能。
另一方面,当前的行政裁量数字化仍然以半自动化为主,在此种情形下,执法者仍享有裁量结果的最终决定权。从行政过程阶段论看,执法人员仍需在数字化裁量系统程序的指引下将违法事实与系统内置的事实类型相匹配,系统根据所输入的事实类型经过算法计算得出裁量结果值。从行政裁量决定的结果看,系统导出的裁量结果值只具有参考价值,最终的裁量结果依然要交由执法人员审核,并经过特定的行政程序作出最终裁量决定。例如,在南京市推出的行政案件自动量罚系统中,执法民警登录警务平台输入警情后,仍需勾选行政处罚裁量所涉情节要素,而后系统方能生成处罚结果。如果处罚意见没有获得通过,即使民警重新提出处罚意见,也不能再通过更改情节要素来改变处罚结果。值得注意的是,虽然在行政智能审批以及以健康码为代表的行政评级中,事实上形成了裁量的全自动化,但从依法行政的原理来看,不应当将其视为全自动裁量的表现,它们仍然只是在辅助意义上帮助行政机关行使一般裁量权 。
二、行政裁量数字化的技术风险: 结果一致性与个案正义性的冲突
大数据、云计算、人工智能、互联网、物联网等新兴信息技术作用于行政裁量所带来的自动化优势,固然可以提高行政效能,然而,数字化裁量的格式化与个案正义性却不可避免地发生冲突。
( 一) 代码规则将裁量过程严格羁束化
当前,政务服务智能化尤其是审核和审批的智能化已经将原有的裁量过程前移至代码的编码阶段,由软件开发人员和一线工作者共同完成。行政裁量数字化的基础性原理在于裁量基准的规则转码,即将细化的裁量基准规则转换成计算机代码规则。裁量虽然不能完全排除意志属性,具有一定的弹性,但是这种弹性依然要遵循一定的规则,正是在这个意义上,我们可以说裁量的过程是 “戴着镣铐的舞蹈”,而裁量基准正是 “舞蹈的镣铐”。“裁量基准是连接抽象的法律与具体的裁量之间的桥梁,它既是对抽象的法律具体化,又为下一步针吩个案作出具体裁量决定提供一般化的行为规则。”将行政裁量基准规则转换成计算机代码规则,正是将类型化的裁量案例中程式化的、结构性的、相对统一的规则算法化。
具体而言,行政裁量数字化就是将裁量基准中细化的事实情节和格化的法律效果进行计算语言转码,而后根据设计的算法规则对影响裁量的各要素进行权衡赋值。以生态环境部最新开发的 “全国环境行政处罚案件办理系统” 为例,通过在系统中设置 “行政处罚自由裁量计算器” 功能,输入有关裁量因子,经过内设函数运算,对处罚额度进行模拟裁量。首先,综合考虑 违法行为情节、后果的严重程度和违法主体特点,确定各个性基准、共性基准、修正基准因子的数值。其次,对相关项的子个性基准与子共性基准,叠加出总个性基准与总共性基准的数值; 将总个性基准与总共性基准代入二元模型函数,计算出行为等级的数值; 通过行为等级数值,计算得出与违法行为情节、后果相匹配的处罚金额。最后,根据修正基准数值,对处罚金额在限定范围内进行修正,得出最终处罚金额。
就国内外数字化裁量系统的运作模式而言,基本都是采用类似上述案例的方式,其突出特点是通过规则转码将裁量过程严格羁束化。比如,在自动化审批系统中,“大数据提供了大量关于执法和审批的情境性信息,以情境信息的智能分析为基础可以为 ‘裁量行政’ 的 ‘羁束化’ 提供依据” 。通过大数据分析,大量的行政实践得以类型化,并归入相应的裁量基准,由此,裁量的标准化程度得以不断提高。在行政裁量的治理中,作为细化规则的裁量基准的创设在规范裁量权的正当行使上发挥了巨大功能。如果说裁量基准作为一种制度规则尚且具有一定的模糊空间,那么计算机代码规则的不可二义性则将这种狭小的模糊空间也完全消除了。然而,严格规则之下无裁量,线性结构推理过程之下,行政裁量的空间也将被压缩殆尽。正如有学者指出的那样,倘若智能化技术能够实现行政活动完全自动化,自由裁量权被完全消除也将成为可能。如果系统将所有裁量应考虑的事实细节及应赋予的法律效果配对类型化,此时裁量行为实质上已经转变为羁束行为。
( 二) 结果一致性与个案正义性的冲突
“证成裁量正义的理由通常是个别化正义的需要” ,法律授予行政机关行政裁量权的根本目的即在于实现行政执法的个案正义。代码规则将裁量过程严格羁束化固然可以提高裁量结果的一致性,然而,这也可能造成特定个案正义受到侵蚀。首先,数字化裁量的格式化与特定个案之间始终处于一定的张力之中。在行政自动化的初期,自动化所生成的格式化与裁量中的个案正义即存在冲突,时至今日,信息技术的发展导致传统的权力分立格局也发生了变动 ( 阿斯曼,2012) 。行政裁量基准在制度设计上即是一种格式化的构造,其出发点是针对一般化的典型个案群,而不是特定情形下的个案。数字化裁量系统中的决定程序在法律上应当视为裁量基准,其针对的依然是一般化的裁量情形,而无法穷尽裁量的所有情形,难以对特定个案进行合理裁量。然而,从群体层面直接适用到个体层面是一场充满冲突的冒险,可是许多法官、执法者都没注意到这一点 。囿于当前的计算机技术水平,裁量过程中的同理心、道德感等人类特有的伦理标准始终无法进行数据编码并将其转换至算法程序中。在数字化行政中,“当我们从一个需要个性化判断的行政决定走向规程化的程序中,社会的整体利益、人性情 感、地方习俗等因素都可能被忽略” 。当然,数字化裁量的确能够在较大程度上规制执法主体行为以及排除个人资本的影响,有利于解决同案不同判的问题。例如,巴中市公安行政处罚数字裁量系统自 2016 年初运行以来,所办结的案件无申诉投诉,无复议结果被变更,执法公信力得到显著提升。然而,绝对规则的主要危险在于,即使一致适用也可能导致恣意的结果 。行政执法中的不少情形仍然需要行政机关进行特殊个案裁量。现实行政实践中,应该进行特殊个案裁量而没有进行具体裁量所引起的纠纷已不少见。数字化裁量机械性特征的局限性与特殊个案所需要的弹性裁量能力之间始终存在难以逾越的鸿沟。
其次,数字化裁量所代表的技术理性容易诱发执法者的路径依赖。从自上而下的角度看,数字化裁量的主要功能在于提升行政执法行为的标准化; 与之相反,从自下而上的角度看,数字化裁量的格式化意味着对执法者专业化的侵蚀。基于人的依赖心理或者惰性,执法者通常会认为数字化裁量系统代表技术理性,他们更相信机器作出的决定,不会主动对数字化决定进行有意义的审查或者识别 。又或者出于安全和自我保护的需要,一线街头执法者在照章办事的逻辑中为规避风险而寻求免责,由此造成 “判断萎缩”,数字化裁量可能导致执法者异化为呆板遵循算法程序的操作员。尽管数字化裁量系统在功能定位上被限定为裁量辅助,但作为执法单位自上而下规范一线执法裁量权的有力工具,系统的潜在刚性事实上在很大程度上削弱了执法者的裁量能动性。以人工智能在行政处罚裁量中的应用为例,“这种程序化、惯常性的定案方式有可能忽视类案之间的细节差异,淡化行政处罚机关在个案问题上的研判能力,使行政处罚羁束裁量权或自由裁量权在个案处理中流于形式,进而极易产生裁量怠慢的行政失职现象。” 在执法实务中,为避责而僵化遵循数字化裁量结果导致裁量不公的案例已不鲜见。以何友庆诉珠海市公安局交通警察支队香洲大队案为例,交警部门以其无法修改全省平台之设定,主张无法对罚款额度进行调整,即是典型的裁量怠惰的表现。
最后,数字化行政可能引发裁量控制程序逃逸。“在现代社会,行政裁量涉及各种不同利益的博弈、协调和权衡,其实质是一种均衡性的利益衡量,而利益均衡需要通过利益沟通的过程来实现” 。作为电子政务的制度延伸,当前的数字化行政正在向包括实体决定在内的行政程序全自动跃迁。传统行政裁量中,通过公开、听证、说明理由等沟通程序的布设能够促进裁量均衡的达成,但是数字化行政却导致此类裁量控制程序中的某个环节或者全部环节发生逃逸。以现实中的交警非现场执法为例,如果当事人事后对监控技术设备记录的证据或系统认定的违法事实提出异议,如主张车辆被 “套牌”,执法部门通常不按照 “疑违从无” 原则处理,而是要求当事人承担自己没有违法行为的举证责任。此种处理方式对当事人很不公平,因为当事人要 “自证清白” 往往极其困难。对于当事人提出的免责理由,如在行车过程中灯光是否损坏、是否属于紧急避险等,从已有案例来看,当事人的辩解极少成功 。行政程序的本质是一种 “交涉” 过程,以此为基 础,行政机关和行政相对人有了一个意见互动的 “法空间”。“通常而言,在理由与裁量决定的形式关系上,一方面应当要求说明理由与裁量决定具有同时性,亦即应在作出行政裁量决定的同时说明理由。不同时作出,则无法发挥说明理由的应有功能” 。然而,数字化行政导致裁量过程中各主体之间缺乏 “共情”,而 “共 情 ” 则要求行政机关提供人际互动、 倾听和表达关切的机会 。虽然当前的数字化行政中,例如交通执法电子平台流程设计中,也体现了告知、说明理由等要求,但是程序的减损、滞后以及算法不公开等缺陷直接拉低了行政相对人的权利保护水准,由此,裁量中的个案正义也难以得到充分保证。
三、行政裁量技术控制的理念转换:人机协同的机制构建
数字政府建设的加快意味着传统行政方式将发生技术性的时空转换。在人工智能不断渗入的情况下,传统政府正在从单一的自然人的政务智慧集合逐渐演化为人机高度融合的泛政务智慧体系 。随着裁量数字化在行政执法实践领域的应用与推广,以往单纯以 “人” 为中心的裁量治理技术将难以有效发挥作用,行政裁量的治理理念需要向 “人机协同” 转 换。“人机协 同”的裁量治理理念包括: 明确行政裁量数字化的局限性,通过法律保留框定其适用范围; 以外部技术正当程序建构裁量数字化的沟通方式,扩展行政相对人的裁量博弈空间; 以内部系统控制程序推动执法主体与智能机器间的人机协同深度融合,确保裁量辅助功能的发挥。
( 一) 通过法律保留框定行政裁量数字化的适用范围
裁量数字化作为行政裁量领域一种新的技术应用,其争议焦点集中反映在裁量结果的一致性与特定个案正义性之间的矛盾。从理论上讲,两者之间的矛盾无法避免。基于裁量基准转换而来的计算机算法程序,本质上是对过往经验的总结。然而,裁量是未来将面向的,已有经验规则的规范适用在面对变动不居的社会现实时往往显得僵化滞后。即便智能技术发展到机器学习阶段,其运作原理依然是基于过往大数据的关联性知识分析,而不是面向未来的因果判断。行政裁量需要在法律规范和法律事实之间保持目光的 “流连往返”,而数字化裁量却无法实现这种动态交互穿梭,个案正义就难以在事实与规范链接的不断调适中得以实现。因此,只有明确数字化裁量的适用范围,进而调和两者之间的矛盾,才能发挥数字化裁量的相对优势。
首先,从技术转化的角度看,只有复杂度低、确定性高的行政行为才具备裁量数字化转化的可能性。所谓行政行为的复杂性,主要指的是行为程序的偏离度。不经常偏离正常程序的行为复杂程度较低,与那些经常偏离正常程序且不常规的行为相比,更有可能被人工智能数字化。所谓行政行为的确定性,主要指的是行为的可分析性。某一行为越是可分析,该行为的不确定性就越低,越有可能被人工智能数字化 。有学者通过实证研究得出结论,当算法为低复杂度的实践作出决策时,程序的公正性会增加,而对于复杂程度较高的实践,由执法者自身作出决策比计算机程序作出决策具有更高的程序公正性。以当前的 “秒批秒办” 为例,基于部门间数据壁垒的打通,行政许可、行政给付、行政确认等域程序简单、确定程度较高的行政任务均已实现数字化。可以预见,伴随着数字行政的发展,复杂度低 ( 偏离正常程序少) 、不确定性低的行为 ( 可分析性高) 将越来越多地由数字化裁量来完成; 复杂度高 ( 偏离正常程序多) 、不确定性高 ( 可分 析性低) 的行为则依然由人工裁量来完成。
其次,从相对优势的角度看,在结果一致性具有更高价值位阶的行政领域更适宜采用数字化裁量。诚如陈敏教授所言, “盖所谓考量有关个案之各种情况,在由行政人员亲自作成决定时,实际上亦仅及于重要之情况,而非一切情况。如能妥当整理出案件类型,并在自动化决定之程式中纳入各种重要之考量因素,其考量之周密程度不仅不亚于行政人员之亲自处理,其挂漏之可能性反更为减少” 。换言之,并不是每个执法案例都有其裁量特殊性,或者说其特殊性足以抵销乃至超过裁量的一致性要求。在一致性需要超过人工裁量价值的情形下,算法自动化决策比人类裁量更为可取; 在与人类偏见有关的风险超过自动化偏见的领域,自动化决策更有吸引力。裁量固然有其个案属性,个案正义当然是裁量追求的首要价值,不过,在案件事实相对简单、法律涵摄相对容易的执法裁量情境中,裁量结果一致性的提升即代表着更高的正义性要求。裁量一致性所代表的正义价值在实际执法过程中也能得到佐证: 对于数额相对较小的罚款,相对人并不十分在意具体的金额大小,更看重的是相同情形下是否得到同样的对待。因此,在裁量一致性要求较高的行政执法领域,数字化裁量的相对优势更为明显。
最后,从风险防范的角度看,对部分数字化裁量的适用宜通过法律保留框定其边界。技术视角从底层逻辑探讨了数字化裁量的可能性,与人工裁量比较而言的相对优势指明了数字化裁量的适用情境,而法律风险的防范则还需要进一步限缩数字化裁量的范围。尽管当前的数字化裁量仍然以半自动化为主,但是数字化行政的水平正在向全自动跃迁。以健康码为例,通过大数据的智能分析,自动分配不同颜色标识的二维码以代表不同的风险等级,这一过程事实上已经形成裁量的全自动化,尽管其功能依然定位于辅助决策,但却可能对相对人的权利产生直接影响。在全自动化裁量的情形下,反复适用涉及面广,一旦发生错误将引发弥散化的损害后果,其纠正成本将是巨大的。故而,需着眼于实体法数字化适用的特殊性,在制度建构上,从规范的数字化契合性和技术可控性角度框定完全数字化实施的边界 。就当前及今后较长时间看,对事实上能够直接作出裁量决定的全自动化裁量宜坚持法律保留,将其适用范围限定于给付行政行为。传统上,与干预行政行为相对的给付行政行为,并非对人民自由财产的侵害,因此从法律保留通说的侵害保留理论出发,无须有法律保留原则的适用。当然,给付行政行为一般也要有组织法依据和行为法依据,但在某些特定情况下,即便没有行为法依据,也允许行政主体积极能动地采取相应措施。通过法规或者规章对裁量全自动化的适用作出细则规定,裁量全自动化具有一定的适用空间。需要强调的是,裁量全自动化并不意味着程序的必然削减或者弱化,相反,行政正当程序更应得到强化,特别是要通过事后程序机制的设计来补充自动化所带来的事前和事中程序的疏漏。
( 二) 以技术正当程序构建数字化裁量的外部人机协同机制
行政裁量的根本目标在于实现裁量实体上的利益均衡,而达成这一目标则需要相应的程序设计作为制度保障。现代法律程序所要实现的最低限度的程序正义至少应当包括程序中立性、程序参与性和程序公开性等三项基本原则。具体而言,程序中立性的核心要求在于 “避免偏私”,程序参与性的核心要求在于“公平听证”,程序公开性的核心要求在于 “行政公开”。当前,从 “数据正义” 的基本伦理准则所导出的数据治理行为所应遵循的非歧视性、技术参与性和可见性三项原则 ,实质上与正当程序原则的要求是一致的。面对传统的程序制度在数字化行政背景下被架空的风险,行政裁量治理的程序理念需要向 “正当技术程序” 进行转型 ,以往的避免偏私、公平听证、行政公开等程序安排有必要作出新的调整。
行政程序中的 “避免偏私” 原则包括两个基本要求: 一是不存在利益牵连,二是不存在个人偏见。就现今的数字技术应用而言,以大数据、互联网、人工智能等为代表的现代数字技术在电子政务中的运用,有效地规避了行政活动的利益纠葛与执法者的主观偏见,促进了公共行政的过程平等。数字时代政府服务供给过程中的适用法律,集中体现于数字平台的政务服务算法之中,这包括法律适用中对裁量与公正的选择,对严苛与歧视的消除。数字时代的实质不平等可能主要源于人们之间的数字鸿沟。申言之,在数字化行政过程中,行政主体针对具体行政个案的主观 “偏私” 将不复存在,平等与否将主要由相对人之间的数字能力差异来决定。因此,在数字行政背景下,“避免偏私” 意味着要赋予相对人的程序选择权 。过度倚重程序智能可能会出现异化风险,要实现实质正义就需要在刚性治理和弹性治理之间进行平衡 。当行政相对人由于自身能力限制,无法通过数字技术参与行政活动获得公共服务时,其本身具有要求行政主体人工介入的权利。例如,在疫情防控期间,健康码的生成和利用虽然事实上形成了行政裁量的全自动化,但是在实施具体防控措施时不能一刀切,不能唯健康码论,不会熟练使用智能手机的老人等数字弱势群体应依法享有人工介入的权利。
行政参与权的核心是听证权,即 “被听取意见” 的权利,行政机关在对相对人作出不利决定时,必须听取相对人的意见。公平听证作为行政裁量过程中利益沟通的一般方式,在数字化裁量条件下,需要 “前置” 为算法开发评估参与程序。传统的行政过程中,通过 “面对面” 的沟通,行政相对人可以充分表达自己的意 见,从而影响行政权力运行结果的形成。而在数字化行政情境下,行政裁量过程瞬间完成,可能将听证程序完全排除,行政相对人的博弈空间被挤压殆尽。由于解码算法自动化决策的成本过高,而验证由该算法作出的某个具体决策是否准确,相比之下收益变得极小,在算法自动化决策作出具体行政行为的情况下,具体个案的听证成本极高 。因此,行政参与原则所要求的 “公平听证” 程序只能 “前置”,行政相对人通过参与算法影响评估过程,进而反映自身利益诉求。当前,算法影响评估制度正由倡议落实为制度。例如,美国华盛顿州的 HB165 法案,规定公共部门算法系统在正式投入使用前必须通过公共网站予以公布,并邀请公众就算法问责报告发表意见。不过,公民或者相对人参与算法开发评估程序究竟能否发挥实质性作用,却受制于自身数字能力的限制。对复杂算法以及机器深度学习算法的理解,本身难度很大,即便由专业人员予以解释,作为普通公民能否清晰准确地理解由该算法带来的权利义务影响也不无存疑,由此所导致的算法开发评估程序的 “虚置”需要其他程序装置予以补充。
行政公开是现代民主政治的应有之义,其目的在于满足公民的知情权,实现对行政的监督。在行政裁量的建构模式中,所有行政裁量的控制措施都必须与公开结合起来才能保证其功能的发挥。将行使行政裁量权的依据、标准、条件、决策过程以及选择结果予以公开,已经成为世界各国行政程序法通行的制 安排。在数字化裁量的情境下,算法扮演着关键角色,但算法公开却是一件较为棘手的事情。以 往,人们认为算法存在 “黑 箱”,难 以 捉 摸,然 而,实 际上,将算法神化为 “黑箱” 或者 “魔 盒”,很可能是权力或者利益操纵的结果( 库克里克,2017) 。一方面,公共部门一般不具备开发数字化决策系统的技术条件,往往将其外包给企业,但算法开发企业往往将算法视为其商业秘密而不予公开。另一方面,公共部门也担心公开算法会导致算法被恶意篡改或者被规避。行政公开是正当程序的基本要求,其相较于商业秘密保护具有更高的价值位阶。因此,算法在行政活动中的应用应坚持以公开为原则,不 公 开 为 例 外。当然,考虑到算法可能涉及知识产权保护等因素,公开并不意味着将技术源代码公之于众,而是公开代码化的法律规则。更确切地说,即采用以主体为中心的解释路径,公开相关算法与数据对主体会带来哪些影响。例如,有关数据主体的相关数据的变化会对其决策产生哪些方向性变化? 哪些被用于训练的数据记录与数据主体的数据最为相似? 数据主体被归纳为某种类别的主要特征是什么? 等等 ( 丁晓东,2020) 。这种解释方式不但不会影响知识产权归属争议,而且也能为相关主体决策提供有意义的参考。
( 三) 以系统控制程序构建数字化裁量的内部人机协同机制
外部技术正当程序以行政相对人视角,通过算法公开、评估等程序增强相对人的博弈能力,进而促进裁量均衡。不过,由于算法本身的复杂性以及公众普遍存在 “技术文盲” 的现实,在需要理解系统的决策逻辑并对算法决策的合理性、公平性进行检视时,外部解释明显有隔靴搔痒之嫌 。实际上,新技术在数字政府中的应用具有高度复杂性,普通人难以理解,更不可能对其进行实质性审查,这也正是部分学者认为将透明度普及于公众并无意义的原因所在 。值得关注的是,最早提出技术正当程序的 Citron教授,新近的观点也指出,传统上的法律和技术设计,即便足以确保自动化决策遵循正当程序,但越来越多的自动化行政决策依旧可能架空行政机关的专业知识和自由裁量权。因此,她提出一种更为积极的方案: 行政机关应当审慎地利用技术性工具,来积累自身的专业知识,提高自身决策能力和回应性 。在技术飞跃式发展的当前,若要保证数字技术参与裁量的公正性,内部控制程序的运用很可能才是最为关键的一环。在人工智能算法带来行政数字化水平突飞猛进的形势下,通过构建系统运行控制程序,促进人机深度协同,数字化裁量的公正性才能得到前置性保障。
首先,构建算法裁量系统开发过程中行政主体的深度嵌入机制。算法系统与法律系统之间转换的核心目标是实现规则转码的准确性,这是保障数字化裁量公正性的前提条件。在实践中,受制于自身人力与技术条件的限制,算法软件的开发设计往往由独立于行政机关的第三方企业承担。然而,这与行政机关以往的向第三方私主体购置办公设备而形成的简单的采购合同关系存在明显不同,代码转译的过程事实上构成了行政权行使的外包,系统设计者和软件开发者获得了对公共行政过程和结果的影响权。企业的商业利益以及开发者有意识或者无意识的歧视偏见都可能会渗入算法设计之中,影响法律规则转码的准确性,从而导致裁量结果产生偏离。因此,在算法系统设计开发中,相关主体的自由裁量权应受到相应的规制。一 方面,要完善算法系统开发的准入机制。当前,人工智能产业尚处于起步阶段,在算法系统市场准入上宜秉持开放态度。除涉及国家安全、公共利益和公民人身安全的领域外,对于国家、地方尚未制定标准但符合更严格产品标准或者规范的人工智能算法产品和服务,加快低风险细分领域的产品行政许可,允许通过测试、试验、试点等方式,支持低风险人工智能算法产品和服务先行先试。另一方面,深化行政主体的算法开发参与机制。行政主体要深度参与算法系统技术方案的论证过程,不仅要审慎选择技术开发主体,在资质上严格把关,而且要让行政执法一线人员参与开发,就技术细节与算法开发人员深入交流,从而确保裁量基准的精准转码,将尽可能多的可类型化的个案纳入数字化裁量的范畴,减少特定裁量的情形。同时,强化行政主体对算法数字化裁量系统的功能检验职责。虽然行政主体不具有软件开发上的相对技术优势,但是可以通过设定相关的技术指标,对算法系统进行实际应用场景模拟,进而开展技术验收以确认其是否满足性能指数。
其次,完善算法裁量系统的第三方审计机制。算法系统开发的结束,并不意味着算法自然获得大众认可的公正性。在算法软件的实际运行中,总会遇到因算法决策而产生的矛盾纠纷,此时由独立于行政机关与算法开发企业的第三方出具审计意见以回应质疑,方能凸显其公正性。例如,2019 年 9 月 28 日,杭州阳光城 未来悦完成公证摇号后,有购房者发现摇号结果中出现大量集中连号,负责此次摇号公证的杭州市国立公证处受到广泛质疑,直至浙江千麦司法鉴定中心出具鉴定意见后,事件才得以平息。又如,在声呐电子警察相关案例中,相对人对声呐定位的可靠性提出质疑,作为答辩,行政机关提出违法鸣喇叭抓拍设备均已通过国家权威机构检验的证据,法院最终采纳了行政机关的观点。因此,有必要引入算法裁量系统的第三方审计机制。具体而言,一是制定算法技术认证标准,作为算法审计的参考依据。在地方立法实践中,以技术标准规范算法运用已初见雏形。2021 年 7 月 14 日公布的 《深圳经济特区人工智能产业促进条例 ( 草案) 》 强调要建立和完善人工智能的地方标准体系。二是设置独立的算法审计专门机构并完善测评方法。深圳经济特区设立人工智能伦理委员会正是有益的尝试与探索。在算法审计机构人员构成上,应尽可能吸纳计算科学、伦理学、数学、法学等领域具有跨学科优势的专家。在审计内容上,可以对数据垄断、算法歧视、智能滥用、深度造假、伦理道德、不平等智能操作等重点领域开展监测、研判与审计。在审计方法上,审计人员可借助专门的自动化软件测试工具和测试管理工具检验算法的公正性,提高算法测试的效率。
最后,健全算法运行过程中的裁量偏差预警与人工介入机制。在数字化裁量实施过程中,算法规则作用于个案,始终无法消弭规则转码前后契合度的顾虑,即预置的算法裁量程序很可能无法完全抵消个案间差异的影响而反复适用。因此,需要建立系统裁量偏差的预警识别机制以及特定情形下的人工介入机制。一是可以开发裁量类案自动推送系统。2019 年 1 月发布的 《关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》,强调要强化智能应用,利用语音识别、文本分析等技术对行政执法信息数据资源进行分析挖掘,向执法人员精准推送办案规范、法律法规规定、相似案例等信息,有效约束规范行政自由裁量权,确保执法尺度统一。现实执法情境下,由于不同行政机关负责的执法事项差别较大,尤其需要提高类案的 “标签化” “结构化” 水平,从而提升类案比对的精确性,对发生的重大裁量偏差能够实现自动预警。二是规定特定情形下的人工介入义务。当裁量偏差超过警戒值引发系统预警时,行政机关应及时将数字裁量方式转为人工裁量方式。早在 2017 年,国务院发布的 《 “互联网 + 政务服务” 技术体系建设指南》 就要求设置裁量异常监察,识别收费裁量是否异常。又如,南京环保局开发 “行政处罚自由裁量辅助决策系统” 时,针对性地设计了 “系统裁量” 和 “会议裁量” 两套系统,两者相互印证使用,有效发挥了处罚裁量偏离度过大的预警功能。需要提及的是,除相关规范课以的介入义务外,也应当赋予行政机关主动介入数字化行政过程的裁量权。尽管行政行为以自动化的方式实施,但这并不意味着对行政过程监督的放弃,对于个案裁量可能发生偏离的情形,行政机关可以结合具体的裁量判断作出是否转为人工实施的决定。
四、结语
在人工智能飞速发展的今天,在数字政府建设快速推进的大背景下,数字技术将越来越多地嵌入国家治理之中,数字化行政方式将更多地参与行政过程以提高行政效能,数字化裁量也将在行政裁量治理中发挥更多的作用。尽管数字化裁量具有相对人工裁量的技术优势,但是,我们不能忘记康德的训诫———人是目的,而不是手段; 也不能忽视哈耶克的警示———妄想用理性彻底征服无知,消除所有的不确定性,本身就是人类的另一种不成熟。在数字化裁量政务服务的场景应用中,行政执法者的能动性不仅不能被削弱,而且还需要通过相应的机制设计得到保证与强化。无论人工智能所代表的数字技术如何发展,也永远无法取代人的主体地位。个案正义是行政裁量所追求的永恒目标,法律规则转化为算法程序是一项非常复杂的系统性工程,如何调和系统机器的机械性与个案的特殊性之间的矛盾,将是数字化裁量始终面对的难题。因此,在推进包括数字化裁量在内的新型数字技术运用于法治领域时,我们务必保有足够的警惕。