摘 要:技术跃迁诱发行政机关对数字技术的拓深应用,行政许可、行政处罚等公共行政迎来了自动化行政时代。自动化行政具有的算法特征导致法律赋予相对人的陈述、申辩、说明理由、听证等程序性权利被悬置。技术性正当程序是正当程序的数字化延伸。应通过对自动化行政构成要素的提取、要素关系的梳理及要素价值的论证,构建解决自动化行政正当程序问题的“四维度八要素”规制框架,丰富技术性正当程序理论的时代内涵。在将该规制框架转化为法律制度的过程中,应立足于我国自动化行政的规范实践,从理念革新与制度构建两方面形成自动化行政的技术性正当程序规制进路。
关键词:自动化行政;正当程序;技术性正当程序;程序规制
近年来,我国政府建设正经历从“互联网+政务服务”到“数字政府”的规模化发展。数字技术深度嵌入行政治理催生出了“自动化行政”这一崭新的行政模式。尽管在当前弱人工智能的技术背景下,自动化行政尚未达到具有裁量能力的全自动化行政,但部分自动化行政的场景化应用却已屡见不鲜。从交通执法的“电子警察”到行政处罚的“电子取证”,从食品安全监管的“明厨亮灶”到行政许可的“智能审批”,行政治理呈现出自动化甚至是智能化的发展趋势。行政领域所使用的自动化系统虽然有助于提高行政行为的一致性与高效性,但也可能导致“数据鸿沟”“算法黑箱”“程序失序”等实践困境以及行政法学研究范式与规制理念更新迟滞的理论难题。这些实践困境与理论难题表明,行政效能提升与行政程序运行之间存在相当程度的割裂。在数字政府变革与行政法法典化的双重加持下,如何通过革新程序规制理念与构建程序规范机制来消除技术迭代与规则迭代之间的异步性困境,已成为自动化行政法治化发展道路上亟待研究的重大议题。
一、自动化行政引发的正当程序问题及其成因
自动化系统在行政程序中的强势融入,加剧了行政主体与相对人之间的技术不对等、信息不对称,剥夺了公民参与自动化行政过程的机会,法律赋予公民的陈述、申辩、说明理由、听证等程序性权利面临保障不足的问题。这是因为自动化行政在传统行政活动的主体、情感、空间、秩序等要素方面发生了巨大转变,但自动化行政程序并未从“自定”走向“法定”。
(一)自动化行政引发的正当程序问题
中立性、参与性、公开性构成了传统行政法中最低限度的正当程序要求。当前,虽然社会环境发生了剧烈变化,但是正当程序的基本要求具有“超时空性”与“鲁棒性”,在技术快速迭代的数字社会中仍然可以发挥的法治功能。与此同时,自动化行政具有程序自动性、数据依赖性、决策隐蔽性、不易解释性等算法特征,人们会本能地质疑自动化行政的可靠性,所以评价自动化行政程序正当与否的标准还应包括相对人的主观评价,即公正性。受制于自动化系统固有的“数据鸿沟”与“算法黑箱”,自动化系统在具体部署与应用过程中可能危及行政正当程序。因此,以正当程序的最低限度要求为评价依据,自动化行政引发的正当程序问题主要表现在程序参与、程序公开、程序中立、程序公正四个维度。
在程序参与维度,自动化行政可能架空程序参与要求。哈贝马斯(Jürgen Habermas)认为,参与交往行动的主体愿意使其交往行动建立在彼此共识的基础之上,而这种共识又建立在主体间相互承认的基础之上。我国行政法对陈述、申辩、说明理由、听证等行政程序做出明确要求,自动化行政模式并不可能改变行政行为的法律性质,故行政法的程序要求仍适用于自动化行政。但自动化行政往往是瞬时完成的,且其无人化导致程序要求的空置化:其一,自动化系统对行政程序进行了简化,导致相对人的陈述与申辩程序出现了不同程度的缺失;其二,相对人非结构化的陈述、申辩意见难以转换为机器代码,而无法进入行政机关的考察视野;其三,行政机关在自动化行政中常常直接以电子送达方式通知相对人,导致行政机关的告知与说明理由程序缺省;其四,自动化行政的算法特征导致行政处罚中的事前听证程序被完全架空,甚至部分国家的行政程序法明确规定自动化行政可以免除事先听证程序。
在程序公开维度,自动化行政决策中存在的“算法黑箱”可能遮蔽程序公开要求。算法是自动化行政的主要凭借,算法的黑箱效应导致行政公开面临技术困境。算法黑箱本质上是人工智能在输入与输出之间难以被人类理解的技术隐层,其表现形态既可以是符号代码也可以是保密信息。自动化系统的暗箱运行特征,导致相对人无法对其数据错误或系统缺陷进行有效监督,进而影响程序公开原则在数字社会的实现。在实践中,受限于人力与技术条件的限制,行政机关通常不具备研发能力,自动化系统研发需依赖市场机制中的科技企业。例如,杭州城市数据大脑的超大规模计算平台采用了阿里云公司自主研发的飞天(Apsara)系统,数据采集系统采用了海康威视公司、大华股份等公司的图像视频处理技术与智能算法。在市场化的算法应用机制中,科技企业成为横亘在行政机关与相对人之间的营利主体,其通过申请商业秘密或者专利保护而合法享有算法公开抗辩权。例如,在全国首例算法商业秘密保护的“智搜诉光速蜗牛案”中,法院认为,经智搜公司优化后的推荐算法是不为公众所知的劳动成果而应视为商业秘密予以保护。
在程序中立维度,自动化系统的技术性偏差可能减损程序中立要求。传统上行政人员需要对照特定分类特征才能实施的歧视行为,在数字社会被深度隐藏于自动化系统的算法运行之中。相对人容易被数字技术的中立表象所迷惑,而忽视自动化系统固有的技术性偏差。一方面,自动化系统的训练数据存在样本偏差。在数据抓取过程中,由于不同数据样本的社会关注度不同,因而自动化系统会选择性地抓取具有社会关注度与代表性的多数群体数据,而忽略不具有代表性的少数群体数据。例如,谷歌图片(Google Photos)的自动标签功能将黑人的照片贴上了“大猩猩标签”。另一方面,不同参与者的利益倾向导致算法价值的非中立。若训练数据存在的样本偏见属于“技术性偏见”,则不同参与者的主观偏见属于“既存性偏见”。自动化系统需要依靠人类完成建制,不同参与者的个人偏好以数据库特征与计算机代码的形式内嵌于系统运行过程,以隐而不显的方式影响着自动化行政。
在程序公正维度,自动化事实认定可能危及程序公正要求。若程序中立关注的是行政过程无偏私,程序公正关注的则是结果正义。程序公正对于结果正义的实现发挥着保证作用,结果正义又影响着相对人对程序正义的真实感受。在数字社会,自动化事实认定促使证据形态与证明方式发生数字化变革,动摇了事实认定的法律基础并带来了公众接受度难题。尽管修订事实认定的法律基础较易实现,但是提升公众接受度则需要长期的过程。据统计,道路交通中广泛使用的车牌识别系统(VLPR),在夜晚对车牌颜色、字母与数字的自动识别率仅有90%。在司法案例中,电子警察抓拍的照片常常难以识别车辆变道时是否开启转向灯,或身穿深色衣服的司机是否按规定系好了安全带。由于自动化事实认定不具有类似于指纹、DNA及虹膜识别的唯一性,导致用其作为证据无法达到排除合理怀疑的程度。如果仅仅强调统计学意义上的高盖然性,那么相对人很可能无法接受自动化系统形成的事实认定。
(二)自动化行政正当程序问题的成因分析
在规范层面,我国尚处于行政机关自行制定程序实施自动化行政活动的状态,导致行政程序缺陷问题显著。行政机关开展自动化行政的“法律依据”并非程序性法律,而是实体性法律中针对行政活动的原则性规定。然而,行政机关在自行制定程序时通常是以方便行政、避免其承担责任为出发点进行设计,尚缺乏法律机制监督其是否遵循程序法定原则。因此,将自动化行政程序从行政机关“自定”提升为立法机关“法定”势在必行。在实践层面,因自动化系统嵌入所产生的复杂人机关系导致行政程序缺陷问题频发。自动化系统在某些方面显现出可完全替代行政机关的潜力,行政活动由“人类主导”转为“机器决策”。自动化行政过程具有无接触式特征,过去行政人员必须在场的“情感裁量”转变为行政人员不必在场的“技术理性”。自动化行政引发的正当程序问题,不仅削弱了人类在行政过程中的主体地位,而且冲击了以人类为中心所构建的法律秩序。人类的情感理性被忽视,导致“去人类中心化”势头蔓延,传统社会的“法律秩序”被基于自动化系统构建的“算法秩序”所取代。以机器行为学为视角,借鉴行为学研究范式将自动化系统视为拟制行为主体,以此为基础构建的“主体—情感—空间—秩序”结构,可以为解构自动化行政正当程序问题成因提供一种行为学解释框架。
自动化行政中的决策主体由“人类主导”转向“机器决策”。行政活动源于行政机关的具体行政行为而非自动化系统的机器运行,因此讨论行政行为不能脱离生物意义上的自然人。但在行政活动数字化进程中,自动化系统逐步从行政机关的辅助者、代理者转变为替代者。这种人类主体地位被完全替代的趋势,暗含于自动化行政从辅助自动化行政到完全自动化行政的更新换代之中。霍布斯(Thomas Hobbes)指出,技术利维坦的本质是“人造的人”,即技术嵌入行政程序所导致的官僚制重塑。行政实践表明,无论是行政人员还是相对人,均已陷入被“机器决策”支配的境地之中。例如,《珠海经济特区道路交通安全管理条例》针对交通违法行为规定了200元至500元的罚款,但是交通管理系统却自动设定这类违法行为的罚款金额为500元,导致交警只能通过该系统作出顶格处罚。
自动化行政决策方式由“情感裁量”转向“技术理性”。韦伯(Max Weber)认为,过度强调科层制将会贬损人性价值。现实中的行政治理体系依托于科层制的组织结构,行政治理过程因而缺乏弹性空间。在自动化行政中,自动化系统逐步将“人的情感”从行政治理中剥离,进一步强化了科层制的非人格化特质。但是,一项合理的行政决定并非机械套用法律规范就可以作出,而是依赖“法—理—情”的多维构建:适配的法律规范、丰富的行政经验、理性的人类情感。虽然脱离人类情感与人文关怀的技术治理是否会走向“技术利维坦”还有待于行政实践加以检验,但是程式化的自动化行政因缺乏人类情感而易遮蔽法律条文背后的道德光辉与人性精神则是人们的基本共识。受困于机器的形而上学与自身参与度的降低,多数行政相对人更加无法切身感受到公平正义,因而内心抵触存在“算法黑箱”的自动化决策。这最终只会削弱行政机关的政府公信力。
自动化行政的活动空间由“物理空间”拓展至“虚拟空间”。以行政处罚为例,传统行政执法场景是执法人员与相对人面对面交涉,双方关系表现为一种物理空间在场关系。但在自动化行政中,执法场景转变为自动化系统的算法运行,双方关系表现为一种虚拟空间在场关系。自动化行政的时空异域性引发行政执法从“人际互动”到“人机互动”的转变,间接悬置了行政相对人的陈述、申辩等权利。此外,传统现场执法受人力资源、时间成本等客观因素所限,公众被处罚概率较低与立法处罚力度较严之间取得微妙平衡,行政处罚呈现“严格立法、选择执法”的实践态样。但自动化系统的广泛部署与全时运行提高了公众被处罚概率,而原有的立法处罚力度却未相应调低,导致自动化行政处罚密度失衡并易导致“全民违法”现象。
自动化行政的公共秩序由“法律秩序”转向“算法秩序”。随着公民行为与行政行为被打上数字化技术烙印,维持数字社会的公共秩序越来越多地依靠自动化系统,算法规则成为维护公共秩序的工具,行政场域因而演变为技术驱动的计算空间。自动化行政依赖算法驱动,算法即规则,规则即统治,这意味着以算法为中心重建了行政场域的公共秩序。在自动化系统建构过程中,设计者需将法律规范(以自然语言表现)转码为机器可识别的算法规则(以机器语言表现),暗含了算法规则技术性替代、细化甚至更改法律规范的法律代码化风险。法律代码化意味着自动化系统具有了执法与立法属性,并在事实上架空了法定的执法权与立法权,传统行政治理依靠的“法律秩序”异化为“算法秩序”。
二、技术性正当程序:正当程序的数字化发展与过程论阐释
技术性正当程序(Technological due process)作为正当程序在数字社会的重大理论发展,对于自动化行政的程序规制极具启发。然而,数字技术处于不断发展之中,为解决自动化行政引发的正当程序问题,应在希特伦(Danielle Keats Citron)提出的技术性正当程序理论基础上,结合新近数字技术的应用特点,丰富技术性正当程序理论的时代内涵。
(一)技术性正当程序的核心主张
面对数字技术对行政正当程序的冲击,希特伦(Danielle Keats Citron)于2008年前瞻性地提出了技术性正当程序理论。此后,技术性正当程序理论受到了学术界与工业界的广泛关注。例如,美国电气电子工程师协会(IEEE)在2017年发布的第二版《符合伦理的设计(Ethically Aligned Design Version 2)》法律部分“政府对自动化系统的使用(Governmental Use of A/IS)”中,特别提及希特伦发表在《华盛顿大学法律评论》上的“技术性正当程序”一文。整体而言,技术性正当程序从全面、动态、多元视角,从算法设计到系统运行对数字社会如何保护行政正当程序进行了过程论诠释。纵观希特伦的研究,技术性正当程序理论主要围绕内置规范选择、系统算法设计、系统审计轨迹、消除听证偏见四个方面展开:(1)在内置规范选择方面,希特伦主张应区分“规则”与“标准”。法律可以采取规则、标准或者二者结合体的形式,因此法律在规则和标准之间的合理分工一直是法学研究的焦点问题。规则预先规定了特定事项所附随的后果,为公众建立了可预测的行为指引。比如,某地段的速度限制是交警不能改变的规则。标准允许决策者自由裁量,以实现实质公平。比如,允许交警评估机动车在某地段是否以合理的速度驾驶。标准还要求决策者阐明作出行政决定的原因,提升了“标准模糊的权衡过程”的透明度与可责性。自动化行政的广泛部署与应用,为解决这一焦点问题指明了方向,原因有二:其一,行政机关出于成本与效率的考量,更倾向于数字化他们职权范围内的现有规范;其二,持有主观偏见的行政人员总是伤害一个群体而偏袒另一个群体,但自动化系统的算法偏见可以通过技术迭代纠正这种偏见。相比于自动化系统在适用标准时的不确定性,其在适用规则时优势明显,故自动化行政的运行依据应为规则而非标准。(2)在系统算法设计方面,希特伦主张应以透明性与可问责性作为自动化系统设计目标。为了实现这一设计目标,需要从以下四方面入手。其一,自动化系统的供应商应公开自动化系统的源代码。开放源代码既有助于揭示自动化系统的工作原理,也可以阐明其中所包含的规范内容:其二,行政机关应在自动化系统投入使用前、运行期间及内置规范修改时进行严格测试。随着行政机关越来越多地使用自动化系统,系统供应商呈现同质化趋向,这为制定统一的测试规则提供了客观条件。其三,行政机关应当探索公众参与系统建构的合理途径。例如,通过建立信息技术审查委员会,为公众质询算法设计提供有效渠道。其四,行政机关不得将未经规则制定程序的解释性规则与政策性声明,转化为自动化系统的机器代码与算法规则。虽然严格遵循规则制定程序并不意味着可以完全消除在系统建置过程中将立法权无形之中委托给算法设计者所产生的问责风险,但这种禁止性要求却可以最大程度地避免由此产生的问责风险。(3)在系统审计轨迹方面,希特伦主张在自动化系统中生成并保存审计轨迹,以辅助行政机关向行政相对人发出“有意义的通知”。审计轨迹既应当包括与行政决定相关的历史记录,也应当详细说明自动化行政所依据的具体规则。借助于留存的审计轨迹,行政机关可以向相对人告知行政决定及其理由,进一步增强自动化行政的可解释性。关于自动化系统生成并保存审计轨迹的方式,可以借鉴澳大利亚等国家出台的规范。在制定留存审计轨迹的法律规范时,为了确保行政机关履行充分的信息通知义务,应当要求自动化行政遵循统一的法律规范。原因有二:一是在法律强制性要求下,系统供应商无法出于成本考量而忽略审计轨迹功能;二是统一的法律规范可以确保行政机关不以供应商差异为由,而对不同相对人提供相异的通知。当然,要求供应商开发具有审计轨迹功能的自动化系统,势必会增加系统开发的原始成本,但这仅仅是固定成本,自动化系统的后续使用几乎不会再产生其他成本。(4)在消除听证偏见方面,希特伦主张在听证程序中设置机制纠正听证法官的“技术盲从”,确保相对人获得“被听取意见的机会”。在英美法系,听证法官的职责为主持听证、认定事实、适用法律并做出初步裁决。立法应从三个途径维持听证法官的中立性。首先,行政机关应向听证法官告知自动化系统可能存在的数据错误或者系统缺陷。在听证程序中,听证法官需消除先入为主的技术决定主义,秉持中立态度听取行政相对人所发表的意见。其次,听证法官应参加关于自动化系统运行原理的技术培训,以便客观评价自动化行政是否有误。例如,针对评估专家证词可靠性的联邦地区法院法官开展的技术培训,在实践中被证明是富有成效的。最后,行政机关应要求听证法官说明其在做出初步裁决时的技术依赖度,或者要求听证法官列明其在做出初步裁决时所依赖的自动化事实认定。这一要求符合行政正当程序中由来已久的说明理由要求,即行政机关应当明确说明做出决定的依据。
(二)技术性正当程序的理论特点
技术性正当程序的提出,是理论研究与制度实践融合发展的结果。纵观有关技术性正当程序的研究成果,其具有鲜明的理论特点:以行政过程论为分析视角,在继承并发扬传统正当程序的基础上,以提升行政相对人的信息能力为出发点,以法律规范纠正技术的自我优待为落脚点,为解决自动化行政的正当程序问题提供了一种创新性规制框架。(1)技术性正当程序以行政过程论为分析视角,覆盖了自动化行政在事前、事中、事后出现的复数、关联行政或非行政行为。在事前,该理论既要求自动化系统在投入使用前进行测试评估,也要求公开自动化系统的源代码与算法。在事中,主张自动化行政的依据应为“规则”而非“标准”,指出公众应参与自动化行政过程,自动化系统中应保留人为干预选项。在事后,强调自动化系统应当生成并保存审计轨迹,并设置听证法官技术培训机制与听证法官决策释明机制。特别是该理论还主张在系统内置规范发生变动时,行政机关应动态进行严格的测试评估。因此,技术性正当程序理论符合发轫于日本行政法学界的行政过程论所提倡的“全面、动态、多元”的考察要求:按照自动化行政活动的一般运行逻辑进行阶段性构造的分类梳理,旨在从宏观层面还原自动化行政活动之规制全貌;将阶段性的行政辅助行为或准备工作置于整个自动化行政目的之中进行研判,旨在从微观层面管窥自动化行政行为之法律构造。(2)技术性正当程序继承并发扬传统行政正当程序,有效填补了行政正当程序在数字社会形成的“理论鸿沟”。虽然技术迭代加速了社会进步,但是行政正当程序所强调的中立性、参与性、公开性、公正性等最低限度要求所追求的透明、准确、负责、参与、公平等价值目标,不因数字技术在行政领域的拓深运用而贬损。自动化行政的服务对象依然是人类,而在人类仍处于主体性地位的行政程序中,技术性正当程序理论对相对人的程序性权利的保护亦不会改变。因此,技术性正当程序以传统行政正当程序为基础,进一步丰富了行政正当程序的时代内涵,与传统行政正当程序共同推动程序正义目标的实现。(3)技术性正当程序注重加强公民的信息能力建设。技术性正当程序理论的形成,主要基于以下判断:自动化行政既可能降低相对人对行政行为的可接受度,也可能悬置行政机关做出行政行为的事后问责机制,因此需要建立新的规范机制强化自动化行政的透明性与可问责性。技术性正当程序将自动化系统的建构、设计与运行过程一并纳入规制框架,为实现自动化行政的程序正义提供了技术性与规范性相结合的规制框架,故技术赋能理念贯穿于技术性正当程序理论的始终。具体而言,面对行政机关与行政相对人的信息能力失衡,希特伦主张通过对行政相对人进行技术性、过程性赋能,捍卫被自动化系统隐蔽威胁的人的主体性与个人尊严,提升相对人挑战自动化行政的信息能力。例如,留存审计轨迹、公开源代码及引入公众参与机制等主张,可显著增强相对人质疑自动化行政错误的信息能力。(4)技术性正当程序提倡以法律规范纠正技术的自我优待。“非此即彼”只适用于落后社会,“亦此亦彼”才是数字社会的治理特征。技术性正当程序理论主张法律专家与技术专家相互配合,共同塑造行政正当程序的全新轮廓。在革新行政正当程序的过程中,技术性正当程序主张行政机关通过行政手段、立法机构通过立法手段将针对系统供应商的技术规制要求制度化。以要求自动化系统供应商公开源代码为例,技术性正当程序不仅要求行政机关将供应商开放源代码作为行政机关提供采购资金的先决条件,而且主张立法机构制定法律强制要求供应商开放源代码。比如,在要求自动化系统生成并保存审计轨迹时,技术性正当程序强调立法机构应当制定关于审计轨迹的法律规范,以便系统供应商统一遵循。因此,技术性正当程序主张自动化行政程序应从“自定”走向“法定”,通过法律规范纠正技术的自我优待。
(三)技术性正当程序的理论规制框架
行政正当程序的最低限度要求与自动化行政的算法技术特征,共同构成了自动化行政技术性正当程序的规制基础。以规范性是一种结构化过程为立足点,从自动化系统的建置设计到运行输出,技术性正当程序针对自动化行政所构建的规制框架可扩展为“四维度八要素”。其中,四个基本维度包括“程序中立”“程序参与”“程序公开”“程序公正”,八个程序要素包括“测试评估”“审计轨迹”“公众参与”“理性听证”“原理公开”“信息告知”“限制裁量”“人为干预”。(1)在程序中立维度,应围绕自动化系统的“测试评估”与“审计轨迹”展开。系统供应商既应在自动化系统投入使用前、运行期间以及内置规范修改时进行严格的系统测试,也应在自动化系统中设置留存审计轨迹的功能。技术性正当程序对自动化行政的程序中立性约束,首先体现为系统供应商应增加自动化系统的测试程序与评估程序,以确保自动化系统的运行准确与输出安全。一方面,在自动化系统投入使用前、运行期间以及内置规范修改等时点,系统供应商应当进行严格的系统测试;另一方面,在自动化系统的设计建构、应用部署以及运行维护期间,行政机关应自行或者委托第三方对自动化系统的关键性能进行评估,必要时可以发布评估报告。这种程序中立性约束还体现为在自动化系统中设置留存审计轨迹的功能,行政机关与立法机构应构建审计轨迹的自动化留存与防篡改机制。自动化系统留存的审计轨迹,既可以平衡行政公开要求与商业秘密保护之间的矛盾,也可以通过有效监督应对自动化行政权力的弥散性来增强自动化行政的可解释性。(2)在程序参与维度,应围绕相对人的“公众参与”与听证法官的“理性听证”展开。其一,除涉及国家秘密、个人隐私和商业秘密外,行政领域的各类自动化系统均应处于公众监督之下。公众参与是公众介入并影响行政决策的主要方式,行政机关应探索公众参与自动化系统采购、部署、运行、优化等环节的合理途径,从信息分享、信息交流、信息纠错三方面克服自动化行政的信任危机。公众参与系统采购,有助于了解自动化系统的性能参数并提出质疑。公众参与系统部署,有助于达成自动化系统嵌入行政场景的决策共识。公众参与系统运行,有助于提高自动化行政运行的透明度。公众参与系统优化,有助于发现数据错误或决策错误。其二,为了确保相对人获得“被听取意见的机会”,应加强听证法官队伍的专业化建设。听证法官的选任,除了应满足听证法官任职基本要求外,还应根据实际需要选任具有法律、技术等交叉学科背景的专业人员。此外,还应加强对听证法官的法律培训与技术培训,尤其需要提高听证法官对自动化系统功能配置与系统缺陷的认知水平。(3)在程序公开维度,应围绕自动化系统的“原理公开”与行政机关的“信息告知”展开。其一,原理公开的模式主要分为源代码公开模式与算法解释模式两种:源代码公开模式是指直接全部或部分公开自动化系统的源代码与算法,但存在泄露科技企业商业秘密的风险,因此属于自动化行政信息公开中最激进的主张;算法解释模式是指在不公开自动化系统源代码与算法的情况下,通过对自动化系统的设计目标、技术原理、决策依据以及运行机制进行算法解释的方式,间接公开自动化行政的相关信息。为解决源代码公开与商业秘密保护之间的冲突,行政机关可以在行政权力范围内进行有效管控。例如,预算管理部门可以将系统供应商开放源代码与算法作为其提供技术采购资金的先决条件,系统采购部门可以在与系统供应商签约时在合同中严格区分受商业秘密保护的信息与可以公开的信息,立法机构可以通过立法措施强制要求系统供应商开放不属于商业秘密的源代码与算法。其二,实际使用自动化系统的行政主体在部署与应用自动化系统时,应告知相对人与自动化行政决定有关的“有意义的信息”,以缓解行政主体与相对人之间的信息不对称。行政机关履行告知义务是行政相对人程序性权利发挥防御作用的前提条件,同时也是规范自动化行政行为的程序工具。(4)在程序公正维度,应围绕在自动化系统中内置规则“限制裁量”与保留“人为干预”选项展开。行政裁量制度要求行政机关在规范与事实之间保持目光的“流连往返”,但自动化行政无法实现这种动态交互穿梭,程式化裁量因缺乏对个案的特殊考量而损害个案正义。尽管从技术迭代视角看,自动化系统通过持续挖掘关于不确定概念的已有案例,可以获得更加精准的裁量结果。但就目前技术进展而言,如何实现行政裁量与已有案例的精准耦合,将是行政法理论与数字技术应用需解决的现实难题。此外,考虑到全球广泛推广人工智能应用的趋势,完全禁止行政领域使用自动化系统并不可取,因此将人类置于自动化行政之中并保留人为干预的选项是目前可接受的折中方式。与完全禁止自动化系统的使用相比,人为干预方式保留了自动化系统在行政程序中的使用可能性。相较于自动化系统,行政人员是以人类思考的方式说明事项间的因果关系,从单一数据到整体事项的宏观图像所依靠的是人类对世界的整体认知,单一数据无法直接决定具体事项的客观评价。在面临新发事项时,行政人员可通过掌握不同事项之间的抽象因果关系,进行反事实思考,厘清新发事项在既有规范框架中的定位。因此,只有真正理解现实世界的行政人员,才能整体考察具体事项中的特殊情形以作出合理的行政决策。
三、自动化行政的技术性正当程序规制进路
技术风险往往可以通过制度设计进行规避,自动化行政引发的正当程序问题在制度理性之下将迎刃而解。面对大数据、人工智能等数字技术运用对行政正当程序带来的巨大挑战,可以从规制理念与法律制度两个层面对自动化行政的技术性正当程序进行规制。在规制理念层面,以规制框架的“四维度”为依据对行政正当程序的原则内涵进行守正创新。在法律制度层面,以规制框架的“八要素”为依据对行政法律制度进行调适与创设。
(一)自动化行政的程序规制理念革新
自动化行政语境下的规制理念革新,既应当在行政正当程序所强调的中立性、参与性、公开性、公正性四项最低限度要求上坚持“守正”,也应当立足于自动化行政的算法特征进行“创新”,重新阐释平等对待、行政参与、行政公开、程序正义四项行政正当程序原则的时代内涵。
平等对待原则的内涵从“形式平等”转变为“能力平等”。德沃金(Ronald Dworkin)认为平等包括形式平等与实质平等两种形态,以及福利平等、资源平等与能力平等三个方面。在自动化行政广泛部署的当下,行政机关默认行政相对人均具备从电子设备获取信息的能力,因此大幅精简了现场办理、提交纸质材料的环节。但不同群体获取信息的能力存在显著的认知差异与设备差异。这种以形式平等为出发点全面推进自动化行政的做法,造成间接歧视信息弱势方的平等悖论。阿马蒂亚·森(Amartya Sen)指出,人们的能力空间因环境与制度的不同而存在差异,这种能力空间的差异将会进一步加剧结果的不平等。即使通过资源的合理分配而确保人们拥有相同的资源,但由于人们利用资源的能力空间客观上存在差异,导致人们对平等的感受也将不同。因此,实质平等的核心要素是实现个体之间的“能力平等”。尊重与保障人权是行政机关必须遵守的宪法原则,行政机关因而需要承担保障个体拥有行使法定权利的能力的宪法责任。因此,自动化行政中平等对待原则的内涵应从“形式平等”转变为“能力平等”。信息能力的实质平等化滥觞于美国的“公平信息实践”运动,该运动旨在为公民隐私保护提供一系列公认的、跨国界的做法:一是通过法律赋权的方式,向信息弱势方赋予抗衡信息优势方的权利;二是通过技术赋权的方式,要求信息优势方履行法定的技术公开义务。
行政参与原则的内涵从“现场参与”转变为“数字参与”。传统上,公民主要通过座谈会、听证会、论证会等形式现场参与行政活动。随着数字政府建设与法治政府建设的共同推进,行政机关通过“掌上办”“指尖办”“随后拍”等新型行政参与方式,以及线上议事、在线听证等传统行政参与方式的数字化升级。数字化手段拓宽了公民参与的形态与途径。在国外,加拿大推出了“与公民协商”计划、“开放法规”计划,新加坡搭建了信息对话平台、政府政策论坛,均旨在促进公民的在线表达与公共协商。我国则重视全过程人民民主与保障公民的数字参与,在《提升全民数字素养与技能行动纲要》中明确提出了“公民数字参与提升工程”。自动化行政转向“用户驱动”虽然创新了行政平台化、自动化、即时性的治理机制,但却动摇了行政机关“自上而下”的科层制管理体系。
行政公开原则的内涵从“职权公开”转变为“算法公开”。行政公开要求行政机关在行使行政职权时,应公开与行政职权有关的事项。“与行政职权有关的事项”指的是涉及行政权力运行的主体、依据、过程以及结果等事项。因此,现代行政法对职权公开的要求主要体现在决策主体公开、决策程序公开、决策内容公开三方面。但在自动化行政中,算法内容的不公开、不透明,导致自动化行政的主体、程序、内容均难以公开透明。因此,行政公开原则在自动化行政语境下,应由“职权公开”转变为“算法公开”。算法解释是与算法公开相近的概念,二者均为增强算法透明度、实现算法可问责性的措施。算法公开是公开自动化系统的源代码与算法,但普通公众却不具备解读源代码与算法的专业知识,算法公开的有名无实导致其不被提倡。目前,学界通说认为,算法的可解释性是增强算法透明度的更优解。然而,无论是算法公开还是算法解释,二者均秉持技术主义立场,忽视了其中的法治主义逻辑。事实上,自动化行政中的算法公开不是为了监督自动化系统的运行,而是以监督行政机关的行政行为为目标。因此,算法公开的基本逻辑是规制行政机关的算法权力,其本质是为了实现行政透明而非算法透明。
程序正义原则的内涵从“客观正义”转变为“均衡正义”。从程序正义理论的演进脉络来看,主要分为客观程序正义与主观程序正义。前者认为,程序正义的实现在于其是否满足某种具有普遍性的客观标准,侧重于程序正义的客观性。后者则重视普通公众对程序公正性的主观感受,主张将主观公正性评价纳入程序规制视野。行政法研究与最高人民法院的指导案例均趋于认同行政正当程序原则应具备中立性、公开性、参与性、公正性等要素,这导致传统行政正当程序具有了浓厚的客观程序正义倾向。但解决自动化行政引发的正当程序问题,本质上是要解决如何通过机制创新保障自动化行政中人的主体性与个人尊严。因此,自动化行政的程序规制理念应回归到对人的主体性的讨论上。而在自动化行政的规制理念中引入主观程序正义,维持客观程序正义与主观程序正义之间的均衡态势,有助于提升行政相对人对实体结果与程序正义的公平感与可接受性,这可理解为一种均衡的程序正义。均衡的程序正义属于一种矫正性理论,通过引入主观程序正义来纠正传统行政正当程序的客观程序正义倾向。
(二)调适自动化行政的既有程序规制进路
随着自动化系统在环境保护、交通管理、食品安全等领域的部署与应用,国家层面与地方层面旨在规范自动化行政的立法实践不断出现,这些制度举措与技术性正当程序的要求存在契合之处。对照技术性正当程序规制框架,目前我国在“公众参与”“信息告知”“理性听证”“限制裁量”四个程序要素方面开展了富有成效的制度设计。尽管大多数针对自动化行政的既有规范层级较低,但其仍可作为填充技术性正当程序规制框架的有效规范基础。(1)在“公众参与”要素方面,需要完善公众参与行政决策的既有法律机制。关于公众参与行政决策的现有规范大多没有考虑到自动化行政的算法特征。对此,应从以下三个层面进行制度优化:首先,应当完善公众参与机制。通过优化议题设置与程序安排,引导公众意见在数字平台上的理性表达。通过完善公众意见的舆情监控与报告机制,为自动化行政决策提供实时参考。通过在自动化系统中设置交流与反馈功能,拓展行政机关与相对人的交流渠道。其次,应加强公众参与技术研发的规范引导。对行政机关、行政相对人、供应商等多元主体的权责进行立法规范,保障普通公众与行政相对人的行政参与。例如,《关于加强互联网信息服务算法综合治理的指导意见》要求构建政府监管、企业履责、行业自律、公众参与的算法多元治理格局,该指导意见为公众参与自动化行政的具体立法提供了政策渊源。最后,应完善妨害公众参与的责任追究机制。由于自动化行政的权利外观为行政机关行使行政权力,因此行政机关是对自动化行政结果外承担法律责任的唯一主体。而在对内的责任追究上,由于自动化系统不具有法律主体资格,因此自动化行政妨害公众参与的侵权责任应由具体主体承担:若查明是由行政人员的决策失误所导致,则应当按照职责分工与因果关系对行政人员进行责任追究;若查明是由设计、生产、出售等环节的缺陷所导致,则应对相应主体进行责任追究。(2)在“信息告知”要素方面,需要优化数字社会的行政告知机制。随着自动化行政的广泛应用,实践中的行政告知方式也顺应数字政府建设而朝着数字化方向发展。我国行政领域的立法趋向为逐步承认数据电文方式的独立法律地位,例如《行政许可法》第29条规定行政许可申请可以通过电子数据、电子邮件等方式提出。为完善自动化行政告知机制,应当以功能等效原则为指引从法律修订与平台建设两个方面展开。其一,我国应逐一修改《行政许可法》等行政领域的法律规范,为电子告知方式的法律正当性提供充足的样本支撑,进一步明确电子告知方式的法律地位。通过修订法律明确电子告知方式的独立法律地位,既可以为行政机关使用数字化手段开展行政活动提供法律依据,也便于立法机关为电子告知方式制定详细的行政程序。其二,可以借鉴司法文书送达平台,搭建统一的行政告知/送达平台,进一步完善我国的行政告知与送达机制。现有的送达机制以直接送达为原则、以推定送达为例外。鉴于自动化行政的数字化与虚拟性,自动化行政的电子告知应以推定送达为原则。搭建统一的行政告知/送达平台,并与其他平台进行数据共享,有助于提升自动化行政电子送达的精准度。(3)在“理性听证”要素方面,应当规范听证主持人与听证代表的选任。在行政听证程序中,决定听证质量的主体为听证主持人与听证代表。为了确保行政听证程序的客观公正,应当对听证主持人与听证代表的选任进行必要限制。其一,通过制度设计确保听证主持人在听证程序中的独立性。由于我国的听证主持人长期隶属于原行政机关,因而面临“自我裁决”的反自然正义困境。化解这一困境,主要有内部职能分离、相对职能分离、完全职能分离三种优化方案。尽管内部职能分离方案在我国当前的行政领域最具有可操作性,但完全职能分离方案才是遵循职能分离原则的可取方案。其二,科学选任参与行政听证程序的听证代表。从利益平衡角度来看,听证代表的科学选任需满足形式合理要求与实质合理要求。设置形式合理要求,是为了确保行政听证程序中的听证代表在不脱离其“利益语境”的前提下,具有来源、数量等方面的广泛代表性。哈贝马斯认为,脱离“利益语境”的意见表达将会失去实践助力。实质合理要求以听证代表是否具有良好交往资质为判断标准。那些在公共讨论中善于提出合理建议的参与者,才会引起其他参与者的共鸣。因此,可以将选任公告放置于公共媒体并向所有人开放,以满足选任听证代表的实质合理要求。建立公开透明的听证代表选任机制,既有助于通过听证代表的选任过程实现程序正义,也可以推动形式合理要求与实质合理要求的有机互补。(4)在“限制裁量”要素方面,应推动自动化行政裁量的规范化建设。行政自动化带来了裁量自动化。随着国务院及相关部委密集出台推动行政裁量系统开发工作的指导意见的出台,行政裁量自动化已成为数字政府建设的重点工作。对此,我国应从加强自动化行政裁量的标准化建设与限定自动化行政裁量的适用范围两方面着手,推动自动化行政裁量的规范化建设。在加强自动化行政裁量的标准化建设方面,可以统一行政行为表述规则、统一裁量要素标准、完善行政裁量标准适用流程,为自动化行政裁量的规范化应用打下坚实基础。在限定自动化行政裁量的适用范围方面,以“概括式规定+肯定式列举+否定式排除”方式框定其适用范围,发挥自动化行政裁量一致性与高效性的相对优势。尤其应当对具有裁量能力的完全自动化行政的适用范围进行必要限定:一是原则上适用于高发常见、程序简单、已有先例的事项,而行政程序复杂、缺乏先例的行政裁量则应交由行政人员完成;二是自动化行政可以适用于行政给付事项,行政给付事项不会对人民的自由与财产造成侵害,同时配套设计事后程序机制来补充其所带来的事前与事中程序疏漏;三是不得适用于造成损害后无法弥补的事项,因这类事项往往具有造成损害后无法弥补的特征,完全交由自动化系统执行恐难以被社会公众接受。
(三)自动化行政技术性正当程序的规制进路
对照技术性正当程序的理论框架,我国需要在“测试评估”“审计轨迹”“原理公开”“人为干预“四个要素方面规制自动化行政,以增强行政相对人的信息能力,从而更好地实现程序中立、程序公开以及程序公正等最低限度的正当程序要求。
在“测试评估”要素方面,应制定多层次的测试评估标准。制定自动化系统的测试标准应重点关注权威标准与企业标准。一方面,权威标准由行政机关与相关行业制定,例如ISO标准、国家标准、行业标准等。行政机关应引导相关方共同参与标准的制定,优化现有国家测试标准、新增新发应用场景或者应用技术的国家测试标准。另一方面,企业应制定内部标准以作为权威标准的重要补充。处于不同节点的研发企业,可以在功能开发过程中将权威测试标准分解为不同的技术参数与场景参数,为系统测试流程提供具有可操作性的企业标准。企业在制定测试标准的过程中,应当遵循以下基本要求:第一,自动化系统做出的相同决策应适用统一的决策规则,以确保自动化决策结果与决策依据的一致性。第二,每一个自动化系统做出的行政决策,均可在输入特定信息后予以重现。第三,若自动化系统做出的决策具有一定范围内的系统随机性,则应当确保自动化系统固有的系统随机性不被任何人不当利用。第四,制定的自动化系统风险评估标准应包含法律规范、行业标准以及伦理要求等多层次的评估内容与依据。风险评估标准既应包含法律法规与行业标准所涉及的评估内容,也应吸纳人工智能技术伦理的成熟经验。此外,为确保自动化系统测试与评估标准的客观公正,还应谨慎选定参与测试与评估标准制定的起草主体,严格规定测试与评估标准起草主体的遴选条件,规范行政机关、科技企业、科研机构等主体参与系统测试与评估标准制定的流程与行为。
在“审计轨迹”要素方面,应设立准则化的算法审计制度。目前,部分域外国家或地区颁行了规范算法的专门立法,例如美国的《算法问责法案》、加拿大的《自动化决策指令》等。我国尚未制定类似的专门立法,规范算法的既有法律条文散见于不同规范之中。因此,我国应出台监督、规范算法的专门制度,将算法审计纳入算法问责框架,明确算法审计的实施主体、实施条件及实施后果。首先,算法审计的实施主体分为内部审计主体与外部审计主体。内部审计可由算法的设计主体与使用主体建立内部审计机制定期检查算法风险。外部审计既可由公共审计机构负责,也可将算法审计纳入现有审计的业务内容,还可设立专门的算法审计机构。其次,通过合规标准的准则化明确算法审计的实施条件。在现有数据合规指引及其他算法规范文件的基础上,结合自动化行政的算法特征,以义务或禁止等易于代码化的方式制定算法合规指引。最后,算法审计的实施后果应作为算法问责框架中的重要一环。算法问责制是监督行政权力的有效手段,因此需通过法律制度赋予算法审计实际的法律效果。若通过算法审计发现问题,则审计人员有权要求使用自动化系统的行政机关对此予以说明与改正。若行政机关拒绝改正,则审计人员应出具“否定意见”的审计报告。算法审计报告既可作为行政机关改进自动化系统的参考,也可作为行政相对人提起行政诉讼的依据。
在“原理公开”要素方面,应确定差序化的技术公开方案。目前,学界关于自动化行政技术公开范围的讨论,主要形成了三种方案:一是“公开法律规则+释明技术规则”,对应着最小范围的技术公开要求;二是“向第三方定向公开”,对应着限定范围的技术公开要求;三是“公开自动化系统源代码”,对应着最大范围的技术公开要求。由于我国政府信息公开制度以公开为原则、不公开为例外,因此自动化行政应采取最大范围的技术公开方案。同时,《政府信息公开条例》第14条规定的不予公开事由对技术公开最大化构成了限制,因此有必要厘清不予公开事由的适用条件,以构建自动化行政技术公开的差序格局。具体而言,可以先判断安全(稳定)利益风险是否真实存在,然后判断拒绝公开所保护的利益是否具有优先性,最后判断是否存在部分公开的替代方案。《政府信息公开条例》第37条要求行政机关向申请人提供可依法公开的政府信息,并对不予公开的内容说明理由。因此在自动化行政中,行政机关可以选择将部分损害安全(稳定)利益的技术信息予以抹除后,向社会公开无害的技术信息内容,通过差序化的技术公开方案最大程度地保障公众的知情权、监督权。
在“人为干预”要素方面,应构建结构化的人工干预机制。希特伦在《自动化行政国家的合法性危机》一文中强调行政机关应审慎使用持续迭代的自动化系统,唯有增强行政人员干预自动化系统的知识与能力,才能捍卫行政国家的行政合法性地位。因此,构建结构化的人工干预机制来强化行政人员与自动化系统的协同决策,有助于前置性地保障自动化行政遵循程序公正性的要求。在研发设计环节,可构建研发主体的市场准入机制与行政主体的研发监管机制。自动化系统的研发设计应以鼓励技术创新为主,在低风险细分领域制定较为宽松的市场准入机制,尤其应鼓励低风险自动化系统进行先行先试。在运行反馈环节,应构建决策偏差预警机制与偏差人为干预机制。在决策偏差预警机制方面,可通过数据挖掘与数据标注完成行政事项与行政案件的标签化与结构化,建立行政事项数据库与行政案件数据库,并以此为基础开发自动推送系统与类案比对系统。在偏差人为干预机制方面,可从赋权与限权两方面具体构建:一是借鉴欧盟GDPR第22条向行政相对人赋予请求人工干预权:二是向行政人员赋予特殊情形下的人工干预权。在决策作出后,构建依申请审查与依职权审查相结合的双重抽查机制,对自动化行政的准确性进行人工抽查。若因相对人的申请而启动抽查机制,则行政机关应指派具有技术背景的行政人员依申请内容进行抽查。若因行政机关履行职权而启动抽查机制,则应考察所涉及行政事务的领域与要素来决定人工抽查的频次。
四、结语
改革开放以来,我国行政法学的知识体系与话语体系日臻完善。当下,大数据、人工智能等数字技术广泛应用于行政领域的趋势已不可阻挡,具有机器官僚主义特征的“自动化行政国家”正在崛起。自动化行政既带来了行政方式在时空与场域的数字化变革,也引发了行政过程中的正当程序问题。解决这些问题的关键在于,行政相对人所拥有的程序性权利在自动化行政中的理性回归。技术性正当程序理论旨在实现数字社会中自动化行政的沟通交涉与权利救济,以提升行政相对人在自动化行政中的“参与感”与“安全感”。面对自动化行政正当程序问题,现代行政法既应坚守传统行政法治的程序正义理念,也应根据数字技术特性创新法律体系。当然,以技术性正当程序为理论基础,据此提出的自动化行政技术性正当程序规制进路也只是一种初步尝试,系统构建自动化行政的程序规范体系还需进一步的理论研究与实践创新。展望未来,解决自动化行政产生的正当程序问题,应成为我国行政法学者构建新时代行政法自主知识体系的新使命与新动力。