高级检索

学术资源

行政法学

当前位置: 首页 -> 学术资源 -> 行政法学前沿 -> 行政法学 -> 正文

张青波:数字赋能政府监管的法治风险及其因应

信息来源:《环球法律评论》2025年第5期 发布日期:2025-11-06

摘要数字技术赋能政府监管,产生了若干法治风险:政府收集和共享信息对个人信息权益构成威胁,程序缺省和沟通障碍漠视当事人程序权益,数字化行政依托的算法不当侵犯相对人权益。为了因应这些法治风险,应当坚守公众参与、正当程序、比例原则,引入设计型法治的理念,重视组织法和程序法的规制。政府收集信息应遵循比例原则,还应符合设计型法治以及组织、程序上的要求;政府共享信息应恪守目的特定原则和比例原则。自动系统应告知当事人程序权利,预留听取当事人意见的程序节点,确保对当事人受告知权、陈述权、申辩权和听证权等程序权利的尊重。对数字化行政依托的算法,应限制算法自动决策范围、赋予相对人对算法自动决策的拒绝权并确保算法决策必要,以审计验证、检测和人工核实等措施确保准确,以预警、评估、说明处理规则、后检测等措施避免和消除歧视,以公开、解释和审计跟踪等措施打破黑箱。

关键词:数字技术政府监管法治数字化行政算法


数字技术正在重塑当代的政府监管。传统上依赖人工进行事实调查、证据收集、规范适用、法律解释、行政裁量的监管,逐渐转变为以自动监控监测设备搜集数据、由信息共享技术汇集信息、再由算法或人工智能决策软件自动给出决定的自动化模式。各种数字技术在政府监管中的运用,显然提高了监管的效率,强化了监管的精度,保障了监管决定的前后一致,推进了对各种相关因素的考虑,消除了对监管的偏私或情绪干扰。但在另一方面,数字赋能政府监管也会产生法治风险,集中表现在对行政法治价值和相对人权利保障带来了巨大挑战,亟待加以因应。


一、数字赋能政府监管所产生的法治风险

本文将政府运用数字技术进行监管的过程分为信息或数据的收集共享、与当事人互动和运用算法作出决定三个阶段,各阶段蕴含的法治风险各有不同。

(一)信息收集和共享对个人信息权益构成威胁

第一,政府收集了海量信息用于监管,可能侵害个人信息权益。其一,政府如果先收集数据、再考虑其用途,将违背《个人信息保护法》第6条要求的处理(包括收集)个人信息应具有明确目的并与处理目的直接相关、收集个人信息应限于处理目的的最小范围。其二,政府收集存储数据,逐渐累积对个人信息和隐私的篡改、操控、窃取、泄露、破解风险。其三,以大规模监测技术为基础的执法,在微观上可能过度窥探公民的私人空间和社会领域,阻碍公民的人格发展,在宏观上则可能带来社会的寒蝉效应,破坏社会信任和公共讨论。其四,随着政府对个人信息的全方位掌控,信息主体将被深入彻底地画像,变得完全透明而沦为被规训的客体。

第二,政府部门信息共享存在违法风险。如果数据提供机关与需求机关之间存在一致或紧密关联的法定职责,针对较为特定的行政事务与职权行使而展开“同一目的”内的信息共享行为,就基本符合处理个人信息的“目的限定”原则,风险较为可控。然而,在若干场景中,个人信息提供机关与需求机关处理个人信息的目的却并不相同且无法兼容,构成“目的外共享”。目的外共享行为不仅可能违反《个人信息保护法》第34条规定的“国家机关处理个人信息不得超出履行法定职责所必需的范围和限度”,而且还有违反该法第6条规定的处理目的限定原则之虞。例如,如果食品安全监管部门将出于确保食品安全所收集的个人信息,共享给城管执法部门用于城管执法,那么食品安全与城管执法目的就并非直接相关,足以质疑收集行为的正当性。因此,有学者不无忧虑地指出,在政务数据共享开放的行政过程中,可能发生行政机关不当处理、过度处理或未告知个人的处理活动。

(二)程序缺省和沟通障碍致使当事人程序权益被漠视

根据《行政处罚法》第44条、《行政强制法》第35条等规定,行政机关在作出对相对人不利的决定之前,应当告知拟作决定的内容、事实、理由、依据和当事人依法享有的陈述、申辩等权利。司法实践还将告知要求拓展至专利复审、土地使用权登记等行政活动中。然而,被数字技术大规模赋能的监管活动,在利用监控监测技术搜集证据并自动作出决定时,却可能由于追求流程加速而缺省程序环节,或者在系统与当事人之间形成信息沟通障碍。如果自动系统根据相关信息和数据,瞬时自动径行生成决定,行政机关在作出决定前就既未向当事人说明拟作出决定的内容、事实、理由、依据,当事人也无从进行陈述和申辩。即使系统提前预留了听取当事人意见的环节而让当事人专门对系统请求陈述和申辩,自动系统与相对人之间的信息交流也可能不畅,如系统对相对人发出的信息被相对人误会,以致相对人错误表达其意见,或者相对人的意见难以转换为系统识别的语言或相对人难以将其意见输入系统。由此,行政决定就只能作为行政机关的内部决策,游离于程序的控制之外。

但行政机关工作人员却可能基于对自动系统的信任,不假思索地认定系统在决定之前必定已经履行了各项程序,最终虚置了当事人的陈述权和申辩权。尤其令人担忧的是,技术施加的限制是自动的,一旦被设置,这种限制将会持续发挥作用,直到能够有人阻止它;而且,这种限制不需要受规制者对此有所了解。换言之,当事人如果不能在程序上获得保障,将会持续不断且毫不知情地遭受不利决定。无形的数字技术,极易让有形的人寸步难行。可见,在自动化数字技术大规模应用于行政执法实践后,相对人的程序权利以及实体法律地位面临的风险不可谓不大。

(三)数字化行政依托的算法不当侵犯相对人权益

借助数字技术,监管机关可以从所获得的海量数据中,经由算法操作,自动作出众多类型的决策。由此,原本由监管者依法作出的决定,变成了算法依据代码或程序的自行决策。然而,算法却可能产生错误,或者具有侵犯相对人权益的风险。

第一,决定僵化。依赖数据、编码、算法等技术进行的计算和决策,遵循一种自我指涉、自我固化的封闭自足逻辑。编码的算法创造了一种冻结特定关系的危险,作为封闭系统,它捕捉不了对于解决人类问题具有潜在意义的所有事情。为了提高处理效率,自动化系统只能着眼于一般和典型的案例,并据此建构出标准化的处理模型。案例中的各种鲜活的个人仅仅会被作为千人一面的量化参数,被交付预设算法操作或者大数据的格式化运算。但这种模型很难发现相似案件中蕴含的细微差异,很难识别预设参数之外的情理要素,很难应对系统未曾遇到的特殊情形,很难综合全案进行契合实际的裁量,也很难依循道德价值对计算结果进行反思。因此,自动化系统依循僵化的算法规则和机械的数理统计,难以灵活考虑和评估个案内在要素所具有的特殊性,无法理解当事人所可能处于的弱势地位,不能共情当事人所深陷的无助境况,也不会对由于复杂原因而违法的当事人予以适当包容宽恕。随着政府服务和自动化决定的大规模优化,既存的或隐或显的共情之外观,和允许人们从他人的视角理解某个情境的认知过程,正在消失。法律常常被自动适用,没有任何共情的空间,无视公民经历的境况。就此而言,规则可能会有例外以及裁量至少涉及有限的选择权等观念,似乎由于数字化和人工智能的出现而完全过时了。所以,自动化系统可能罔顾裁量规范所提出的综合斟酌个案情况的要求,违背行政决定应以人为本的价值取向。

第二,算法失准。机器学习型算法通过机器学习技术,从海量数据中提取隐性模式和相关性,进而生成预测结果,但这种结果未必准确。形成算法所基于的训练数据,往往只是从监管实践中所撷取或挖掘的一定期限内的部分案例、数据,未必反映实践的多样性。自动化系统甚至会抓取部分数据,而忽略其他数据。以部分数据“投喂”程序,使之进行深度学习,并进而预测被监管主体未来的违法可能,或者预测其他被监管主体的行为情况,不免以偏概全。同时,算法设计还可能存在性能缺陷,不同算法之间的冲突也可能产生干扰。此外,算法的预测未必就是发生的事实。在基于数据和算法的数字化行政看来,人类不过是可通过传感器观察、测量和操控的物理对象集合体。由此,基于统计数据的画像和风险评估将会侵害当事人的尊严,因为这些做法在根本上就是认为当事人不能或不应被信任可自主行为,认为当事人不会突破国家预设的模式或群体形象。换言之,当算法预测将人固化在特定标签下时,算法实际上就是以技术理性的名义,否认了人作为独立主体进行自主选择和自我实现的能力。

第三,算法歧视。执行规则型算法通过识别违法行为特征并与预设规则相匹配,自动作出决定,但被预设的规则却可能构成歧视。自动化并未消除公权力行使中的裁量,只不过将裁量从行政机构转移到了系统工程师、IT咨询员或者软件开发者,法律规则也不过由数据集、算法、计算机代码所替代。系统设计者必然要选择参数、质性变量的解释、内容等级等等。因而,各类数据系统、算法、模型和程序对各种信息和数据的分类处理,不免受到设计者偏好的影响,打下设计者倾向的烙印。如果设计者赋予某些相关特征以过大权重,就可能歧视那些具有某些其他特征的主体。而在算法模型的设计基于偏差或偏见而偏离对公共利益的关切时,因为它们仅仅遵循系统内部各项指标之自我指涉的运算方式和由于人类对系统先前决定之肯定而形成的自我确证,算法作出的将只是带有特定特征的“锁定式决定”,个体或群体被算法模型给定的不公待遇还会被不断固化和加剧。

第四,算法黑箱。技术系统需要对描述社会事实和法律规范的人类语言进行转换,形成代码,再经由编程而转化成计算机系统可执行的二进制命令(算法),但转译过程可能由于技术专家的无知或偏见而产生误译。如此一来,法律将渐渐被技术转译所过滤,行政决定与证成它们的民主化过程之间的联系将被削弱,甚至技术专家将会变为立法者。而且,自动化技术依赖的数据集、代码和算法往往是不公开的,以致它们得出决定的方式晦暗不明。即便公开这些事项,个人在缺乏相应代码编程技能和模型运算知识的前提下也往往无法理解和分析这些技术化的语言及其背后的逻辑。可见,如果说在未由数字技术支撑其运转的传统行政决定中,行政权的行使会由于公开的法律规范而有章可循,那么在自动化系统中的运算标准和决策模型却只会云山雾罩,所作出的决定只会让相对人莫名其妙。这种算法决策的逻辑隐层和运作黑箱,不啻对程序透明性的彻底颠覆,大大限制了当事人参与行政程序、要求说明理由的机会和意义,甚至政府是否依法行政都无从判断。


二、数字赋能政府监管之法治风险的因应原理

针对数字赋能政府监管所产生的种种法治风险,应从理论层面反思如何因应这些风险,从而实现行政法治理念的适度更新。

(一)坚守行政法治原则

数字赋能政府监管,并未改变行政权仍是国家公权力的现实。国家并不是因其本身的缘故而存在,而是为了让人能够在尊严和安全中生活。因此,国家的行动需要正当化,必须取向于理性。就此而言,无论国家权力采取何种形式样态,均应受到合理约束。对于数字技术运用产生的问题,现有的行政法原则多数仍可适应。在数字技术中被行使的行政权,仍然应当坚守法治原则,才能使数字化的行政权仍能具备必要的正当性,而不是流于恣意和擅断。具体来说:

一要遵循公众参与原则。在数字时代,依据法律的行政决定,变成了由程序员设计的算法自动作出的决策。算法决策所需的专业知识具有排他性,决策权掌握在少数专家手中。然而,原则上,只有在由民主所正当化和控制时,才可以实施权力。就此而言,不仅应要求立法来严格规范数字化行政,而且还应让公众对数字化行政获得充分的知情、实施有效的监督和进行针对的问责。即便数字化技术强化了监管的专业性,这也不能构成弱化公众参与的理由。公众仍然值得被信任能够对专业技术进行监督。因而,数字化行政必须接受公众的审视和辩驳。

二要恪守正当程序原则。在自动系统大规模运用于行政之际,应当为行政相对人提供适当的保护措施。正如欧盟《通用数据保护条例》(General Data Protection Regulation)第22条所规定的,如果没有规定或实施适当措施以保障其权利、自由和正当利益,个人有权不作为公共或私人部门中纯粹自动化的并对其产生法律效果或重要影响的决定之对象。这种保护措施的重要方面正是正当程序原则所供给的。因为正当程序原则能够随着规范对象的变迁而不断丰富自身内涵,还比实体规范需要更少的规制信息。在数字时代,正当程序原则已经衍生出“技术性正当程序”原则,它旨在确保人在自动化行政过程中获得有意义通知和被听取意见等程序性权利,强化参与者理解和挑战行政过程的能力。比如要求数字设备所做的决定应基于公开透明并可以解释的算法、以程序一致性来排除算法歧视、允许对自动化决策提出质疑、进行事后听证、由专业人员进行审计以及时纠错。

三要奉行比例原则。随着数字技术在政府监管中的全面应用,代表行政权出场的越来越是无所不在的监控设备、无所不包的数据网络、无从理解的技术代码、无从对话的自动系统。在行政法律关系之中,出场的一方是通过技术赋能和信息汇集而愈发强大的行政权力,而另一方却是越来越不能理解各种技术、越来越变得透明的相对人。如果任由这种失衡关系加剧,公平的行政决定势将沦为泡影,公民的行政权利必然成为空谈。因此,应当充分发挥比例原则对行政权的制约作用,要求行政权对数字技术的运用必须适合于追求正当目的,不造成对相对人的过度损害,行政目的在价值上重于对相对人构成的侵害或干扰,以适度扭转行政机关与相对人之间的不对称关系。

综合而言,对数字化政府监管,应当至少坚持从公众参与、程序正当、比例原则等方面施加约束。

(二)引入设计型法治

为了保障数字化行政对法治的遵从,应当重视设计型法治,让法治融入技术之中、以技术措施贯彻法治价值、将技术要求加以制度化。

申言之,自动化决定所用的算法之设计仍属于设置价值和限制的过程。自动系统中需要获得保障的权利应被转译为针对情境的设计方案,立法应对自动化系统的设计、运行、程序、资源以及对处理事务的组织,设置指导原则。必须确保法律及其评价被直接输入软件和代码之中,并产生相应的控制效果。法治的诸价值应被作为设计数字技术的要求。也即,数字系统作出决定的速度,要求法律控制和司法审查从针对个别决定,转向对系统的编码和整体设计。而民主正当性在多大程度上渗入代码,则取决于立法者在多大程度上准备并且能够表达对代码系统的要求。因此,应确保设计和编程能够嵌入和维系法治价值,将法律要求转化为技术性条件。比如针对数字技术运用的具体领域形成伦理规则,并以编码植入到算法模型中。

(三)重视组织法和程序法的规制

数字化行政虽未改变其所行使的行政权之实质,而是仅仅改变了行政权作用的形式和方式,但是法律的规制策略应当有所调整。传统行政法注重对行政行为形式的分析:如果某一行政过程属于一种已知法律形式,它就要禀受此种法律形式的前提条件和法效果。对传统的行政行为形式,如行政决定或行政协议,在实体上均存在着诸多法律规范。但对数字化行政的内容规范却尚属少见。因而,对于数字化行政,如同对于任何新型的行政活动一样,应着眼于内容之外的法律规制,方可切实可行地发挥规制作用,即法的调控必须考虑实质内容性法律程式之外的组织法和程序法。

组织法的规制一方面应调整数字化行政活动的前提,在行政权的作用级别和内部结构上施加影响,从源头上调控数字化行政权对外作用的方式和对外决定的内容。比如,于监管中引入数字技术应当至少由设区的市级政府或其部门进行,并由引入的政府或部门履行各种设计和保障义务,以免级别过低的政府或其部门缺乏配套资源。再如,应当充分发挥集体讨论、负责人审批等决策结构的作用。另一方面,组织法的规制也应重视第三方专业技术主体对行政活动的评估,以技术制约技术。而为了监督第三方专业技术主体,应对其评估报告加以公开。在此,行政机关尤其应当重视设置专人和专业组织,以人工审查的方式控制和平衡自动化技术。正如卡夫卡《审判》中的乡下人始终难以进入为其敞开的法院大门所隐喻的那样,行政机关盲目遵循规则而罔顾其对公民的影响,加剧了现代行政法的官僚化趋向。这种趋向在数字技术赋能监管后愈加明显。为了缓和技术系统对规则的盲从,人的控制和有效的法律控制就应当覆盖自动化系统的整个周期以及数据处理系统中数据和信息的全过程。人工智能系统应被持续监控并且应总是存在人工干预的可能性。行政机关应当任命专人负责持续监控自动化决定的品质和对错误的处理。不过,人工监督会增加决策的时间成本,也不宜处处设置。

关于正当程序,这里可再以为打破算法黑箱而设置的程序规范为例,来说明程序法规制的作用方式。比如在芬兰,在运用自动系统之前,处理规则应当人工确立,记录在相关政府网站的公开说明之中,并且排除机器学习技术(以确保所用软件基于规则)。在法国,界定自动化处理过程的规则以及该处理过程的主要特征,应由行政机关应当事人请求以可理解的形式告知,内容包括算法处理过程对行政决定之影响的程度和方式、所处理的数据及其来源、处理参数及其对当事人事务的分量、算法处理过程中所实施的运算。按照欧盟《通用数据保护条例》第13条第2款第f项,为了确保公平和透明的处理,数据主体应被告知影响到他的自动化决定(包括画像),并且被告知有关处理过程所涉逻辑、该过程对他的重要性和设想的后果之有意义信息。按照上述条例第15条第1款,数据主体有权从数据控制者那里获得其个人数据被处理的确认,并获得个人数据以及处理目的、限制或反对处理权、申诉权、数据来源、自动化决定之逻辑和处理对数据主体的预计后果等信息。以上的比较法经验表明,公开、获得告知等程序建制有助于保证数字化行政具备基本的合理性。


三、数字赋能政府监管之法治风险的因应对策

基于以上原理,对数字赋能政府监管之法治风险,应从以下方面具体施策:

(一)信息收集和共享应恪守法治界限

国家在考虑运用信息和通讯技术时,必须适当平衡各种公共利益,不得片面地被诸如简便行政的利益所引导,应平衡社会的安全利益与个人隐私、个人信息利益。因此,应合理限制行政机关对信息的收集和共享。

第一,政府收集信息应受合理约束。其一,政府收集信息应遵循比例原则。行政机关应当证明安装相关监测监控设备的合理性,并向社会公开安装的法律依据和理由。行政机关不仅应证明监测监控设备具备稽查违法的适合性,而且要证明无其他可能对当事人干涉更轻微的方式(如事后调查)能有效稽查违法,另还要证明稽查违法所能实现的公共利益在价值上重于监测监控所牺牲的个人信息权益。在社会公众质疑安装的合理性时,行政机关应公开回应。同时,行政机关不仅应出于履行法定职责,而且是为了及时识别违法行为或警示违法风险,方可以监控监测等方式收集数据。因此,各种监控监测设备的拍摄记录应当仅仅适合于捕捉或预测违法,不得对当事人造成不必要干扰。此外,行政机关对监控监测所获信息的存储,不得漫无节制,所存储的监控监测信息超过合理期限的,应予删除。

其二,政府收集信息还应符合设计型法治以及组织、程序上的适当要求。行政机关应当在一定地域和行业范围内实行数据集中保护,并实行安全保护责任制度,明确岗位职责。同时,行政机关对监控监测信息的存储,应当落实《数据安全法》第39条的要求,通过充分的技术设置确保安全。比如应采取加密存储、区块链存证、日志留存和数据溯源等技术,定期通过由第三方专业主体组织进行的数据安全认证和评估,对个人信息适度进行去标识化处理。而第三方主体的认证和评估报告,也应公开,以利公众监督。此外,行政机关不得以数据挖掘、关联预测等技术,随意为相对人画像,或锁定、追踪他人。行政机关工作人员在使用这些技术之前,必须获得行政机关负责人的审批。不当审批造成严重后果的,应承担法律责任。

其三,对于监控监测措施,行政机关应当落实信息公开。即应以适当方式,对信息主体说明个人信息处理的范围、类型、必要性及相关性,包括个人信息处理的管理模式、使用期限和以何种技术或措施保护所搜集的个人信息。

第二,政府共享信息应遵从目的特定原则和比例原则。其一,通常只有在个人信息的提供机关处理个人信息的目的,与需求机关处理个人信息的目的,是为了执行同一部立法或追求同一监管目的时,提供机关才可将所收集的个人信息共享给需求机关。根据《个人信息保护法》第6条,数据共享须基于现实、具体的目的,服务于特定行政任务。不仅行政机关在收集个人信息时目的应明确合理,而且需求机关在获得信息共享后的处理目的,也应当与收集目的具有紧密关联。只有如此,才能说需求机关共享提供机关的个人信息系为履行其法定职责所必需,符合《个人信息保护法》第13条第1款第3项的要求。而且,个人信息的利用只有处在信息主体所能合理预见的范围内,才能防止个人信息在共享过程中被毫无节制地利用。只有在不同行政机关处理个人信息是为了执行同一部立法或者实现同样的监管目的时,个人信息主体才能合理预见到其个人信息也可能被其他行政机关加以处理。

其二,当两个政府部门处理个人信息的目的不同时,共享个人信息应当获得法律、行政法规的授权,或者出于实现重要的公共利益所必需。法律、行政法规作为授权依据的理由在于,按照《个人信息保护法》第13条第1款第7项,只有法律、行政法规才可以作为授权处理个人信息的法律依据。如《行政许可法》第33条授权行政机关共享有关行政许可信息。相反,《政务数据共享条例》并未规定行政机关共享个人信息的条件,不应将该条例理解为对目的外共享个人信息的授权,方才符合《个人信息保护法》的立法意旨。而且,法律、行政法规授权信息共享,足以使信息主体合理预见其个人信息被利用的范围。而在政府部门的处理目的未直接相关且不存在法律、行政法规作为授权信息共享之依据时,政府部门之间的信息共享应以实现重要的正当利益所必需为限。对此,需求个人信息的行政机关应当说明理由。学者指出,不同行政机关之间对个人信息的目的外利用,须有正当利益。不过,这种正当利益,应当强化为“重要的公共利益”。因为《个人信息保护法》第13条第1款第4项将处理个人信息所要实现的公共利益规定为“应对突发公共卫生事件,或者紧急情况下为保护自然人的生命健康和财产安全所必需”。而且,《个人信息保护法》第13条第1款第4项的规定说明,行政机关处理个人信息,包括共享个人信息,均应符合比例原则:共享不仅应当适合于实现重要的公共利益,而且是为实现该公共利益所必需而无其他对信息主体更为轻微影响的方式,比如让各政府部门通过专属接口,按标准流程回复相关信息、提供查询结果,而不一定要共享原始数据。而将共享所要实现的目的限于重要的公共利益,实际上才能满足狭义比例原则的要求。

(二)保障对当事人程序权利的尊重

数字化行政应切实尊重和保障相对人的受告知权、陈述权和申辩权等程序权利。正当程序和申辩、提出异议的权利很重要,无此将不足以应对自动化决定的复杂现实。因此,自动系统作出行政决定,应当遵循以下程序规则:

第一,应充分告知当事人。在行政决定作出前,自动化技术系统应当向当事人发送拟作出决定的内容及事实、理由、依据,并告知当事人依法享有的陈述、申辩、要求听证等权利。对于以特别的技术方式作出的电子化行政行为,说明法律上或事实上的决定依据是必需的,而且以标准化的形式在技术上也是可行的。因此,此环节在告知程序权利的同时,应说明对相对人基于何时何地的何种事实,根据哪一条规定,拟作出什么样的具体决定。在技术系统存有相关事实的照片、视频等证据的,应当附有链接供相对人查阅。相对人的确认或质疑,有利于避免技术监控事实时出现的误差导致事实认定错误。

第二,应确保当事人可以行使陈述权和申辩权。在行政决定作出前,自动化技术系统应当预留听取当事人意见的程序节点,向他们发送提出陈述和申辩的提醒,并明确告知进行陈述和申辩的方式与期限。当事人陈述和申辩时,有权要求系统转为人工交流,由行政机关工作人员对陈述和申辩提出的事实、理由和证据,进行复核。相对人意见成立的,行政机关工作人员应当采纳,并据以调整行政决定的内容;相对人所提出的事实、理由、证据不成立的,应当专门或在行政决定中向当事人明确具体地说明不采纳的理由。通过人工介入以及由人工对当事人的意见予以回应,才能确保当事人的意见不仅能被无误解地接收,而且能够切实影响到行政决定,有效发挥当事人陈述和申辩对于查明案件事实、规范法律适用的作用。

第三,应保障当事人的听证权。当事人对自动化技术系统所作出的决定,依法享有听证权的,系统还应进行专门提示。当事人要求听证的,系统应当自动转为人工组织听证。

(三)妥善规制数字化行政所依托的算法

对数字化行政所依托的算法进行规制,较为复杂。下面分四个方面说明:

第一,应限制算法的作用范围。其一,算法自动决策不应无限扩大化,并非所有行政活动都适宜由自动化算法决策。首先,对个人产生重要影响的决定,必须受到外部的人工控制,必须提供人的互动来听取相关个人表达的关切。因此,限制人身自由的行政拘留处罚就不应付诸自动系统。其次,自动系统难以真正“理解”解释和权衡。在芬兰,只有在行政事务能适用预先界定的规则解决,且这种规则能被有效编程于系统中时,才能使用自动化的决定。同样,正是因为对法律规范中判断余地的解释通常高度依赖于情境和个案,并且只有人类能够作出评价性决定,《德国联邦行政程序法》第35a条也将涉及裁量和判断余地的行政行为排除在完全自动化之外。只有在规范的内容能被转化成计算机语言、对事实的确定易于标准化并且行政决定不涉及第三人时,才适合进行自动化的执法。与之类似,我国学者也认为,能够将审查要件标准化的许可事项,才可适用自动化审查。依赖行政权于个案中具体化的规范、涉及价值判断的规范,不能完全委由数字技术执行。综上,对限制相对人人身权的行政拘留等决定,或者涉及裁量或判断余地等法律规范不确定性强的决定,不得委由自动系统决策。

其二,赋予相对人以拒绝权。即使在能采用算法自动决策的案件(不涉及法律规范的裁量和判断余地以及非行政拘留的处罚)中,相对人也应被明确告知案件将由自动系统按照算法决定,相对人对于影响其超过一定阈值的决定(包括影响相对人财产权益超过一定金额、导致相对人无法继续开展生产经营活动或限制相对人从业的行政决定),有权根据《个人信息保护法》第24条第3款,拒绝自动化决策。

其三,行政机关应确保自动化的算法决定确属必要。引入自动系统处理行政事务,应当经过法律和技术评估、集体讨论等程序。行政机关还应定期公布自动化决策清单,让公众知晓在哪些行政活动中存在自动化决策,并逐项说明采纳自动化的理由。公众有权对清单发表意见,行政机关应当做出公开回应。

第二,应确保算法准确。其一,避免算法依据的数据存在偏颇。算法运转不仅依赖于测量相关事实的能力,而且这些测量结果必须被转化成数值用以运算。为了避免测量和转化中的讹误,应由第三方专业主体对机器学习型算法系统所依赖的数据,从其精确性、完整性、及时性和转化的适当性上定期审计和验证,防止数据偏置。监管机关还应建立起公平的数据筛选机制,尤其通过第三方专业主体进行人工定期审核,排除非正常来源的数据,避免算法训练基于有偏见的数据。

其二,政府还应对算法进行检测,以发现是否存在缺陷。可由第三方专业主体根据公认的规范和标准,对算法系统的逻辑和代码、规则和模型、输出结果,定期进行技术检测、筛选对比和影响评估,及时发现其中的潜在缺陷。第三方专业主体的上述数据验证和审核报告、技术检测和评估报告均应公开,公众有权发表意见,第三方专业主体应当进行公开回应。

其三,在自动系统以数据和算法决定时,行政机关应以人工核实机器学习型算法的预测是否符合事实。自动系统充其量只能基于统计数据提示相对人可能的情况,行政机关应以人工核实是否存在证据足以证明相对人有此事实。这样才能确保公权力服务于每一个独特的人并且尊重人的自主和尊严,避免个人沦为决策的客体。

第三,应避免和消除算法歧视。其一,行政机关应对拟部署的算法设置预警机制,确保代码架构、数据质量和系统功能符合技术和规范要求,对算法中可能影响公正决策的技术因素进行质量排查,调整决策模型以消除算法偏差。其二,行政机关应针对算法的系统性偏见,组织多学科专家组成的委员会对算法结果定期进行尽可能中立的影响评估和测试,确保人工智能系统犯错概率低于合理风险的阈值之下。其三,行政机关还应以系统性的处理规则来说明如何确保决定过程的非歧视性质、如何充分和正确地查明特定的待处理事项、如何促成或不促成决定。其四,行政机关应对算法的运行结果进行后检测。在一定时限后,应当对运行结果进行系统的审查检测,以判断程序是否需要调整。其五,监管机关应定期公开预警机制报告、算法影响评估报告、系统性的处理规则和后检测报告,并设置接收和回应公众意见的渠道。如此才能在以自动化提高行政程序的科学性之际,确保行政程序必要的民主性,使利益相关者都能参与到治理体系之中。

第四,应打破算法黑箱。其一,行政机关应履行对算法的论证和公开义务。在对自动系统进行设计和编程时,应当让算法和源代码吸纳立法要求,确保对自动化决定的要求能够回溯到法律。行政机关还负有证明算法合法的义务,说明算法如何认定违法事实和情节、如何确定法律效果等算法的工作原理,并应论证算法规则合乎相关立法。

其二,行政机关应对算法加以解释。根据《个人信息保护法》第24条第3款,通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求予以说明。在行政法的语境中,当事人要求说明的权利不应囿于“对个人权益有重大影响的决定”。因为根据《行政处罚法》第44条、《行政许可法》第38条第2款,行政机关作出处罚决定前或作出不予许可决定的,告知当事人理由、依据或说明理由。无论将算法作为决定依据,还是理由,只要行政决定对当事人造成不利影响,行政机关都应根据上述立法体现的原则,向当事人告知或说明算法。就解释的内容来说,因为向当事人提供他读不懂的内容并不能给他带来认识,为此合适的是要求行政机关予以说明和在必要时披露重要的测试数据。因此,在对相对人不利的自动化行政决定作出前,系统应主动向相对人发送决定的算法原理解释文件,内含算法的设计目的、技术原理、决策依据、运行机制和记录、算法决策所考量的因素及权重、算法与个案决定之间的映射关系,语言应清晰平实或采用算法可视化技术,确保对普通人具有可读性。基于这些算法原理解释文件,相对人有权进行陈述和申辩而对算法是否适当发表意见,自动系统应当设置专门的端口接收。相对人发表意见后,如前所述,行政机关应根据相对人要求进行人工复核。

其三,对算法附带审计跟踪。行政机关应对自动化的各步骤保留防篡改的历史记录,确保全过程留痕,以保证事后复盘自动化行政决定的运算过程时有迹可循。这将有助于行政机关工作人员向相对人告知决策依据和说明理由,对行政决定复查和纠错,并利于他们摆脱对自动系统的盲从心理;对相对人则便于其实现对算法的知情权,对算法提出有根据的质疑。


四、结语

随着数字赋能政府监管,行政权力获得了技术权力的加持,行政法治和当事人权益平添风险。如果将希望寄托于复议机关或法院事后进行审查救济、对数字化行政系统展开纠错和问责,不仅徒增诸多行政纠纷,而且事后救济未必能够将当事人的权益恢复原状。何况救济机关可能会因为缺乏技术知识而倾向于尊重行政决定的专业判断。显然,强化事后的审查救济并非良策。相反,应当着重在事前从实体、程序、组织等多方面进行严格规制,尽可能降低数字技术赋能监管对行政法治价值和当事人权益产生的风险。

应当回归行政法治的基本原则,引入设计型法治的理念,重视行政组织和程序的规制方式,在技术发展、时代变迁的背景下,对行政法治和当事人权益的保护进行升级转型。如此才能在数字赋能政府监管的趋势下,继续捍卫行政法治的底线,维护当事人的正当权益。为此,对数字赋能政府监管之法治风险,应当合理限制行政机关对数据的收集和共享,调适当事人的程序权利之保障,并从适用范围、准确性、反歧视和透明性等方面妥善规制数字化行政所依托的算法。可以说,数字赋能政府监管不仅对行政法治产生了风险,而且也是行政法学得以与时俱进的机遇。对数字赋能政府监管做出适当充分的法治回应,将是行政法学为中国式现代化所贡献的宝贵智慧。