高级检索

学术资源

行政法学

当前位置: 首页 -> 学术资源 -> 行政法学前沿 -> 行政法学 -> 正文

朱峥:自动化行政中的程序裁量及其规范构造

信息来源:《比较法研究》2025年第3期 发布日期:2025-08-18

摘要:随着人工智能技术在行政管理和政务服务领域的应用,自动化行政已引发程序裁量的新议题。基于自动化行政的分级体系,程序裁量的表现类型可分为辅助程序裁量和全自动程序裁量。然而,自动化行政中的程序裁量也潜藏了诸多法律风险。例如,行政正当程序原则被架空,部分必要的程序裁量权被不当放弃,个案正义的实现被裁量系统程式化,行政程序的利益沟通功能被阻滞。有鉴于此,可从理念重塑、技术优化和制度构建三方面开展相应法律制度的设计和革新。在理念重塑方面,由正当程序转向技术性正当程序;在技术优化方面,从有效性、可视性和便利性维度提升当事人对自动化程序裁量的可接受度;在制度构建方面,可基于技术逻辑设置新的控制方式,行政机关不仅要建立人工干预机制,还需进一步赋予当事人对自动化程序裁量的选择适用权。

关键词:人工智能;自动化行政;程序裁量;技术性正当程序


人可能将技术理性发展得非常完美,但其总会有所保留,而这个保留的东西就是人文。

——[德]阿图尔·考夫曼


一、自动化行政引发的程序裁量新议题

“智能互联网的迅猛发展产生了很多革命性后果,形成了双层空间—虚实同构、人机共处—智慧互动、算法主导—数字生态的时代特征。”随着智能时代的到来,人工智能技术已广泛运用于各个领域,深刻影响人类社会生活的方方面面。同时,这也助推了行政方式的变革,为其提供了可靠的技术支持。早在2017年,国务院印发的《新一代人工智能发展规划》就明确提出了人工智能技术在行政管理和政务服务中的应用,以推进社会治理智能化。这一点,在《法治政府建设实施纲要(2021—2025年)》中亦有体现,运用人工智能技术促进依法行政,实现政府治理信息化与法治化融合,优化革新政府治理流程和方式,提升法治政府建设数字化水平。受此影响,自动化行政在实践中早已屡见不鲜。例如,从浙江省“最多跑一次”改革到深圳市“秒批”入户,再到疫情防控“健康码”的生成和利用,无一不是自动化行政的具体实践。所谓“自动化行政”,是指“行政程序中特定环节或所有环节由人工智能代为处理,而无需人工的个别介入,从而实现部分或全部无人化的行政活动”。在此过程中,自动化则具体表现为一种“外部信号反射式的事实判断”。目前,学界对于自动化行政的相关议题给予大量关注,取得了一系列研究成果。然而,就研究现状而言,仅有少数学者对行政裁量自动化问题进行了研究。程序裁量作为行政裁量的重要组成部分,在既有研究中更是鲜有涉及。程序裁量一般是指在行政程序运行过程中,当法律规范没有对行政程序的内容作出具体明确规定、仅作原则性规定,或虽有规定但允许行政机关裁量选择时,行政主体有权基于案件具体情况,对行政行为作出的程序适用进行自主判断和决定,以便行政程序能够灵活高效、合乎目的地运行。这一特性在自动化行政语境下更凸显其重要价值。

为对自动化行政中的程序裁量展开深入探讨,本文将首先基于自动化行政的分级,解析其中存在的程序裁量及其表现类型。在此基础上,进一步指出自动化行政中程序裁量所潜藏的法律风险,并提出应对这些风险的规范构造。值得注意的是,无论自动化行政发展到何种程度,人工智能都不能取代“人”,“人”更不可能沦为人工智能的客体,即“强调主体性与人性的关键价值”。对此,《新一代人工智能发展规划》亦有论断,“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”。在此过程中,需不断提高人机交互能力,引导自动化行政的良性运作,并强调人机关系中人类的主体地位,将人的权利保障置于优先位置。可以说,这也是实现自动化行政中程序裁量规范构造的逻辑基础。

二、基于自动化行政分级的程序裁量及其表现类型

相较于传统行政活动中的程序裁量,自动化行政中的程序裁量具有独特的运行机理。其中,最为明显的特征就是程序裁量观念的更新及相关行政法律制度的变革。鉴于自动化行政的程度不同,程序裁量的表现类型亦有所差异。

(一)自动化行政的分级与程序裁量

关于自动化行政的分级与行政裁量问题,我国学者已经根据不同标准展开讨论。例如,以行政行为的作出是否需要人工介入为标准,自动化行政行为可分为两类:一类是行政机关借助电子技术和设备但程序过程中仍需人工介入的半自动行政行为;另一类是行政机关直接依靠技术设备、根据预设算法,从程序开启直到结束完全排除人工的全自动行政行为。与之对应,行政裁量自动化可分为辅助裁量和全自动裁量。从裁量内容性质上,裁量自动化既包括实体裁量自动化,也涵盖程序裁量自动化。依据现有学理,辅助裁量能在行政法框架内获得相应理论支持,而全自动裁量则可能缺乏理论支撑。至于全自动裁量缺乏理论支撑的原因,既有来自学理层面的否定,也有来自立法层面的排除。相较于辅助裁量,全自动裁量由自动化系统独立作出。此时,行政机关的裁量权实质转换为自动化系统的裁量权。行政机关仅能根据特定算法模型完成裁量判断,完全丧失了其在具体案件中的事实认定和法律适用能力。在此意义上,裁量全自动化意味着行政机关未实际行使个案裁量权,只是基于过去的关联性自动生成结论。这难免面临“裁量怠惰”和“裁量滥用”的双重诘难。此外,全自动裁量的现实可行性尚存疑问。从行政实践来看,当前自动化行政还处于一种弱人工智能阶段,全自动裁量并不具备典型性。《德国联邦行政程序法》第35a条规定,在法律保留前提下且不存在不确定法律概念和裁量情形时,具体行政行为可由全自动设备作出。可见,虽然德国在立法上吸纳了全自动具体行政行为,但却排除了该行为模式下的裁量适用空间,即全自动裁量被禁止。韩国也有类似规定,《韩国行政基本法》第20条规定:“行政厅可以依照法律规定,利用完全自动化系统(包括适用人工智能技术的系统)作出处分。但对处分具有裁量时除外。”换言之,行政机关只有在作出羁束行政行为或非裁量性行政行为时,完全自动化行政才可适用。

不过,以自动化系统能否完成分析和决定为标准,自动化行政可分为自动化辅助行政、部分自动化行政和完全自动化行政。对于完全自动化行政,按照能力适用范围,进一步可划分为无裁量能力的完全自动化行政和有裁量能力的完全自动化行政。在此语境下,有裁量能力的完全自动化行政与全自动裁量同义,都意味着自动化系统具备了一定的自主决策的裁量判断能力。尽管现阶段有裁量能力的完全自动化行政应用较少,但随着人工智能技术的发展,算法的自我适用性不断增强,有裁量能力的完全自动化行政或将更为普遍。在具体行政领域,有研究者对行政处罚的裁量自动化进行了总结。根据机器与执法人员在裁量决定中的参与程度、功能角色等因素,将自动化处罚裁量分为辅助计算、执行既定规则和机器学习三种模式。在不同模式中,行政处罚裁量自动化程度存在差异。其中,机器学习模式就强调算法可以通过学习人类生活的各种数据,在分类加工的基础上,通过不同技术方法自我选择出“最优解”。由此,机器与人之间的“学习”能力界限正逐渐模糊。在自动化行政中,机器可基于大模型不断实现自我构建和自我优化,并提升推理和解决问题的能力。这意味着,机器如同行政机关一样拥有裁量能力,可对程序裁量和实体裁量独立作出精准判断。

虽然学界关于自动化行政的分级标准存在差异,但均围绕分级后的自动化行政与行政裁量问题展开讨论。只不过,程序裁量问题在不同等级自动化行政中的表现形式各异。有学者认为,仅在半自动化行政中存在辅助裁量;但亦有学者提出,完全自动化行政中同样存在行政裁量,例如算法自主决策中的隐性裁量空间。需特别注意的是,辅助裁量的主体仍是行政机关,而完全自动化行政中的裁量主体则转为自动化系统本身。相较之下,“人”在行政裁量决定作出过程中的作用渐趋弱化。然而,人类主体性地位及其能动性对裁量合理性的关键影响仍不容忽视。

(二)自动化行政中程序裁量的表现类型

有鉴于自动化行政的分级体系,以及基于人工智能技术的自我适应性考量,对其中程序裁量的表现类型研究,需兼顾半自动化行政与完全自动化行政。唯有如此,方能全面剖析程序裁量在不同技术应用场景下的表现,避免因研究范畴局限遗漏关键维度,并为后续法律规制提供完整视角。

1.辅助程序裁量

2019年国务院办公厅印发的《关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》指出,要推进人工智能技术在行政执法实践中的运用,研发执法裁量智能辅助信息系统,以有效规范行政裁量权,确保执法尺度统一。所谓“裁量智能辅助信息系统”,是指在行政控制领域内,通过计算机程序对裁量权实现过程控制、全程监督、统一裁量标准和辅助生成裁量结果的软件系统。其中,最为常见的就是关于行政处罚的裁量辅助系统。早在2010年,南京市环保局就自主研发了“环保行政处罚自由裁量辅助决策系统”。该系统将处罚所涉及的违法事实细化为违法行为和后果,对照法律预先规定的裁量范围设置评判标准,运用数学、信息等技术和阶次、等级等方法,对已形成的裁量评判标准作深层次的量化、数字化,然后通过数学模型予以固化,并借助于计算机网络技术集成展现。在此过程中,行政裁量被分为程式化裁量和人工裁量两个阶段:行政执法人员输入案情要素后,由机器根据建模程式进行初次裁量;执法人员在参考机器裁量结果的同时,结合个案情形作出二次裁量。在辅助裁量类型中,无论实体裁量还是程序裁量,均需遵循上述两个阶段。只不过在第一阶段,行政机关的程序裁量权由人工智能技术代为行使。譬如,我国行政处罚法第61条第2款规定,当事人同意并签订确认书的,行政机关可以采用传真、电子邮件等方式,将处罚决定书等送达当事人。若将电子送达方式纳入裁量智能辅助信息系统,即涉及对行政程序的辅助裁量。行政机关依托互联网平台或其他信息传递平台,通过专用电子送达系统与当事人之间实现安全的文书送达和数据交互过程。即使这已经存在于立法之中,但是电子送达的方式在我国仍处于一种实践探索阶段。行政机关对是否采用电子送达方式,仍享有最终的程序裁量权并作出决定。这主要是基于个案正义和程序正义的考量。可见,此时的自动化系统并不能独立完成对程序裁量的分析和决定,“人”的主体作用依然显著。该语境下,技术仅作为辅助手段,即使融入伦理价值理念的人工智能,也不能超越或替代人。

2.全自动程序裁量

有学者早已预判,根据预先设定的程序和给定的数据,机器不仅可以辅助和简化人工,还可能全面替代人工,然而当时的立法者并未预计到全自动时代到来得如此迅速。在自动化行政实践中,虽然半自动行政行为表现多样、应用普遍,但全自动行政行为也不乏实例。例如,税务机关通过互联网以远程方式接收纳税人或扣缴义务人的涉税事务,并借助电子设备自动审核,在此过程中无需要任何人为因素介入。若人工智能技术继续向前发展,有裁量能力的完全自动化行政也有可能得到广泛应用。因此,自动化行政中的程序裁量研究,不仅要关注辅助程序裁量,还需关注全自动程序裁量。当自动化系统具有了裁量能力,其完全可在一定的裁量空间内,对行政行为作出的程序适用进行自主判断并作出决定。有时,自动化行政本身就可作为一种程序裁量的实现方式。相较于辅助程序裁量,行政程序的全自动裁量不再局限于效果裁量,亦涵盖要件裁量。这一论断,主要基于对自动化系统深度学习的研判。伴随人工智能技术的发展,系统将具备自主代理能力,学会独立学习、评估环境,并通过价值、动机和情感进行思考,从而拥有裁量能力。可以说,机器学习算法使机器像“人”一样具有分析和决定的裁量能力。“机器学习模式不仅可以完成效果裁量,尚可以不断完善、充实裁量规则,寻求最优的裁量结果。”这在一定程度上有助于提升程序裁量的公正性和客观性。当然,学术界对全自动裁量也存在质疑。这主要表现为,机器难以模仿行政执法人员在进行程序裁量判断时的思维逻辑活动,可能陷入意思表示不能的困境。此外,“在不确定法律概念和裁量情形下,因探寻个案正义的必要,全自动化可能意味着违反法治国原则”。即使如此,不得不承认自动化行政中的程序裁量正经历技术驱动的变革与重塑。因此,作为自动化行政发展趋势的全自动程序裁量,虽然在提升效率性与客观性方面展现出巨大潜力,但其对传统法律逻辑、个案正义保障及法治国原则构成的挑战,仍亟需法律制度作出回应与前瞻性规制。

三、自动化行政中程序裁量潜藏的法律风险

针对自动化行政问题,有学者指出,“它与传统行政活动在主体、程序、裁量等方面都存在差异,由此潜藏了诸多未来可能出现的法律风险”。作为自动化行政的具体应用领域,程序裁量同样潜藏着一定的法律风险。明确这些法律风险,不仅是揭示技术与法律冲突的关键切入点,更是实现自动化程序裁量规范构造不可或缺的前置步骤。

(一)行政正当程序原则有被架空的风险

在自动化行政中,程序裁量潜藏的首要法律风险是行政正当程序原则被架空。其根源在于自动化行政与程序裁量的特性耦合,即自动化程序裁量在运行过程中对传统行政正当程序构成多重挑战,导致本应完整的行政程序环节被不当省略。这些被省略的行政程序,部分属于行政机关的程序裁量结果,剩余程序仍可满足行政正当程序原则的要求;部分则不属于行政机关的程序裁量结果,剩余程序已无法满足行政正当程序原则的要求。无论何种情形,都会对行政相对人的程序性权利产生不同程度的影响。对此,有学者分析,算法自动决策会严重危及行政相对人的陈述、申辩和听证等程序性基本权利,以及相对人获得行政决策解释的权利。可见,自动化行政中程序裁量的存在,客观上有架空行政正当原则的风险,同时也加大了判断行政机关在自动化行政中程序选用是否合法的难度。在“杜宝良交通违章巨额罚单案”中,安徽来京务工人员杜宝良因在北京同一地点违反禁行标志指示105次,被罚款10500元和违章记分210分。该案中,行政机关利用“电子眼”对杜宝良的违章行为进行了拍摄和记录。但是,杜宝良从未收到行政机关的任何违章告知。由于该案社会影响较大且涉及行政执法告知程序,引发了社会公众对全自动行政行为正当程序缺失的广泛关注。类似案件还有很多,以至于出现“杜宝良现象”。此案例中,行政机关对自动化行政程序的裁量适用显然架空了行政正当程序原则。现在看来,即使是依照我国当时的行政处罚法,行政机关在作出处罚决定前,也应告知当事人处罚决定的事实、理由及依据。这直接关系当事人合法享有的程序性权利。据此,当事人有权进行陈述和申辩。可见,该案有悖于行政正当程序原则,不合理的程序裁量客观上侵害了相对人的程序性基本权利。不过,这一问题已在我国新修订的行政处罚法中得到明确解决。该法第41条第3款规定,对于非现场执法,行政机关应及时告知当事人违法事实,并采取信息化手段或其他措施,为当事人查询、陈述和申辩提供便利。此外,该条款还强调不得限制或者变相限制当事人的陈述权和申辩权。该条在陈述申辩权的基础上增加了查询权,进一步保障了当事人的程序权利,但查询权并不意味着免除行政机关的告知义务。实践中,“告知”往往构成非现场执法的正当性基础。对此,有学者建议,要“增加监控资料录入前告知程序和违法事实告知次数”。可见,自动化行政执法中当事人的程序性权利越来越受到重视。“正当程序是灵活的,应根据特定情况来决定程序性保护的程度。”立法机关也在尝试通过赋予行政相对人一些程序性基本权利,来缓解自动化行政与行政正当程序的冲突。即便是自动化行政中的程序裁量,也须尊重相对人的程序性基本权利,受到行政正当程序原则的约束。

(二)部分必要的程序裁量权被不当放弃

相较于传统人工裁量,行政裁量自动化也有其优势。这种优势主要表现为一种技术优势,即通过算法规则实现裁量结果的客观性判断和标准化输出。裁量自动化将执法人员抽离裁量过程,转由无主观意识的机器依托算法完成裁量决定,从而排除执法人员的个体偏好,增强裁量判断客观性。然而,这也仅是理论上的推断。在自动化裁量中,部分必要的程序裁量权往往面临着被不正当限缩或者直接放弃的境地。其深层逻辑根源,均在于算法驱动的裁量决策自动化系统的主导作用。尽管算法在应用价值上大幅度提升了行政效率,但算法权力嵌入公权力运行时也存在异化风险。实际上,这种高效的行政过程正是通过挤压行政裁量空间而实现的,尤其是程序裁量空间。在此过程,行政程序裁量被算法隐匿,一些必要的行政程序步骤和时限被压缩。这在一定程度上侵蚀着行政机关的裁量能动性。“算法权力从不同层面嵌入公权力的运行,借助架构优势搭建监管体系,甚至在某些领域成为独立的决策者而取代公权力。”因而,当自动化裁量被泛化应用,行政机关在行使程序裁量权时,无疑会产生一种技术依赖,甚至被技术所“俘获”,即行政机关从被动的技术依赖转向主动的技术服从。即便是在辅助程序裁量中,行政机关也更倾向于服从自动化裁量系统作出的判断。这一现象折射出“人”与“技术”关系的深层矛盾。就目前来看,这一技术哲学问题已经成为自动化行政中程序裁量不得不关注的方面。对此,美国学者刘易斯·芒福德在其《技术与文明》(Technics and Civilization)一书中就认为,不能做机器的奴仆和过分迷信技术,不能依赖技术,否则人的福祉就不是因机器和技术而扩大,相反会因机器受到限制,甚至走到反面。如果行政机关对自动化裁量系统作出的裁量结果不加质疑或分辨地直接作为最终处理决定,那么行政机关就丧失了裁量权行使的积极性和主动性。这也就意味着,行政机关没有真正根据法律授权目的来行使程序裁量权,极有可能落入“裁量怠惰”或“裁量滥用”的处境。质言之,自动化裁量系统削弱甚至消解了程序裁量的能动性。相反,行政机关不仅要超越技术依赖,还要激活程序裁量的能动性作用,将其与个案正义紧密联系起来。裁量的本质在于服务个案正当性,行政机关既要按照法定目的观考虑(法律目的,合理性),又要考虑案件具体情况,从而找出适当的解决方法。综上,随着自动化行政的广泛应用,行政机关原本享有必要的程序裁量权可能会被不正当限缩或者直接放弃。如此一来,程序裁量的能动性显著弱化。这在本质上并不符合实质法治对程序裁量的要求。

(三)个案正义的实现被裁量系统程式化

能否实现个案的裁量正义,是判断行政裁量权行使合理性的标准之一。但是,程序裁量中的个案正义不仅包含原本的裁量正义,还涵盖程序正义。在自动化行政中,所有具体行政行为的作出都是由事先的程式所预设。暂且不论全自动裁量,现阶段的辅助裁量亦不例外。这将直接导致个别案件的正义实现被裁量系统程式化,而这正是程序裁量自动化无法避免的一个客观事实。一方面,程序裁量阶段被预先前移,行政机关只能按照算法预设的程序处理事务,无法在系统中选择其他可适用的程序。这也就意味着,行政机关无法在针对个案具体情况、结合相关因素的基础上,作出符合事实的程序裁量判断。其实,行政裁量的必要性就在于赋予行政机关以某种弹性的决定空间,以便按照当时的情况,设定具体目标以及为达成此目标的手段,作成最适合于一般行政任务以及维护公共利益的决定。值得注意的是,虽然程序裁量自动化不利于个案正义的实现,但其依然可以保障一般正义。从人工裁量到机器裁量的过程,并不是完全将裁量行为转换为羁束行为,自动化裁量系统在某种程度上是可以等同于“裁量基准的电子程序化”,即将既定的裁量基准转换为裁量系统所依赖的算法规则。正如有学者指出的,“一个设定科学、运行合理的基准,应该能够满足在行政裁量的规范性与能动性、羁束与裁量之间平衡的技术要求”。因而,行政机关完全可以超越自动化裁量结果,不受其严格羁束。实际上,行政机关利用自动化裁量系统辅助程序裁量,也属于行使了一般裁量权。当然,也有学者提出反对意见,认为如果系统将所有裁量应考虑的事实状态及赋予的法律效果配对类型化,则已将原属于裁量事件转化为非裁量事件,裁量行为实质上已经转变为羁束行为,或者将裁量的可能范围转化为输入案情时的选择,此时已失去自动化的本质。显然,这种观点割裂了人工裁量与机器裁量之间的关系。在辅助程序裁量中,个案正义的程式化实现并不排斥一般正义的达成。另一方面,行政机关对案件的事实认定和价值判断能力被削弱。行政机关在长期实践中积累了丰富的执法经验,使其在法律适用与实务操作上具备显著优势,而这些正是程序裁量自动化所欠缺且难以程式化的特质。尤其行政机关基于专门知识和执法经验,对程序裁量结果的最终决定更是如此。行政自动化排除了行政机关的价值判断和依经验填补事实不明确部分的能力,并不利于不确定法律概念的解释和法律的发展。总的来说,行政裁量自动化的过程,不可避免地使个别案件的正义实现被程式化,对程序裁量而言,更是无法同时兼顾“裁量正义”和“程序正义”的统一。因此,如何实现程序裁量程式化与个案特殊性的法理调和,将成为必须破解的实践难题

(四)行政程序的利益沟通功能被阻滞

行政程序的利益沟通功能被阻滞,是行政正当程序原则被架空、部分必要程序裁量权被不正当限缩或放弃,以及个案正义的实现被裁量系统程式化所带来的一个必然结果。相较于传统行政程序,自动化行政中的程序运行自有其表现特征。那就是“人”在行政程序中的逐渐“退场”,以及“机器”在行政程序中的“登台”。传统正当程序关注行政行为作出过程中“人”所享有的程序性权利,建构的是以“人”为主的一套行政程序;而自动或智能机器作出的行政行为,背后均是由算法支撑的自动化决策系统所为。此时,无论实体裁量还是程序裁量,在自动化裁量系统中均表现为一套算法决策程序。这套算法决策程序作为人工智能技术发展的产物,真真实实地影响了人、机器与法律之间的相互关系。对此,有学者指出,“虚拟空间的算法决策程序事实上影响着现实世界的正当程序,意味着公共行政跳脱出人际交互的程序(process)之治转向人机共存的程序(program)之治”。这一转向虽体现了“人”在算法决策程序中的主体性,但其主体作用的发挥极为有限,导致行政程序的利益沟通功能受阻。究其根源,乃是作为利益沟通主体的“人”在程序裁量系统中享有的程序性权利被代码化,只能通过“机器”间接行使或者直接被隐匿起来。其实,现代社会中,实体裁量与程序裁量本质上都是一种均衡性的利益衡量。因而,如何达成利益均衡状态则成为了行政裁量治理关注的核心问题。通过行政程序来控制行政裁量,是行政裁量治理的一种经典方式。只不过,这种方式要依赖行政程序的利益沟通功能来实现。在行政法上,“沟通”主要表现为公共利益与个人利益之间的一种利益沟通,即行政机关与相对人或利害关系人之间通过信息互通、彼此了解、协调行动、避免冲突,最终实现信任与合作的过程和方式。然而,随着人工智能技术在程序裁量中的应用,各利益主体在传统行政程序中“沟通与交流”的场域不复存在。同时,彼此信任与合作的基础也被瓦解。算法决策程序的封闭性,使得行政机关与相对人、利害关系人无法有效沟通交流,更难以进行不同利益间的博弈、协调和权衡。在此过程中,相对人或利害关系人无法向行政机关表达意见,行政机关也无法向相对人或利害关系人及时说明自己的真实意思表示。相较而言,相对人或利害关系人更处于一种劣势地位,这主要是由两者信息不平等所导致的。“算法黑箱将决策权拖进了由技术复杂性构建的不透明区域,决策相对人因对决策相关信息缺乏基本了解而难以拥有应对与反制能力,在信息获取和决策判断能力方面均居劣势。”

四、自动化行政中程序裁量的规范构造

在法律制度的发展与变革中,任何制度路径的选择和规则的设计,其法律思维均需融合客观事实分析与主观价值判断。自动化行政中程序裁量的规范构造亦不例外。基于此,可从理念重塑、技术优化和规则构建三方面展开法律制度的革新设计,以系统性回应上述法律风险。然而,技术迭代速度远超法律创制与完善的进程,这使得自动化程序裁量的规范构造并非一劳永逸,而是需要在技术可控性与法律弹性之间保持动态平衡。因此,一方面需通过持续的技术伦理嵌入、制度创新防范算法权力异化,另一方面需避免过度监管抑制技术创新活力,最终通过上述平衡推动技术理性与法律价值在互动中协同适配。

(一)理念重塑:从正当程序到技术性正当程序

前已述及,自动化行政中程序裁量潜藏的首要法律风险就是行政正当程序原则有被架空的风险。同时,这也是自动化行政程序在运行过程中所存在的一个普遍性问题。追根溯源,乃是算法自动化决策改变了行政活动的传统范式,并与行政正当程序原则产生了严重冲突。算法自动化决策压缩了行政活动的各环节,架空了行政正当程序;并且以内部决策的角色参与行政活动,使得正当程序控制失灵。其实,无论信息技术怎样影响或改变行政过程,正当程序规范行政权力行使、保障公民权利的内在价值并未过时。正因如此,越来越多的学者赞同对正当程序理论进行革新,通过“技术性正当程序”来消解算法自动化决策对行政正当程序的冲击,进而重新确立程序的中立性、参与性和公开性等标准。关于“技术性正当程序”,美国马里兰大学丹妮尔·西特伦教授在其论文《技术正当程序》中指出,“技术正当程序模型保护个人在公平的、可问责的和透明的裁决和规则制定中的利益,同时也不会放弃自动化决策系统带来的益处”。在理论层面,技术性正当程序的完整内涵具体包括原理公开、全程参与、充分告知、有效交流、记录留存、人工审查六个方面。可以说,“技术性正当程序”主要通过维护正当程序及规范规则制定的机制,重构了自动化时代的程序保障。这与正当程序的内在价值基本相通,只是应用场景由传统行政过程切换到自动化行政。技术性正当程序仍以保障公民权利为核心,不过更侧重规范算法权力的正当行使。实际上,“技术性正当程序”乃是正当程序在数字时代的新发展,其不仅更新了传统的正当程序理念,还引领了新的法律制度变革。就目前来看,“技术性正当程序”对于自动化行政中程序裁量的规范构造值得借鉴。其实,无论实体裁量自动化还是程序裁量自动化,均需关注程序算法的正当性设计,形成一种“专门的技术程序”。对此,仍要使之契合最低限度的程序公正标准,即将正当程序的中立性、参与性和公开性标准转化适用于技术性正当程序。

首先,程序中立性的核心要求在于行政机关能够“避免偏私”,与行政相对人或利害关系人不存在利益牵连和个人偏见。通过自动化系统的程序设计,上述问题不难得到缓解,甚至得到彻底解决。这是因为,在自动化系统中,机器与行政相对人或利害关系人不存在利益牵连,更无情感偏好可言。这体现了自动化系统在克服人类主观偏见方面的正向作用。接下来,问题的关键在于如何排除“算法偏见”或“算法歧视”,防止其对程序中立性的侵蚀。针对这一技术异化问题,学术界逐渐形成了共识性规制路径。有学者认为,算法偏见的规制需从数据和人为因素两方面入手,以公平原则和技术伦理原则为指导,基于透明性和问责性,建立公平有效、程序正当的规则。也有学者提出,排除算法歧视既要借助算法的公开透明,又要确保程序的一致性。虽然这两种观点存在细微差异,但都肯认了算法技术控制需遵循公开、透明原则。实践中,为了推动企业算法公开透明,国家互联网信息办公室等九部委制定的《关于加强互联网信息服务算法综合治理的指导意见》就指出,企业需要公开算法基本原理、优化目标、决策标准等信息,做好算法结果解释,畅通投诉通道,以消除社会疑虑。这一要求对行政领域算法的公开、透明同样适用。可以说,将公平原则、透明程序嵌入算法设计与应用全流程,既能延续程序中立性的核心价值,也可以此强化自动化行政中的程序裁量控制。

其次,程序的参与性即行政参与原则,要求相对人或利害关系人有权参与到行政权力的运行过程,并表达自己的意见。此即意味着,行政机关与相对人或利害关系人之间得以沟通与交流。然而,程序算法的封闭性却阻隔了这种沟通与交流的正常进行,一些程序机制可能被行政机关裁量省略。例如,《德国联邦行政程序法》第28条规定,行政机关在借助自动化设备作出行政行为时,可豁免举行听证。虽然这只是行政机关在个别情况下对参与人听证权利的裁量省略,但其却影响了一系列重要程序性权利的正常行使。在我国,类似情形同样存在,尤其是自动化行政中的程序裁量对正当程序原则构成架空风险。目前,我国立法机关已通过完善程序立法,将正当程序原则嵌入非现场执法中,以回应智能时代行政执法的客观需求。对此,我国行政处罚法对非现场执法程序进行了专门规范和约束,使之从“‘自定程序’过渡到‘法定程序’”,即行政机关不仅要履行告知义务,还应采取信息化手段或措施保障当事人的查询权、陈述权和申辩权。尽管这增加了当事人的权利保护成本,但切实满足了技术性正当程序的参与要求,提升了算法程序的可参与性。在此过程中,行政机关应听取相对人或利害关系人所表达的意见,并允许其对算法程序提出质疑。正如有学者指出的,为配合自动化行政行为作出,有关程序及方式的要求须作一定程度的调整,但基于法治国家原则,行政处分应清楚、明白及为相对人所能理解的要求,并不因自动化行政行为而得以免除。尤其对于一些重要程序性权利,就算在自动化行政中也不能对其造成不合比例的剥夺或限制。否则,依据我国行政处罚法和行政诉讼法的相关规定,该行政行为极可能被撤销或者部分撤销。

最后,程序的公开性是指行政机关将行政权力运行的依据、过程和结果向相对人和社会公众公开,其目的在于保障公民知情权、监督行政权力运行。而技术性正当程序要求实现算法公开,这主要是为了应对算法的不透明性和不可预测性,破解算法黑箱问题。从本质而言,算法公开即公开算法背后技术性行政权力的运行逻辑。“智能算法调配资源的力量使其形成了一种事实上的技术权力。”但是,“权力的本质属性并未发生改变,实际改变的是权力的运作方式,即对权力机制的重新构造”。虽然算法公开不同于传统行政程序的公开,但其价值目标具有一致性。算法公开不仅旨在实现算法的可理解性,更在于监督行政机关算法权力的运行。可见,推动算法公开、透明兼具必要性与紧迫性。在此目标导向下,算法公开应当是“有意义和有特定指向的决策体系的公开,而非一般性的算法架构或源代码的公开与解释”。这种公开需能够解释人工智能如何在大数据基础上作出算法决策。并且,进一步明确算法公开的范围、程序及责任机制,将公开性要求转化为技术标准。

(二)技术优化:由技术特征展开风险防控

自动化行政中的程序裁量,具有其独特的技术特征和技术逻辑。这也是实现其规范构造不可忽视的客观事实。可以说,智能时代的法律革新必须紧密结合技术特征展开,切忌脱离技术特征空谈风险防控。只有遵循相应技术的基本逻辑,才能有针对性地推进技术优化。因此,可从有效性、可视性和便利性等维度着手,提升当事人对自动化程序裁量的可接受度。

1.有效性优化

在自动化行政中,无论辅助程序裁量还是全自动程序裁量,实现其有效性的关键在于能否接受合法性的检验。如果自动化行政中的程序裁量无法接受合法性的检验,便更无有效性可言。详言之,从辅助程序裁量到全自动程序裁量,自动化行政因机器学习算法越来越具有一种自我适应性。“机器已经从简单的输入输出的工具,转为一种具有自动符合人类需求、适应社会需要的参与者。”不可否认,算法的自我适应性在一定程度上推动了人工智能技术的自我优化。但是,其也存在限定因素,尤其要受到行政法定原则的约束,即“法无明文规定,不得任意行政”。因此,自动化行政中的程序裁量仍须以法治为基准。就目前来看,自动化行政的适用场景主要包括信息、数据的收集与处理,行政活动电子化以及直接作出行政决定三种类型。在这三种场景中,人工智能存在的时空和功能定位并不相同。无论上述场景的应用程度如何,自动化行政中的程序裁量都无法脱离现有法律框架。即便既有法律制度存在滞后现象,也应将其作为有效性优化的一个衡量标准。“技术发展不会摆脱现有法律秩序而凭空塑造出另一套完全独立的法律规范,技术发展对法律秩序的改变方式不是整体置换,而是渐进互融。”此外,虽然自动化程序裁量提高了行政效率,但其潜藏的法律风险也会影响行为的有效性。这将直接导致自动化程序裁量难以完全得到社会公众的信任与认可,进而缺乏“社会可接受性”。如果社会公众不能接受自动化决策结果,其也应有权利选择是否适用自动化决策。对此,《欧盟通用数据保护条例》(GDPR)第22条第1款规定:“如果决策结果具有法律效力,或者会对个体产生类似于法律效力的重要影响,那么数据主体有权拒绝完全的自动化决策。”从文义上看,该条款“赋予了数据主体脱离完全依靠自动化处理对其作出的具有法律后果决策的权利”,即“脱离自动化决策权”。概言之,自动化行政中程序裁量的技术有效性优化,既受制于行政合法性的刚性约束,亦需契合社会可接受性所蕴含的公众认知与伦理共识的柔性边界。

2.可视性优化

前已述及,在行政机关行使程序裁量权时应用人工智能技术,其被滥用的可能性极大。尤其是规避行政正当程序原则,致使行政相对人或利害关系人的程序性基本权利得不到充分保障。因此,被算法控制的自动化程序裁量,更容易滑向“技术利维坦”(technological leviathan)的境地。在这里,之所以用“技术利维坦”一词作形象描述,主要是因为行政机关的算法权力很可能给程序裁量带来更大的潜在风险。由此引发的法治价值失序问题,不仅需要在法律层面作出回应,还需要在技术层面作出改进。为实现对技术风险的良好治理,提升其可视性优化极为重要。首先,可视性优化并不完全等同于算法公开。随着技术性正当程序的确立,实现算法公开已成为行政机关的一项法定义务。对于行政机关而言,其在算法公开方面负有何种义务,以及需公开哪些内容、达到什么程度,才能达到法律上公开透明的要求。因此,行政机关需主动公开算法基本原理、优化目标、决策标准等信息,以保障相对人及利害关系人的知情权和监督权,否则须承担相应法律责任。然而,可视性优化的内涵不止于此。一方面,行政机关需结合程序裁量自动化的特点与当事人的需求,设计不同类型的程序裁量的可视化方式;另一方面,可视性优化需考量算法公开或信息传达的实际效果,行政机关可通过添加标签、注释等方式解释程序裁量自动化过程,提升相对人的理解度。此外,针对程序裁量自动化结构复杂、传统可视化方式难以满足当事人需求的问题,行政机关可研发新的可视化技术和算法。可见,相较于静态的算法公开,可视性优化的目的则在于实现程序裁量自动化的一种实时可视状态。如此一来,受程序裁量自动化影响的相对人或利害关系人能够更好地理解整个运行操作过程,全面保障其知情权、监督权和参与权。其次,虽然可视性优化主要体现为技术规制方向,但其却在法律价值上与技术性正当程序理念高度契合,直接回应自动化行政中程序裁量潜藏的法律风险。“算法技术与行政权的深度融合使行政权产生了一种新的运作方式,即算法行政权。”可视性优化同样要求这种算法行政权的行使必须满足正当程序的要求。最后,可视性优化在自动化程序裁量中具有无可比拟的优势。其核心作用在于助力行政机关作出更明智、准确的决策,并通过预测分析提供更高效的自动化决策与自我纠偏系统。通过全过程整合数据并建立相关性联系,可视性优化可提升程序裁量行为的科学性和正当性。从技术与法律协同维度看,可视性优化通过实时可视化技术与动态程序监控机制,成为驱动自动化程序裁量向合法且可接受状态转型的关键因素。

3.便利性优化

“便利性”作为便民高效原则的核心内涵,要求行政相对人或利害关系人能够便捷获取行政机关提供的各种公共服务。这一要求在自动化行政的程序裁量中需通过技术与制度的双重适配予以实现。在自动化程序裁量场景下,便利性优化并非单纯服务于行政机关的效率目标,更需借助技术手段对裁量流程进行重构,推动程序正义与技术效率的协同共进。以我国行政处罚法第41条第3款为例,该条款规定行政机关应采取信息化手段或者其他措施,为当事人查询、陈述和申辩提供便利,其立法意旨在于通过科技手段充分保护当事人的程序性权利。在行政实践中,行政机关可搭建行政执法信息公示平台,将电子监控记录的违法信息实时接入,并嵌入智能交互模块,自动提示当事人查询路径、引导陈述申辩流程。由此可见,相较于传统模式,自动化行政中的程序裁量更易实现便利性与权利保障的技术性融合。通常情况下,除法律有特别规定外,行政程序可不受固定形式的约束,以实现灵活高效运行。因此,可从程序环节、程序时效和工作方式三个维度进行便利性优化。在此过程中,行政机关需充分考量当事人的现实需求,择取适宜的便利性实现方式。在程序环节优化层面,自动化程序裁量系统需针对不同行政行为类型进行差异化流程设计。对于授益性行政行为,可借助技术手段自动调取电子证照,简化材料提交环节等;对于损益性行政行为,则需强制植入关于行政程序正当的校验算法,若未完成法定告知、听证等前置程序,系统自动阻断裁量决定生成,同时针对重复违法、情节争议等场景触发人工干预提示。在程序时效优化层面,一方面通过自动化监控确保陈述申辩期、决定作出期限等刚性程序要求的精准执行,另一方面针对特殊群体设置程序期限弹性机制,对因客观障碍导致程序履行困难的相对人,自动延长程序期限并完整记录弹性处理的事实理由与法律依据。如此一来,便可形成行政主体时效严格规制、相对人时效合理宽宥的双向平衡机制。对行政主体需强化服务行政和责任行政意识,对其程序时效从严规定;而对相对人则需结合其实际履行能力和现实困难,适当从宽规定。在工作方式优化层面,运用自然语言处理技术实现自动化告知与动态说理,将裁量依据、算法逻辑以可视化图谱形式推送至当事人,并允许其对裁量过程的便利性与公正性进行实时评价,以此推动行政机关对程序设计缺陷作出针对性改进。这种涵盖程序环节、时效控制与沟通机制的全流程便利性优化,实质是将服务导向的治理理念融入自动化程序裁量的技术逻辑,通过技术赋能实现程序参与的实质化、裁量过程的透明化与权利保障的精准化,最终构建既遵循技术规律又坚守法治底线的自动化程序裁量规范体系。

(三)制度构建:基于技术逻辑设置新的控制方式

对于自动化行政中程序裁量的规范构造,无论理念重塑还是技术优化,都难以脱离具体的制度构建。综合上述理论与实践经验,可基于自动化程序裁量的技术逻辑设置新的控制方式,即建立以行政机关为实际主导和执行的人工干预机制,并赋予当事人对自动化程序裁量的选择适用权。

1.建立人工干预机制

从技术角度观察,自动化行政中的程序裁量一旦运行起来,其裁量结果可能瞬时完成。这意味着,行政机关可能丧失对自动化程序裁量过程的适当性控制,尤其面对全自动程序裁量。但是,无法保证机器裁量在所有案件中都公正合理,其中最大的技术风险在于行政机关及其公务人员被自动化设备所支配,从而失去对自动化设备施加有效的人为控制的能力。因此,为行政机关及其公务人员保留必要的人工干预机制就显得尤为重要。该机制指对自动化行政设备运行施加控制约束的一切制度安排,涵盖弱人工智能场景下公务人员对自动化设备的直接干预,以及强人工智能场景下公务人员监督、中断自动化设备的运行过程和对自动化设备输出决定的事后矫正。由此可见,该机制不仅适用于以弱人工智能为驱动的辅助程序裁量,还可有效应用于以强人工智能为驱动的全自动程序裁量,使公务人员能够对自动化程序裁量进行事中控制和事后矫正。在客观上,这起到了一种对自动化行政设备运行的“刹车”作用。之所以要设置人工干预机制,既是为了避免行政机关完全被自动化设备“俘获”而失去对于程序裁量决定的能动性,也是为了避免行政相对人或利害关系人沦为自动化程序裁量决定的被动客体。在此过程,人工干预机制的启动可能暂时打断程序裁量自动化流程,但它从根本上维护了行政机关在自动化行政秩序中的主体地位,并保障了当事人的程序性权利。“自由裁量是决策结果的作出,是对人有重大影响的一环,自动化系统无法替代人作出自由裁量,而只能成为人的决策的辅助。”这是将自动化设备定位为一种辅助性的工具。从立法实践看,人工干预机制已在域内外法律中实现突破性进展。《欧盟通用数据保护条例》第22条第3款规定,数据主体对数据控制者享有进行人工干预、表达观点,以及对决策进行异议的基本权利。我国个人信息保护法第24条第3款规定,通过自动化决策方式作出对个人权益有重大影响的决定,个人不仅享有要求决策者予以说明理由的权利,还享有拒绝完全自动化决策权。根据国家立法机关的法律释义,拒绝自动化决策权是赋予个人要求对自动化决策进行人工干预的权利,即要求处理者对自动化决定进行人工干预,复核自动化决策结果是否基于准确、完整的个人信息公平、公正作出,并可以要求更正错误或不当的决策结果。这表明,人工干预机制已从单纯的行政自制手段,升级为“个人权利—行政义务”的双向规范结构,即个人有要求获得人工干预的法定权利,行政机关则负有事前预设干预节点、事中响应干预请求、事后承担矫正责任的三重义务。这种制度设计不仅回应了技术风险,更通过法律赋权重构了人机协同的行政裁量治理模式,成为数字时代行政程序法治的重要创新。

既然设置人工干预机制可成为自动化程序裁量的新型控制方式,那么在何种情形下行政机关应当启动人工干预机制,亦即人工干预机制需满足何种适用要件。根据我国个人信息保护法的规定,当以自动化决策方式作出决定,且该决定对个人权益产生重大影响时,个人有权要求进行人工干预。循此逻辑,在自动化程序裁量中,第一个要件自然适用,故需进一步判断第二个要件是否成立,即当对个人权益产生重大影响时,个人就可要求启动人工干预。不过,是否对个人权益有重大影响,则是一种难以认定的主观化情形。这是因为,行政机关和当事人对个人权益受影响程度的判断和理解不同,且无法通过统一规则或基准量化衡量。但这并非否定“重大影响”要件的价值。从当事人权利角度出发,只要自动化程序裁量对其权益产生一般性影响,就可表达意见或提出异议并请求人工干预,而不必局限于“重大影响”的严格门槛。除依受请求启动外,行政机关还可主动进行人工干预。当其发现自动化程序裁量确实存在错误,为实现个案的裁量正义和程序正义,行政机关有权凭借专业知识和实践经验介入,对程序裁量过程进行审查。行政机关作出裁量决定时,需综合权衡影响案件的不同因素,而人工智能系统可能使行政执法人员将复杂的案情归约为计算机的若干指标或参数。这其中难免会存在数据来源、算法以及系统的错误,导致偏离行政目的。这种自动化行政指令的瑕疵主要表现为缩减裁量和缩减程序。对于错误的自动化决定,行政机关负有法定纠错职责,有权随时修正或撤销。申言之,自动化程序裁量的法律效果并非具有绝对羁束力,行政机关基于行政法定原则、行政均衡原则和行政正当原则,有权对因数据错误、算法违法或程序瑕疵导致的裁量结果予以推翻。综上,人工干预机制的适用路径包括两类:一是当事人因自动化程序裁量对其权益产生产生重大或一般性影响,通过陈述申辩请求启动人工审查;二是行政机关发现程序裁量存在数据错误、程序缺失等瑕疵,依职权主动介入纠正。

2.赋予当事人选择适用权

在自动化程序裁量中,当事人沦为受机器支配的客体似乎已成为其难以挣脱的困境。自动化设备不仅弱化了行政相对人的程序保障力度,而且对相对人的信息呈全面支配之势。在此情形下,赋予当事人对自动化程序裁量的选择适用权很有必要。从权利正当性的法理基础看,自动化行政是人工智能技术推动行政活动方式变革的产物。尽管其已经得到广泛应用,但现阶段尚未完全取代传统行政方式。实践中,行政机关采用自动化行政往往是受人工智能技术驱动,主要出于提高行政执法效率的考量。在法律层面,程序裁量权属于行政机关的法定行政职权范畴,不得随意让渡给给机器行使。机器因获得行政机关的转授权而正当化自动决策行为的可能性已在事实上和法理上被否定。与之相应,当事人并无法定强制义务完全服从自动化程序裁量,反而有权在特定情形下拒绝接受自动化决策,以及在必要时要求启动人工干预程序。这体现了一种对自动化决策的审慎态度,旨在平衡技术效率与权利保障的法治需求。事实上,拒绝自动化决策或者要求进行人工干预,正是当事人对自动化程序裁量选择适用的具体方式。例如,德国《税务条例》就赋予了相对人从全自动程序转为普通程序的选择权,相对人可以要求人工介入,拒绝适用全自动行政程序。这一权利的正当性基础在于法律对当事人程序性基本权利的保障。无论自动化程序裁量如何运行,均不得克减当事人的陈述、申辩、听证等重要程序性权利。这关系到承认和尊重程序参与者的个人尊严以及实现自身的独立价值。

在选择适用权的适用条件和限制方面,当事人的选择适用权需遵循以下规则:一般而言,行政机关决定采用自动化行政方式时,应将涉及的实体或程序裁量自动化相关信息明确告知当事人。当事人在知晓详情后,有权自主决定是否适用自动化程序裁量。若拒绝适用,行政机关应当及时转为人工裁量。即使当事人在事前阶段同意适用自动化程序裁量,也可在事中阶段撤回同意,要求终止自动化程序。同时,当事人的选择适用权需受到合理限制。仅当自动化程序裁量对当事人听证、陈述、申辩等重要程序性权利造成实质损害时,方可拒绝适用自动化程序裁量,以维护自动化行政秩序的相对稳定性。在行政实践中,当事人越是基于算法信任,越会选择适用自动化程序裁量。而依据技术信任的形成机理,通过增强算法技术本身的可靠性、稳定性等性能表现,使公众对其运行形成稳定预期和信赖,以及通过法律、行业规范、技术伦理等制度构建可信的治理环境,提升公众对算法技术的可控感和影响力,均为算法信任的主要来源。此外,尽管赋予当事人选择适用权有助于其获得对自动化程序裁量的控制,但仍需建立配套的法律责任机制以保障该权利落地。若行政机关忽视当事人对自动化程序裁量的选择适用权,导致其重要程序性权利被架空,须依法追究行政机关的法律责任。这一制度安排看似传统,却能有效弥补单纯赋权机制的缺陷,通过权责一致原则明确行政机关义务,确保自动化行政中当事人权利保障与技术应用的动态平衡。

五、结语

人工智能技术在行政活动中的广泛应用,对现有行政法律制度产生了深刻挑战。作为其中的核心议题,程序裁量既承载着技术理性的效率追求,也蕴含着人文价值的伦理张力。基于自动化行政的分级体系,程序裁量的表现类型可分为辅助程序裁量和全自动程序裁量。不过,自动化行政中的程序裁量也潜藏着一定法律风险,明确这些法律风险是进一步实现自动化程序裁量规范构造不可或缺的步骤。具体风险包括:(1)行政正当程序原则可能被架空;(2)部分必要的程序裁量权被不当放弃;(3)个案正义的实现被裁量系统程式化;(4)行政程序的利益沟通功能被阻滞。本质上,这是技术逻辑与法律逻辑碰撞的产物。为应对上述挑战,需从理念、技术和制度等维度构建协同治理框架。以“技术性正当程序”重塑程序正义理念,将中立性、参与性、公开性等传统价值转化为算法可兼容的技术标准;通过有效性、可视性、便利性的技术优化,既保障程序裁量的合法性,又提升当事人的主体体验;建立人工干预机制和赋予当事人选择适用权的双重控制规则,在技术自主性和人类主体性之间划定合理边界。这一规范构造的核心,在于承认人工智能的工具属性,确保行政机关始终是程序裁量的责任主体,而人的尊严、权利与个案正义始终是自动化行政不可偏离的价值目标。未来,唯有将技术理性置于人文价值的坐标系中,才能在智能时代实现行政效率与公平正义的“最大公约数”,为数字法治政府建设开辟“技术向善”的实践进路。