高级检索

学术资源

行政程序研究

当前位置: 首页 -> 学术资源 -> 行政法学前沿 -> 行政程序研究 -> 正文

雷刚:论算法行政的程序法治:挑战与回应

信息来源:《电子政务》2024年第6期 发布日期:2025-08-22

摘  :随着数字政府建设的深入推进,算法行政成为公共行政的全新面向,在提高行政程序效率的同时,亦带来诸多法治挑战,亟需对此进行回应。在算法行政中,技术程序难以与传统程序理论在时空观、权力观和人际观上形成耦合。同时,算法的封闭性、瞬时性、黑箱性、替代性和自主性对申请、告知、信息公开、证据、说明理由以及陈述申辩等程序制度带来挑战。基于此,有必要构建涵盖主客观层面程序正义的算法程序正义理论,从而为算法行政提供程序法定和程序正当功能。以此为遵循,从“权力性”和“权利性”程序维度出发,更新设计算法行政的程序法治路径,可望实现数字化与法治化的深度融合。

关键词:数字政府;算法行政;算法治理;行政程序;算法程序正义


一、问题的提出


在数字政府时代,“无人干预秒批”“信用评级”等算法决策的推广和应用,对行政治理产生了制度性冲击,催生出全新的行政模式,即算法行政。算法行政作为公共行政的新形态,强调制定和使用算法属于“手段-目的”方式下的决策行为,是一种基于算法机器优势、架构优势和嵌入优势的行政模式。同时,算法将治理任务、规则、行为等进行代码设计并转化为“输入-处理-输出”的运行程式,推动行政程序精简化、便捷化和高效化的发展。由此,算法通过结构化的数据配置和代码计算以形成新型权力结构,改变了公共行政的程序价值。进而言之,算法作为承载法律规范、利益判断且具有一定自主性的技术程序,其运行并非基于主体间沟通与交流的过程,而是基于代码和数据的自学习和自处理的过程,导致协商型程序机制的失效,从而引发程序法治危机。对此,《法治政府建设实施纲要(2021—2025年)》提出“全面建设数字法治政府”的要求,这意味着亟需建构算法行政“数字-法治”双向调适的程序法治。

在算法行政中,算法对程序法治形成的负效应日益凸显,如何有效规制负效应业已成为学界研究的重要议题。具体来说,有研究认为,随着算法大规模的公共性应用,算法黑箱、算法偏见以及算法权力导致知情权受限、平等权受损以及权力合谋等法治风险。这是因为,算法程序是机器的过程而非人类的过程,使得运行中不存在行政主体与相对人互动的可能。算法对信息公开、陈述意见、说明理由等程序形成挑战,削弱行政程序权力控制和权利保障的作用发挥,程序规制由此陷入失语境地。为塑造算法行政的程序法治,相关研究通过探讨智能化的程序规则,提出“技术性正当程序”“数据正当程序”等多种应对方案,将公共价值嵌入算法,试图缓和算法行政与程序法治之间的冲突关系。

综合而言,在算法行政背景下,算法作为“已编码的行为程序”或者是为了达成特定目标的计算程式,基于公共性功能和作用而相当程度上等同于一种行政程序,从而应当纳入程序法治的范畴。有鉴于此,算法行政的技术程序如何与行政程序的法治规则实现功能兼容与机制协调,有待进一步探讨。本文首先从理论和制度视角出发,系统检视算法行政对行政程序形成的双重挑战;随后,立基于立法和司法层面,厘清算法程序正义的发展脉络,从而深度剖析算法程序正义的理论内核;最后,在算法程序正义的指引下,确立其对算法行政的双重功能,并基于“权力性”和“权利性”程序维度以探寻具体的法治路径。


二、算法行政对行政程序的双重挑战


在算法行政中,算法成为全新的程序机制,使得行政过程充溢着程式化的数理逻辑,最终的决策难以体现商谈共识,而更多的是潜藏着算法的自主判断和机器意志。因此,有必要从理论和制度层面出发,对算法行政形成的程序法治挑战进行全面分析。

(一)理论挑战:传统行政程序理论的局限性

通常而言,行政程序涉及政府活动的时空安排、行政权力的合法控制以及人际交互的关系调试,这意味着行政程序是时空观、权力观和人际观的相互统一。然而,在算法行政中,技术程序使得法律程序的作用衰微,表现为算法与行政程序的时空观、权力观和人际观存在着明显差异。

1.时空观的不适配

行政程序的线性和单维的时空场景并不适应算法行政所塑造的时空观。随着“合作行政”成为行政法的核心概念,主体间的利益虽然客观上是对立的,但是可以通过协商与合作实现利益上的求同存异。于是,行政程序为基于利益协调的公共交往提供了时空场景,是政府与公众沟通与互动的“法空间”。因此,在现实世界中,行政程序设定了行政行为“交涉”上的时空场景。例如,根据我国《行政处罚法》第52条第1款的规定,执法人员若当场作出行政处罚决定,应当向相对人出示证件和填写行政处罚决定书,并当场交付给相对人。“出示证件”“填写处罚决定书”和“交付”等构成了行政主体与相对人的交涉方式,在时间和空间层面上体现为交涉过程的“当场性”。可见,通过行政程序获得行政行为的可接受性,实质是提供一种时间连续和空间稳定的“线性-单维”型时空场景。进而言之,行政机关在适用行政方式的线性和单维环节中,应当架设供行政相对人进行选择的时空场景,不仅便于其在合理期限内进行思考与表达,也利于其采取便捷方式来传达选择结果。然而,在算法行政中,技术程序映射出虚实同构的行政空间,弱化了过往时空场景的连续性和稳定性,甚至超越了物理时空的因果联系,“多维-矩阵”型时空场景由此形成。

这种“多维-矩阵”型时空场景,意味着多线可逆的时空倒置成为可能,多线程挑战着单维性,使得时空混合,“同时并存,没有开端,也没有终结,没有序列。”“多维-矩阵”型时空场景试图将论辩对话和行动选择予以瞬时完成和归一处理,打破物理时空场景的次序、时限、步骤等过程性安排,个人被算法锁定而走向自主式微的状态,转变为指令运算环节中的特定数据点。同时,强调“人”在场的交涉过程被算法封闭式的“数据输入-参量调试-决策作出”程序机制所取代,主体间的交互场景异化为数字符号的闭合演绎,这意味着传统交涉时空场景所要求的亲历性、参与性以及直接言辞性等因技术程序而失去适用余地。

2.权力观的不兼容

行政程序作为规范权力的屏障难以覆盖算法权力。行政程序不仅提供了行为过程的技术要求,而且通过强调自身的规范性来设定行政权力行使的正当要求。从这一角度来看,行政程序是规范政府权力运行的法治屏障,其内核是促进个人权利的实现。换言之,那些关于权力正当化的基本要求通过法律实现法定化,成为权力运行过程中不可或缺的程序要件,并赋予了行政权力的可问责性。然而,在算法行政中,算法对行政程序的规训权力理念带来了正负两方面的影响。正影响表现为行政程序的效率导向通过算法自动化得以最优实现,这使得行政权力呈现出高效运作的面向。可见,在效率层面,算法行政蕴含的效率价值仍旧可以归纳至行政程序的规范光谱中。然而,在正当性层面,算法行政形成的负影响则溢出行政程序规训权力的射程范围。

具体来说,负影响表现为算法权力的异化风险。算法能够对公共利益和私人利益产生实质的控制力,这意味着其失去了工具意义上的技术中立性而具有权力属性。随着生成式AI的创新应用,算法已经从过往的计算优势转向如今的思维优势,逐渐成为重要的权力要素。算法作为权力的增强剂,公权主体通过利用算法来拓宽权力边界,并提升权力执行的有效性。更甚之,算法具有一定的自主能力,一旦直接对利益分配施加关键影响,其自身则成为一种新型权力。无论是权力强化论抑或权力本体论,算法均能够基于机器优势、架构优势和嵌入优势直接介入和改变行政权力。进而言之,一方面,算法权力的资本性导致其实质是制度化和非制度化的权力。资本性是指算法因资本的介入而具有了逐利本性,一旦应用于公共行政中,资本市场通过算法形成新的规则,并脱离传统制度而形成独有的权力。另一方面,算法权力横跨物理空间和虚拟空间,错综复杂的运作模式导致政府治理日益空心化,从而削弱算法行政的合法性基础。

由此可见,算法权力不同于传统的公权力,权力模式的重塑让行政程序出现不敷适用的困境。一则,算法权力背后复杂的利益结构让行政程序的利益衡量陷入失灵境地,未能提供结构相容的规训机制;二则,算法权力不具备“行为-结果”或者“行为-责任”的因果链条,其运行是网格化的,导致行政程序难以对算法权力建立起环环相扣的问责机制;三则,算法通过专有知识和数据资源的垄断而割裂了其与公众的沟通联系,以弥散的权力形式塑造行政主体与相对人之间“困在系统”的封闭程序,行政程序形成的法治屏障难以辐射至算法权力,缺乏监督的算法将会对个人的程序权利带来冲击。

3.人际观的不契合

行政程序的“人际关系”与算法行政的“人机关系”存在失调。在公共领域,政府与公众建立关系的过程,作为主体的人具有“尺度”的意义,即关注行政过程中人的坐标,以衡量程序的合理性和行为的可接受性。因而,人之于行政程序的尺度意义表现为行为过程中的相互主体性。换言之,行政程序实质上是一种人格化的行政主体与相对人之间的人际作用关系,“人格化”和“主体性”据此构成行政程序的人文基调。但是,随着算法行政的不断发展,算法的自主行为存在超越程序规范的可能性,脱离人类控制而成为行政关系的固定结构。进而言之,算法成为行政程序的新坐标,在人与人、人与组织的传统关系之外建立了一种“人机关系”,行政治理由此从“机关-人”的互动变成“机关-人-机器”的共存,面临着算法主体化的问题。

“人际关系”到“人机关系”,算法具有了衡量行政程序的尺度意义,技术依赖甚至是技术崇拜正导致具体的人被算法所客体化,以致出现“交往的物化”。可见,算法在模拟和学习人类行为的过程中,并没有顾及作为主体的人的自由意志和伦理自主性。算法使得行政程序趋于自动化,特定环节或者所有环节均由算法代为处理,无需人工介入。算法的技术理性正逐渐削弱和吞噬行政治理的能动性和情感性,算法行政因此陷入技术至上的误区,进而导致尺度和温度之间的失衡。简而言之,在算法行政中,算法将行政程序简化为数据与逻辑相互印证的计算过程,忽视了基于人际关系的程序论证,人与算法的主客体关系出现颠倒,从而导致那种主体间性的交涉关系正异化成“个体对象化为可以被进一步操演和训练之物”的独断关系。

(二)制度挑战:行政程序在算法行政中的现实困境

在制度层面上,算法赋予行政程序数字化发展的外生动力,优化业务流程,推动行政效能持续优化。然而,面对数字思维的融入,算法的诸多技术特性对“以人为核心”的各类行政程序制度形成挑战。

1.算法封闭性对申请制度的挑战

传统的申请制度是将物理时空“人际交流”的行为形式作为程序的启动要件,例如书面提出申请、口头表达申请等,以提供促成主体间交流顺利进行所需的基本信息。然而,在算法行政中,一键智能化审批是对传统申请制度的全面革新,主体关系由此转变为人机关系。作为个体的相对人提出申请,而算法系统则接替了行政人员的受理行为和审核行为。《关于深入推进审批服务便民化的指导意见》明确指出,积极探索和开展智能审批,实现“即报即批、即批即得”。换言之,对于没有裁量余地的行政行为,程式化的算法能够规避行政主体的偏私判断,实现无人干预的全自动化审批。例如,德国《税收通则》(Abgabenordnung)引入一项新规定,即全自动化的税收程序。由此可见,“即报即批、即批即得”是对行政程序效率价值的智能化彰显,由套路式转变为效率式一定程度上避免了繁琐程序的治理效果滞后。

需要注意的是,这种基于规则的算法系统的“ifthen”程序形式具有封闭性,弱化了申请制度原有的信息交换和信息纠错功能,可能导致后续程序滑入算法构筑的信息闭环“回音室”。例如,在福利资格申请过程中,行政机关默认算法程序优先于法定程序,对于申请规则的技术代码不予指引,不鼓励福利申请者进行前置的信息纠正和信息补全,而是建议其反复地重新提交,从而受困于算法系统的前端输入程序。同时,算法封闭性强化了形式主义和模糊了主体责任,难以区分智能化审批系统中的人类行为和机器行为,一旦出现“人机冲突”情形,行政主体可以将不当或者违法结果归咎于算法,进而隐匿在算法幕后,即所谓的“算法卸责”。

2.算法瞬时性对告知制度的挑战

对于告知制度而言,出现适用坚持和适用缺省的双重局面。一方面,对告知制度的坚持。根据英国《数据保护法》(Data Protection Act)的规定,完全通过算法自动化作出决策的,行政机关有义务告知相对人该决策作出的情况、可能的风险以及其选择权。其中的选择权是指,相对人可以要求行政机关重新考虑该决策或者选择非基于算法的新决策。另一方面,告知适用面临着限缩或者方式转变。算法使得某些行政活动能够实现非现场执行,显现出瞬时性特征,告知条款却难以适应自动化执法的需求,导致受到影响的行政相对人不能及时且充分地获悉相关的规范依据、事实证据和决策过程等内容。典型案例即“杜宝良案”,杜宝良在同一地点被“电子眼”拍下违章105次,却在未获得任何形式告知的情况下被径直处以罚款10500元。与此同时,通常意义上的“事先告知”因算法的瞬时性决策而被推迟至“事后告知”的结果查询,其合法性仍需斟酌。例如,在“白理成诉西安市公安局交通管理支队高速公路大队行政处罚及要求行政赔偿案”中,行政主体认为“电子警察”查询结果本身就是告知方式的一种,但因告知延后和不到位而导致行政相对人难以接受行政处罚结果。

3.算法黑箱性对信息公开制度的挑战

信息公开制度要求政府行政在阳光下运行,让公众可以清楚地了解行政过程的全部概况。然而,算法是一个相当密闭的“黑箱”技术,隐藏着难以为人所知的数据源代码、处理逻辑等,这对信息公开和信息透明形成了挑战。具体来说,在技术层面,机器学习型算法能够相对自主地作出决策,而这一过程是基于深度学习模型,相应的算法逻辑是由相互联系的神经元所组成,并构建输入层、隐藏层、输出层共同运作的多层神经网络,这些因素进一步加剧了算法的黑箱性。例如,在“陈明春、方育鸿诉萧山区住建局案”中,原告因算法备案系统存在缺陷而导致审批失败,但在算法黑箱的掩盖下,被告不能揭示哪一环节的算法逻辑出现问题,也难以解释算法逻辑与备案失败之间的关联性。更进一步,即使实现相关算法信息的完全公开,行政相对人也不具备准确理解这些算法信息的规范含义、运行机理和权重比例等的能力。

在法规层面,算法则可能作为国家秘密、企业或者其他机构的商业秘密而不予公开。特别是,行政主体通常采取政府采购或者研发外包两种方式去部署和应用算法系统,核心算法技术依赖市场机制予以提供,算法供应商能够以保护商业秘密为由拒绝公开算法,享有法律保护下的算法黑箱控制权。例如,在我国首例算法商业秘密保护案中,法院认为,算法的模型选择与权重排序,能为权利人带来商业利益和保持竞争优势,从而应当作为商业秘密予以保护。简而言之,在算法黑箱运行过程中,技术程序的各个阶段均不可知,行政相对人无从知晓各项决策,也就不知道如何对数据库、源代码、决策树等进行有效监督,信息公开制度由此陷入黑箱桎梏。

4.算法替代性对证据制度的挑战

在算法行政中,算法可以在纷繁复杂的数据信息中捕获违法证据、解析违法行为以及评估违法情节,继而触发响应下一阶段的违法决策程序。可见,算法对违法证据进行自动收集、识别和分析是典型的“机器行为替代人工行为”,通过捕获客观全面的证据并依循证据推理、法律适用等代码模型以形成预测结果,这实现了对行政调查行为的相当性替代。其中,“关联性和客观性”取代“因果性和主观性”将极大地避免过往的粗放式处罚,提高了行政治理的精准度。同时,算法的引入,使得人情味的处置方式转变为机械性的参数设计,以消除调查分析中的主观因素。

然而,算法的替代行为引发了证据形式和证据标准的新风险。基于新技术的证据形式并不一定具有合法性,例如在“何某诉上海市公安局黄浦分局交通警察支队交通行政处罚案”中(以下简称“何某案”),声呐电子警察收集和形成的证据超出常人理解能力,导致产生对声呐证据证明力和可靠性的质疑。而且,从证据分析到处罚结果的作出,这一替代过程存在着证据标准问题,证据的确凿标准一旦由人类思维的逻辑判断转交给代码参数的机器判断,则会引发“解释难度高、缺乏理解基础且来自黑箱的算法系统所提供的证据结论能否达到规范意义和认知意义上的确凿标准”困境的产生。

5.算法自主性对说明理由、陈述申辩制度的挑战

在一定程度上,听证制度得以在全自动化算法行政中免除,但面临着说明理由、陈述申辩阙如的困境。“无人干预秒批”“全自动化税务征收”等是全自动化算法行政的具体实践,即根据预先设定的业务“场景树”,让行政相对人自行触发后交由智能政务系统独立进行审核和决策。在这一过程中,诸如说明理由、陈述申辩等程序内容出现了压缩。这是因为,此类全自动化算法行政是基于行政经验实现同类特征的简单捆绑,尚不具有自主性,据此可以免除听证要求,从而将有关揭示事实、说明理由、陈述申辩等的程序装置予以省略。同时,免除听证的合法性源自立法上的授权,德国《联邦行政程序法》(Verwaltungsverfahrensgesetz)、挪威《公共行政法》(Forvaltningsloven)均对全自动化算法行政的适用予以条件限定,即遵循严格的法律保留、不存在裁量余地和不得引发争议等。

机器学习型算法正逐渐逃逸出这一规范边界,其可以基于海量的数据集群以及强大的学习能力自主作出趋势研判和风险预测,并不完全依赖事先设定的人类指令,具有相当程度的自主能力,典型案例即各地推广的公共信用评分系统。倘若免除说明理由、陈述申辩等程序制度,算法一旦预测失误,其自主决策将替代行政机关的个案考量,这将直接损害行政相对人的基本权益。例如,在“何友庆诉珠海市公安局交通警察支队香洲大队行政处罚案”中,行政机关怠于行政而未对算法自主裁量进行详尽的说明和解释,相对人的陈述与申辩无法获得针对性保障,导致个案正义难以得到彰显。因此,“教义学规范要求智能系统必须为行政相对人提供特定信息,只有提供信息才能为政府做出的特定干预措施补足正当性。”这意味着,为实现算法行政的解释说明、意见表达以及个案判断,亟待畅通说明理由、陈述申辩的参与渠道,保障个人获得解释和表达质疑的程序权利,促使行政机关积极地和能动地介入算法行政。


三、算法程序正义的理论供给


算法行政引发的双重挑战表明,有必要探索能够对算法行政形成有效约束和公正指引的程序正义理论。不可否认,算法不能看作是价值无涉的技术程序;相反,权力算法化、规则代码化和个体数字化正逐渐撼动程序正义的价值理念。有鉴于此,程序正义需要进行更新与重塑,为构建算法行政的程序法治提供理论指引。

(一)算法程序正义的理念发展

其一,在立法层面,法规政策适时制定或者修订以应对算法行政带来的程序挑战,从而推动算法程序正义的理念发展。西班牙行政程序法较早地对行政程序数字化作出规定,该法第45条规定,行政机关可以在宪法或者法律限定范围内推动信息技术在行政活动中的应用。日本亦颁布了“行政程序在线化三法”,即《有关电子签名的地方公共团体认证业务法》(電子署名等に係る地方公共団体情報システム機構の認証業務に関する法律)、《有关行政程序中利用信息通信技术的相关法》(行政手続等における情報通信の技術の利用に関する法律)和《有关行政程序中利用信息通信技术的整备法》(情報通信技術を活用した行政の推進等に関する法律)。迈向算法行政,日本对行政程序在线三部法进行与时俱进的更新,制定了《数字程序法》(デジタル手続法),提出“原则上将所有行政程序数字化”的立法宗旨,并设定三项基本原则:一是数字优先原则,即在行政程序能够数字化的情况下应当进行数字化处理;二是仅有一次原则,即提交的信息不必再重复提交,交由行政部门进行协调;三是一站式关联原则,即允许单个行政程序同时完成多个程序,确保行政相对人能够在一个场所内完成所有相关的行政程序。德国则于2013年制定《电子政务法》(Gesetz zur Förderung der elektronischen Verwaltung),第3条是有关“行政机关使用数字技术进行电子化公共事务处理”的行政程序条款。因此,从规范要义来看,算法对于程序效率的提升有着显著作用,此时强调一种简化、灵活、敏捷的程序正义。

随着算法行政的深化发展,算法不仅仅体现出高效执行的工具导向,而更多地以一种自主性的机器意识嵌入至行政运行中的实质决定程序,具有一定的“准行政权”。于是,挪威于2019年修订了《公共行政法》,立法委员会对公共行政趋于算法化进行正式说明:基于算法的行政活动,确实能够确保相关程序规则在得以精简的同时获得更好的客观遵守。然而,这并不代表算法带来程序效率的提升便具有合法性,算法应当遵守程序正义的基本原则,譬如公平原则、平等原则、公开透明原则、个人自主原则等。德国《联邦行政程序法》第24条与《社会法典(第十卷)》(Zehntes Buch Sozialgesetzbuch)第31a条亦对算法决策作出了明确的程序正义要求,即经由算法决策而无法确定个别情况的,行政机关有义务尊重和保障行政相对人陈述和异议的程序权利。综合而言,从立法发展趋势来看,算法程序正义转变为一个综合性判断,不仅关注技术对行政程序高效运作带来的诸多便利,而且也关注个人能否在技术程序中充分获得参与和表达的机会,即确保算法对程序正义要素的整全,推动算法行政迈向程序正义。

其二,在司法层面,法院对算法所引发的程序争议进行审查,以推动算法行政遵循程序“善法”规则,亦构成算法程序正义理念发展的另一方面。近年来,随着算法行政的兴起,有关算法的程序争议日益频发。例如,在2019年,意大利政府通过算法程序大规模地执行教师调动,引发了法律争议。对此,罗马行政法院根据“技术-法律”的相互关系来论证算法的程序正义性。罗马行政法院认为,基于算法所作出的调动决策并不必然是合法的,因为难以判断算法是否遵循公正、有效和透明等程序正义原则。司法实践对算法行政的程序法治建设事实上也起到了推动作用。嗣后,意大利国务委员会颁布了2270/2019号和8472/2019号法令,旨在对算法行政设定必要的程序正义要求,譬如可知性要求、非排他性要求以及非歧视性要求等。

从这一角度观之,算法通过机器学习重建规则并自主输出的过程,是具有不可知性和不可控性的,应当对透明度、有效性、比例性、合理性以及非歧视性等程序正义要素予以遵循和嵌入。因此,在司法层面,算法的程序正义源自对多项程序正义原则的共同遵循,技术程序才能具有与法律程序相统一的正义结构。具体而言,有如下四点要求:一是当一项行政决策基于算法而作出时,算法和代码被视为政府信息,需要按照信息公开程序来设定合理的披露制度,且法院能够对公共性的算法和代码进行司法审查。二是原则上不允许以知识产权和商业秘密等为由来规避算法和代码的公开,凡是与行政活动密切相关的算法决策,均应当以透明度为基准。三是关于算法公开的相关决定,设计公司应当参与其中,并辅助“法律、伦理、技术协同”算法解释的作出。四是行政机关应当尽可能使用开源软件来设计算法系统。

(二)算法程序正义的理论内核

从立法和司法的视角对算法程序正义的理念发展进行剖析,表明算法程序正义并非“无源之水”的假想,而是因应算法行政而逐渐发展出的一种新程序正义理论。那么,还需要对算法程序正义进行法理阐释,以廓清其治理意蕴和双维面向。

1.算法程序正义的治理意蕴

第三代行政程序是以“信息交换和沟通”为基础的程序样态,这意味着行政程序必须将“信息”作为行政机关与私人行动者的知识源泉,即通过行政程序提供灵活、多样和软性的信息沟通方式,并借助程序公开制度形成行政机关与私人行动者之间持续性和流动性的信息交换。换言之,行政程序关注政府与个人行动过程中的信息活动,通过一系列程序制度的合理设计,个人才能体会到作为程序主体的尊严感。然而,算法却以商业秘密的形式获得了“黑箱运作”的合法性,规范层面上的保护规定导致其一度逃逸出行政程序的规制框架。例如,在美国卢米斯案中,法院以商业秘密保护为由拒绝了当事人提出的算法公开诉求,相关算法的争议问题不能转译成为行政程序上的法律冲突,作为商业秘密的算法证成了算法黑箱的合法性。但是,将算法视作商业秘密保护的私权客体,严重忽略了算法行政通过程序私人化的形式实质获得公权力的必然性。可以说,将算法落入商业秘密保护范围而忽视算法在公共领域中事实上的规范力量形成,这只不过是进一步促使个人成为算法预测、计算和控制的对象。

算法行政离不开“治理中的公私合作”,这意味着算法商业秘密的法律效果并不仅仅涉及商事竞争和市场秩序。相反,更为重要的是,算法深度介入公共行政的核心领域后,大规模地涉及公民的数据利益和隐私权利,涉及平等权、言论和表达自由权乃至信息获取自由权等基本权利。进而言之,在公私合作视角下,算法不再是商业秘密保护下的“合法黑箱”,应当受到程序正义的制约。尤其是涉及公共信息化基础性设施之时,透明度和问责性的民主价值应当予以优先考虑。与此同时,算法是对个人作出获得利益或者不利判断的一种技术程序,难以维持技术中立性,且能够产生行政法上的约束力、执行力和控制力。具体来说,约束力表现为个人须遵循代码规则要求来展开行为活动。执行力则意味着算法决策具有行政执行上的规范性权力,能够直接对当事人的财产、自由、福利等权利进行公法上的处置。控制力则更为频繁出现,算法将相关智能设备且与之相关的个人纳入技术程序的范畴之内,通过处理端的运算对各类主体施加广泛的影响和控制。简而言之,在公权力层面,算法至少可以看作是“准公共权力”的建构力量,必须接受程序正义的控制。

有鉴于此,立足算法“公私合作”和“准公共权力”的基本判断,算法是一个与正当程序相关的事情,得以脱离商业秘密和技术中立的范畴,进而重归程序正义的规制领域。在算法行政背景下,“经由算法的程序正义”是协调人机关系的算法程序正义观。算法具有公共性且与公共利益衡量密切相关,在公共领域产生的行为关系应当遵循程序正义“内在善”的价值要求。同时,算法权力需要与程序正义建立起联系,形成道德上和规范上的关联,即算法权力行使的正当性源自对程序正义要求的满足。进而言之,算法程序正义包括三种治理意蕴。其一,工具性治理。该治理意蕴要求算法设计者和使用者通过审查程序的标准化设置以发现、记录和消除数据瑕疵、价值失范、代码错误以及算法偏见等问题。其二,正当性治理。该治理意蕴要求建立一个纠问式程序控制机制,以便于行政机关、技术专家和利益相关者通过广泛的参与和评论来实现对算法行政合法性和合理性的论证。其三,尊严性治理。该治理意蕴要求在算法行政中构建新型程序权利体系,让个人拥有维护主体尊严的行权可能性。

2.算法程序正义的双重面向

在算法行政中,面对算法对程序规则的技术化改造,客观程序正义(客观公正和效率导向)以及主观程序正义(主观公正和权利保障)不能顾此失彼,这意味着算法程序正义应当实现双重正义的整全和融贯。换言之,算法程序正义不仅需要对算法的形式正义提供有效指引,还需要关注算法“过程-结果”之间实质正义的主观评价。

其一,在客观面向,算法程序正义对形式正义的追寻。根据客观程序正义的要求,行政程序是政府部门演绎推理法律规则的技术步骤,即通过对形式法的严格遵循以获得行为结果的理性计算,是一种形式正义。这种形式化和机械化的规则体系被称之为“技术代码”(technical code),即用技术上客观的方式解决公共行政中的一般类型问题,并为“技术活动的整个领域提供一个范式或样本”。客观程序正义亦强调通过排除恣意因素来实现程序正义,这一定程度上使得算法与客观公正产生实质性联系,确保算法的社会功能和治理功能具有形式正义。由此可见,算法遵循程序效率原则,借由计算机科学的思维方式来设计行政活动的有序排列和建立理性分析的计算框架,达成行政治理的客观、科学和高效目标,即客观意义上的算法程序正义。程序正义的形式标准被融入至算法行政之中,程序的规则逻辑和信息的流动规律被编译成算法决策的数理逻辑和代码结构,将行政行为、法律关系、权责义务等转化为可计算的代码程式。政府行政必须遵循算法所设定的代码规则,这些代码便具有自我实现的属性,即“规则创制、执行和优化”得以在算法中实现“三位一体”的建构,保障结果的客观正确性,并符合形式正义的要求。简而言之,算法对规模化、标准化和形式化的行政程序执行具有便捷、高效和精准的益处,“数据多跑路”和“算法自运行”让现场实践的程序模式得以转变成理性计算的技术程序,强化了算法程序正义的客观性和普遍性。

其二,在主观面向,算法程序正义对实质正义的追寻。在算法行政中,算法相对独立地就如何展开行政治理而自动运行和自主决策,却忽视了行动者与相关人的利益或者观点。对此,一种技术民主化的“设计代码”(design code)得以提出,即探寻实现技术民主化的可行方案,以塑造算法行政的合理性和正当性。同时,主观程序正义将程序参与者的主观公正性评价纳入算法风险程序规制的范畴,旨在构建一种更为公正和更具合理性的算法程序正义。那么,公众对算法行政的有意义参与和监督,推动人机共治的有序互动和夯实人本主义的公共价值,实现程序“向善”与技术“求真”之间的融贯,最终形成彰显实质正义的算法程序正义。具体有如下三个方面:一是形成“技术争论”。通过拓宽数字公共领域,激起公众对算法行政的技术问题和规范问题的广泛关注,并积极参与讨论、表达异议和提出主张等,从而促使算法设计者和使用者顺应民意要求进行适当调整。实践中,苏州推行“文明码”引发了诸多争议,公众积极对文明码的量化标签、惩戒作用等问题展开讨论,苏州市政府对技术争议予以主动回应,并积极地进行代码修改。二是促进“创新对话以及参与设计”。在算法行政中,行政机关主动与相关利益者开展沟通和对话,促进他们实质介入算法的设计和优化阶段,使得算法容纳更为广泛的多元利益,继而回归人本主义。例如,国家政务服务平台的适老化改造实质是让政府、科技企业、老年人等共同参与到算法系统的设计和优化中来,让老年人的利益诉求得以充分体现,不再被算法系统拒之门外。三是推动“创造性再利用”。行政机关应当对数据类型、参数权重、决策逻辑等进行公开,并提供公众意见反馈渠道,以持续优化算法的系统功能和民主功能,促进算法信任。例如,多地政府通过数据开放和共享的形式提供数据接口和API接口,旨在提升公众的数据应用能力和保障公众参与算法行政的程序权利。


四、算法程序正义指引下算法行政的法治构造


算法行政是算法技术与公共行政相融合的结晶,是推进国家治理体系和治理能力现代化的新力量。然而,传统行政程序没有预见技术程序的法治挑战,导致其难以为算法行政提供充足的合法性基础。因此,为消弭算法行政的程序风险,在算法程序正义的指引下,明确其程序法定与程序正当的两方面功能;随后,从“权力性”和“权利性”程序视角出发来构建具体的法治路径,以增强和实现算法程序正义的双维面向。

(一)明确算法程序正义的功能定位,以奠定程序法治的制度基调

算法行政产生的公共性风险不再是行为主义的结果控制,而是转向程序主义的过程控制。那么,在算法程序正义框架内,程序法定与程序正当共同构成其对算法行政的功能作用,并为构建法治路径奠定基础。

1.程序法定功能

随着算法行政的发展,行政程序逐渐迈向机器决定的算法程序,但算法并不遵循线性且可识别的程序规则,而是构建了扑朔迷离的异步性时空场景。因此,算法程序正义强调通过程序法定来建立安稳、可靠和可预测的算法秩序,推动技术程序与法律程序之间的内在协调,以避免程序失序对稳定、信赖和合作的程序法治形成阻力。

其一,程序法定对非规范性算法程序予以统一的功能。在行政程序趋于非现场化、自动化和自主化的倾向下,效率导向的算法具有诸多法治问题,尤其是人际关系的异化而导致协商合作的失效,取而代之的是程式运算下的被迫认同。因此,程序法定的统一化功能旨在对算法的程序问题予以制度性化解,消除算法行政的失范性、侵益性和扩张性,从而协调技术程序与法律程序之间的冲突张力。例如,西班牙《公共部门法律制度》(Ley de Régimen Jurídico del Sector Público)在“前言”中指出,算法可以强化行政机关间的合作治理,并应当提供互操作功能,以便于行政相对人观测算法运行情况;同时,该法第5章对算法的透明性、问责性、安全性、可访问性和可靠性等程序要求进行了全面规定,这实现了技术程序与法律程序之间的有机融合。

其二,程序法定对算法决策可接受性予以保障的功能。程序法定,意味着相关程序制度得以体系化塑造,形成基本原则与基本制度有效联结的专门性程序集合。通过建立具体化和专门化的程序规则,提高行政主体对算法的负责任程度和提供公众有序参与算法行政的机会,最终形成的算法决策才能具有可接受性。实践中,德国《联邦行政程序法》第3a条、第24条和第28条,分别对基于数据传输的电子交流、基于算法程序的行政调查和算法行政的听证要求予以专门规定,这促使普遍同质性且场景分化的程序制度得以有序汇合,并使得“专门的技术程序”能够成为算法行政的规范基础,以确保算法应用过程和结果的可接受性。

其三,程序法定对人机关系予以规范调整的功能。随着算法的优化和算力的提升,智能机器因此具有沟通和判断的能力,这表明“自动化执法不再是一种越轨而是一种可选择”。在行政程序法中,对个人进行评估以决定是否给予福利资格或者作出承担不利负担的决定之时,必须遵循人际关系的程序要求,例如决策结果的正义性考量、行为程序的合法性认定、权利保护的充分性判断等。然而,算法行政的典型关系是人机关系,人类决策权交由算法行使亦表明算法成为行动上的“代理人”,如果缺失对人机关系类似的程序要求,将会导致“智能行为既不遵循行为与效果之间的直接对应,也不遵循行为与主体之间的必然联系”。对此,程序法定尝试在规范层面对算法行政的人机关系予以调整。例如,瑞典《行政程序法》(Swedish Administrative Procedure Act)第28条规定,行政决策既可以由行政机关作出也可以由算法作出,但无论何种决策模式,均需要满足该法的及时告知、听证参与、说明理由、信息公开等规定,这是将人际关系的程序要求迁移至人机关系之中,确保这些程序要求成为人机关系的基本要素,并内在地反映这一新型行政关系。

2.程序正当功能

在算法行政中,机器学习型算法能够借助不断更新的数据来动态调整代码模型,而这一过程基本上处于黑箱状态。程序法定难以对黑箱中的程序形式予以详尽规定。在程序规定不足的情形下,为避免个体自主性被压制,算法程序正义通过程序正当来评判算法是否体现公平正义,以弥补程序法定功能的遗漏。

其一,程序正当的抗压功能。抗压功能是指算法程序正义应对技术风险时所表现出的忍耐力,即在可忍受的程度内对技术风险予以化解,是一种被动的反应。例如,在程序法无规定时,程序正当提供了“最低限度公正”的程序要求,这意味着由规范缺失和行为失范构成的外部干扰,在特定情形中能被程序正当吸收并消除。例如,在“田志鹏诉陕西省西安市公安局站前分局行政处罚纠纷”案中,法院认为,原告在自助缴纳系统打印处罚决定报告并缴纳费用这一过程并没有违反程序要求。原因在于,在程序正当的视角下,当事人的程序权利与其说是缩减,不如看作是形式的转移,即告知的程序要求转变为是否接受“自主打印”。从这一角度来看,面对算法行政的技术风险,程序正当的最低限度公正要求若能在可控范围内解释和化解技术风险,此时的程序正当发挥着抗压功能的韧性。

其二,程序正当的适应功能。适应功能是指算法程序正义的基本规则对算法行政的新理念和新要求进行灵活适配,是一种积极的反馈。例如,我国《关于深入推进跨部门综合监管的指导意见》指出,根据算法应用场景进行相应的风险评估,即形成以评估程序为基础的治理机制。程序正当因应行政模式的转变而不断丰富其自身的内容,使其更加符合算法行政的过程性控制需求。那么,算法评估实质是将程序正当的“任何人不能做自己的法官”转变为“政府、第三方机构与公众协同进行评估”,成为实现算法程序正义的一部分。同时,将“当事人申辩表达”适当转变为“算法主体对安全性、可解释性、精准性等的全面说明”,关于算法本身以及权益影响的“充分说明”很大程度上降低了相对人对算法行政的不满或者异议,算法信任氛围则由行政机关负责任的说明行为来提供正当基础。

其三,程序正当的复原功能。复原功能是指基本规则适应性发展后“人本正义”公共价值的回归,是一种理念的重申。例如,美国《人工智能风险管理框架》(Artificial Intelligence Risk Management Framework)指出,公共部门应当负责任地研发和使用算法系统,强调以人为本的核心理念,坚持人类控制和人类归责的程序正义原则。其中,人类控制是指算法系统出现不可预料的行为、遭到黑客攻击、意外干预或者任何可能影响运行的情况,相关利益主体可以适时纠正、停止甚至禁用系统。同时,算法系统预留“选择窗口”,以保障个人能够享有人工决定权。人类归责则是指任何算法系统都不得免除人类的责任,即通过拟制主体地位赋予算法行动能力,但行为产生的法律责任应当归属于行政主体。对于行政主体而言,这是典型的主观无过错归责和客观技术瑕疵归责。可见,程序正当的复原功能推动了“人本主义”控制和问责原则的回归与实现。

(二)构建“权力性”程序维度的监督机制,以增强算法行政的客观程序正义

公允地说,因算法行政的兴起而导致算法失控风险与日俱增,行政主体需要承担“监管算法”的程序职责,享有程序性权力。那么,立足“权力性”程序维度,并从中立性、自制性和公正性出发,通过构建新的监督机制来应对算法行政带来的程序风险,更好地推动算法程序效率价值的实现,继而增强算法行政的客观程序正义。

1.以合理算法标准来规范算法设计研发,提高算法行政的中立性

在技术规制层面,技术标准是由质量性标准和功能性标准所组成,前者是指关于数据信息、代码架构和决策逻辑等的质量标准,具有静态性;后者则是观测算法运行以及生成结果的功能标准,具有动态性。那么,行政主体应当设定引导公共性算法设计与研发的技术标准,从源头上遏制算法的数据瑕疵、代码瑕疵、逻辑瑕疵和功能瑕疵等。但技术标准更多是从客观法出发来建立算法符合形式要求的判断基准,缺乏对算法的公平性、多样性、透明性等进行主观法层面的程度判断。进而言之,在行政裁量方面,算法愈发主体化,意味着需要放弃将其视为“工具”的观点,并转向为人类保留的法律概念。技术向善的“合理算法”标准框架突破了技术标准的单一性,旨在将公共行政中关于执法人员的合理性概念与算法的合理性判断进行关联,以一种人类视角下兼具技术和伦理方面的合理算法标准来规范算法设计与研发,指导开展算法的中立性测试,避免算法主体化形成的寒蝉效应。例如,欧盟《人工智能法案》(Artificial Intelligence Act)的第3章第2节,着重强调人工智能系统的“风险管理、数据集的治理和质量、记录保存、人类监督、精度参数、稳健性参数、网络安全参数、质量管理以及透明度”十方面的标准,既包括技术层面的标准要求,也涵盖伦理层面的道德要求。《关于加强数字政府建设的指导意见》亦强调,推动构建多维标准规范体系,以标准化促进数字政府建设规范化。与此同时,合理算法标准的制定过程应当体现主体间性要求,即允许利益相关的多方主体参与讨论,吸纳合理算法标准和反映多元意见。例如,《江西省数据应用条例》第47条指出,行政机关应当围绕数字基础设施、数字技术、数据服务等领域开展算法标准制定,并鼓励相关主体参与到标准的制定过程中来。简而言之,合理算法标准是对算法技术上和伦理上的全方位规制,消除单一标准的片面性和表面性;其制定过程亦具有民主性和包容性,凝聚公民的意见表达,这才能为算法设计与研发提供具有规范性和公共性的标准框架,有效控制算法设计者的编译行为,避免设计者价值偏好与偏见主导算法,从而提升算法行政的中立性,并降低算法的主体性风险。

2.以算法审查机制来强化算法内部规制,提高算法行政的自制性

基于行政自制的算法审查,是指行政机关针对算法不当或者违法行为而进行的自我规制,即一种“自我发现、自我遏制、自我纠错”的内部规制程序。换言之,行政机关应当基于合理算法标准对算法进行充分且必要的法制和技术审查,定期向社会公布算法合法性分析报告和技术审查结果,这一点在我国《行政处罚法》第41条中得以初步确立。行政机关负有审查算法是否符合标准的义务,这意味着公共领域内的算法应当满足规范层面的标准要求,否则其固定的事实证据、作出的决策结果难以保证真实、清晰、完整以及准确。那么,依据功能主义的主张,算法审查涵盖功能性的技术审查和价值性的权益审查。就前者而言,技术审查包括算法的基础信息、使用范围、遵循标准的情况、可预见的性能风险以及降低功能负面影响的方案等内容,从而提供功能性的安全保护措施。例如,根据英国《水之手册》(Aqua Book)的规定,行政机关应当对算法进行质量分析,并提供防范风险、冗灾备份、记录留存等不同功能性安全技术措施。《石家庄市数字经济促进条例》第46条亦强调建立全过程的安全审查、算法审查、监测预警等制度,以形成公平有序、安全可控、全程可追溯的数字技术环境。就后者而言,权益审查则是根据应用场景予以差异化梯度设置,对涉及人身、财产、自由、生命健康、福利分配等基本权益的算法系统进行严格的法律性审查。换言之,在部署前和应用中,行政机关需要运用比例原则定期审查算法的预期目标、功能架构、使用程度、数据处理等各个环节产生基本权益不利影响的价值风险。例如,根据美国《算法问责法案(2022)》(Algorithmic Accountability Act of 2022)的规定,算法使用者需要对算法系统涉及的正当程序权利进行持续性跟踪审查,包括算法知情权、算法解释权、反自动化决策权、算法风险救济权等,并识别算法负面权益影响和制定相应的应急预案。

以上是算法审查的内容要求,而涉及的程序方式则需要进一步明确。具体来说,在“何某案”中,法院形成的技术审查思路可以为明确算法审查的程序方式提供参考。一是“形成过程”审查,行政机关应当对算法系统进行投入使用前的充分论证和检测,以确保算法系统是可信和可靠的,即“自我发现”。二是“明显性”审查,行政机关应当就应用中的算法系统是否存在明显违反逻辑性、科学性以及公正性等情况进行必要的解释与说明,并采取有效措施以消除问题,即“自我遏制”。三是“实际效果”审查,行政机关需要对算法系统投入使用后所产生的异议情况进行统计分析,判断导致产生科学性上和公正性上的合理怀疑的概率和类型,以动态制定算法应用的负面清单,即“自我纠错”。

3.以算法风险评估来形成协同共治局面,提高算法行政的公正性

算法风险评估旨在提供信息共享与沟通交互的商谈公共领域,形成贯通行政内部与外部、联合专业机构与公众之间的良性对话关系,构筑起政府和社会评估和防控算法风险的内生性合力。例如,美国纽约大学“当代人工智能研究院”提议,对应用于公共行政的机器学习算法模型,应当制定一个全面的算法风险评估计划,一是让外部研究人员和审计人员有目的地和持续地访问算法系统;二是让公众与受其影响的社区参与到这一过程中。以上参与型访问设计旨在保障公众、专业机构和专业人士能够了解算法和评估算法。不难发现,通过建立“风险-权益”全方位评估的参与型程序,向社会公布与公共利益和个人利益相关的算法信息,并在评估的不同阶段畅通公众、专业机构和专业人士参与评论的渠道,保障各方主体评估算法的公平正义、法治风险以及不利影响的程序权利。同时,需要基于风险的影响程度来动态地设置参与程序。例如,根据加拿大《自动化决策指令》(Directive on Automated Decision-making)的规定,基于算法决策对个人或者公众权利、健康、福祉、经济利益以及对生态系统的影响程度,建立“微小”“中等”“严重”“不可控”四级风险评估机制,并依据风险等级灵活地采取相匹配的“告知-评论”程序。

综合而言,在算法行政中,算法风险评估是一种以多主体参与、沟通与反馈为内核的开放性、灵活性和动态性的监督程序机制,让利益相关者成为评估和控制算法风险的“监督者”而非扮演信任和服从算法决策的“复述者”,进一步强化和巩固算法程序正义的实质内涵,以提高算法行政的公正性。同时,根据我国《信息安全技术机器学习算法安全评估规范》的相关规定,需要基于不同类型和不同风险等级的算法应用来确立场景化和差异化的评估标准,评估内容则应当涵盖算法的保密性、完整性、安全性、可用性、可控性、隐私性等方面,以及算法伦理的失控性、公共性、侵权性、歧视性、责任性等风险。评估结果需要以报告的形式予以披露,澄清和解答公众关注的问题,并有针对性地采取风险防范措施。

(三)扩充“权利性”程序维度的权利内容,以实现算法行政的主观程序正义

立足“权利性”程序维度,行政相对人享有的一系列程序性权利,能够保障其对算法行政的程序参与,以避免个人迷失在技术程序之中。因此,坚持人“在场控制”和“主体地位”的基本逻辑,程序性权利需要进行适应性发展,并与知情、信任、理解、参与和控制等主观要素进行融合,从而实现算法行政的主观程序正义。

1.以逆向追踪来优化及时告知,确保个人对算法行政的知情

获得及时告知是行政相对人了解算法决策的前提,以便于其基于理性判断选择采取何种行动。其中,需要特别关注对算法不利决策的告知。这一点可借鉴美国信贷领域中《信贷机会均等法》(Equal Credit Opportunity Act)和《公平信用报告法》(Fair Credit Reporting Act)的“不利行动告知条款”,即贷方应当就不利的算法评分向金融消费者进行解释,并告知消费者有权就算法评分中的不准确或者不完全信息提出质疑。在此基础上,B条例进一步规定,不利通知应当是具体的,并且需要详细说明采取不利行动的主要原因。实践中,算法对物理的告知形式进行代码化的改写,德国《联邦行政程序法》第41条第2款对此进行规定,行政相对人或者其代理人在终端设备上点击获悉的行为,等同于行政机关的告知。当然,“点击获悉”的行为需要在算法系统中留痕以实现逆向追踪,避免出现“告而不知”。例如,我国《关于全面推行行政执法公示制度执法全过程记录制度重大执法决定法制审核制度的指导意见》指出,通过构建过程痕迹化、责任明晰化、监督严密化、分析可量化的行政执法系统,实现行政过程的可回溯管理。欧盟《人工智能法案》亦强调,算法系统应当具备适当的可追溯性。通过逆向追踪的方式来及时告知用户算法系统的能力、限制以及对其权利的可能影响,让其意识到他们与算法系统的交流或者互动。由此可见,为保证个人基于告知而对算法行政的知情不被弱化,算法系统应当内嵌逆向追踪功能,一旦检测到“告知未完成”的过程痕迹,及时督促行政机关重发告知或者选择其他方式履行告知。

2.以算法透明来塑造信息公开,提升个人对算法行政的信任

对算法信息进行有意义的公开,旨在让行政相对人知晓个人数据如何被算法系统自动化处理,并指导其改进自己的行为和改变不利结果,以避免算法黑箱带来的不平等对待。例如,我国《生成式人工智能服务管理暂行办法》第4条指出,提供和使用主体应当基于服务类型特点,采取有效措施来提升人工智能服务的透明度。法国《公众与行政关系法》(Code des relations entre le public et l'administration)明确规定,算法信息是一种行政文件,公民可以要求予以公开。那么,这种算法透明应当具有“合理的透明度”,即通过合理的透明要求可以为行政主体清晰划定公开和说明的职责,便于行政相对人获得公正的解释,从而提高算法行政的可接受性和可信性。基于此,“合理的透明度”具有四个方面的要求:一是数据透明,指行政机关应当对数据集群的来源、数据预处理的方式以及验证数据无偏见的情况等信息进行适当公开;二是逻辑透明,指行政机关应当根据敏感度、公开性和安全性等进行分级分类划分,对算法的行为规则、决策规则、技术规程、业务流程以及风险影响等信息进行标准化、类型化和动态化管理,避免因公开不当引发算法歧视、隐私泄露、黑客入侵等问题;三是目标透明,指公共行政目标(包括法律法规、行政任务、利益判断等)经代码化后的算法模型应当保持优先级的透明;四是影响透明,指行政相对人能够对与个人利益有实质影响的数据质量、算法模型、代码逻辑等进行有针对性的了解。

3.以算法解释来完善说明理由,提高个人对算法行政的理解

行政治理的本质是行政主体与相对人理性交往的过程,面对算法的强势介入,全面、完整且细致的算法解释才能避免算法行政中信息割裂导致的沟通失效,避免算法主导下公共理性的消失。例如,欧盟《通用数据保护条例》(General Data Protection Regulation)第12条明确规定,算法使用者应当以一种简洁、透明、易懂和容易获取的形式,并使用清晰和朴实的语言进行算法解释。美国《关于对自动化系统中的歧视和偏见进行执法行动的联合声明》(Joint Statement on Enforcement Efforts Against Discrimination and Bias in Automated Systems)亦指出,行政机关应当以可理解的方式来解释如何运用算法作出对个人权利和机会产生影响的关键决策。因此,关乎“说明理由”的算法解释应当是打破算法黑箱的穿透式监督,行政机关需要通过“用户-场景-用途”关系来形成个案化的解释,避免无意义的浅层次解释,并以行政相对人理解能力为导向,综合运用基于系统功能的解释方法和基于决策结果的解释方法,释明算法黑箱背后的决策规则和因果关系,达到算法可解释性和可理解性的要求。例如,在“陆雅芳诉上海市公安局交通警察总队强制报废机动车案”中,原告认为,面对算法系统作出的报废决策,行政机关有义务立足个案情形对算法系统的因素权重、证据材料等进行全面考虑,并围绕决策结果展开效力分析,从而对报废决策的原因和机理进行个案解释。

进而言之,算法解释需要划分为事实层面的解释和价值层面的解释。在事实层面,算法基于机器学习优势,对事实识别和证据固定更具精准性和高效性,行政机关应当根据证据法中的证明责任、证明标准、证据能力等来确定算法解释的内容,并按照优势证据标准进行真实性解释,涉及数据集群、算法功能、参数设置等方面。在价值层面,法律适用和决策作出不能完全信任算法,行政机关需要依循个案判断和共情对待的理性标准对算法决策进行可信性、可靠性和可问责性解释,涉及规范预期、权益影响、公平正义等方面。

4.以事前和事后异议程序来保障陈述申辩,促进个人对算法行政的参与

通过建立相匹配的异议程序,行政相对人能够质疑有关个人权益的数据集群、代码逻辑等重要信息,并有效地行使陈述权与申辩权,意在推动个人实质性参与算法行政。换言之,行政相对人发现算法系统存在数据污染、代码错误、决策不当等情形,可以向行政机关提出异议,并请求及时校核和更正;同时,行政机关应当落实主体责任,建立基于主体尊重的“沟通-交流”型数据质量核查和算法问题异议程序,积极反馈处理结果,这一点已在《江西省数据应用条例》第19条中得以初步明确。需要指出的是,“陈述申辩”固然重要,但从实践情况来看,其重心出现前置和后移倾向。一方面,前置设计部署、应用算法系统前的异议程序,通过为利益相关者举行事前听证会或者座谈会等,展开主体间的有效沟通以及意见交换,从而降低事中异议程序克减所带来参与不足和申辩失败的法治风险。另一方面,事后异议程序是指行政相对人可以利用互联网站、移动互联网应用程序或者前往违法行为处理窗口向行政机关表达意见和提出异议,技术开发者、第三方专业机构等应当协助行政机关对存在异议的数据集群、代码规则、证据标准和决策逻辑等进行复核,行政机关需要及时就训练数据是否确保纯净、决策模型是否排除歧视、参数权重是否设计公正等问题出具异议处理意见书,以确保异议处理在合法性、合理性和科学性之间获得有意义的融合。

5.以数字权利束来拓宽程序保障范围,强化个人对算法行政的控制

在算法行政中,对上述四方面程序性权利的保护不得因行政自利或者技术便利而任意降低标准。一方面,“通过对基本权利的明示或默示保留,保证公民个人自由财产不可侵犯及其他权利不受侵犯,除非有法律对此作出规定或基于法定理由才可以对上述权利进行干涉”,对这些至关重要的程序性权利的限制必须遵循“侵害保留”。另一方面,“唯有取得处分相对人的明示同意,才足以确保‘以电子方式作成行政处分’不违反处分相对人的意愿”,这意味着某些程序性权利的适用转变需要充分尊重个人的选择而非技术至上。与此同时,“权利性”程序应当以主观程序正义为依归,建立开放性、反思性和综合性的程序权利谱系,以容纳新型的法律关系、公共价值和利益结构。例如,欧盟《欧洲数字权利和原则宣言》(European Declaration on Digital Rights and Principles)指出,应当加强建设数字化转型的民主框架,使得个人权利在线上和线下都得到同等尊重,并不断发展个人在数字环境中的基本权利。进而言之,在算法行政中,有必要对程序权利体系进行适当扩充,即通过对算法行政各环节引入不同程度、强度的主体参与和程序控制,构建“人在圈内”的决策程序,并形成逻辑自洽且相互协同的数字权利束,以强化个人对算法的掌控,防范算法不当应用所带来的侵益风险。

具体来说,一是“算法正当程序权”,包括算法公开权、算法解释权、算法异议权等。在权能效果上,此类权利与传统的知情权、听取理由权、陈述申辩权等具有功能的一致性,应当通过丰富行权内容和方式来推动个人对算法行政的有效参与。二是“人工替代权”,包括人工介入权、人工接管权、反自动化决策权等。这意味着,需要建立和完善人工干预和自主选择机制,遵循主体控制、算法有限介入以及行政问责等程序要求,继而维系与人工行政相当的程序权利保障水平。三是“监督与救济权”,包括监督纠错权、赔偿请求权等。其中,监督与救济的实现依赖责任的认定。因此,通过建立点对点的分布式责任模式,以“权力-能力”作为衡量尺度来区分责任份额;若难以厘清责任份额,则需要根据不同主体在算法行政中所处的结构性位置来配置相应的责任份额。四是“算法防御权”。个人通过利用公共性的“算法池”而获得对抗与制衡算法侵害的防御能力,保障其相对于算法行政的主体地位。


五、结语


迈向数字政府时代,算法行政注重效率价值,继而赋能行政程序精简、敏捷和高效发展。但算法行政的技术程序与行政程序的规范特性并不完全兼容,随之带来时空观、权力观和人际观方面的理论挑战。由于算法具有封闭性、瞬时性、黑箱性、替代性和自主性,亦会对申请、告知、信息公开、证据、说明理由以及陈述申辩等程序制度形成现实挑战。因此,对算法行政的程序法治进行回应构造,是推进数字法治政府建设的必然要求。程序正义作为行政法的基本价值,算法行政需要对此予以遵循。然而,算法行政构筑了虚实同构的程序场景,逾越传统程序正义的理论疆域,需要确立一种新型的算法程序正义,以嵌入和成为算法行政的法治内涵。进而言之,算法程序正义兼具客观与主观两个面向,应当发挥其对算法行政的程序法定和程序正当功能,前者旨在建立稳定的程序法秩序;后者则关注人本主义的正当性要求。同时,在其指引下,一是在“权力性”程序维度建立算法监督机制,提升算法行政的中立性、自制性和公正性,以增强算法行政的客观程序正义;二是在“权利性”程序维度,对程序性权利进行适应性的优化和扩充,巩固个人对算法行政的知情、信任、理解、参与和控制,以实现算法行政的主观程序正义。当然,算法行政尚处于不断演化发展的过程中,对其程序法治方案的讨论并非一劳永逸,如何在程序一致性和程序动态性之间实现价值协调和制度弹性,是确保算法行政行稳致远的关键所在。