高级检索

学术资源

行政法学

当前位置: 首页 -> 学术资源 -> 行政法学前沿 -> 行政法学 -> 正文

郝志斌:算法行政的风险场景及其法律规制——基于算法法权关系架构的分析

信息来源:《山东大学学报(哲学社会科学版)》2023年第5期 发布日期:2025-11-07

摘  要:算法行政具有客观、高效优势,但同时伴随着技术内生的不确定性风险、法律层面权力行使与权利保障的挑战,以及价值层面技术理性吞噬价值理性等桎梏,亟需法律破解。规制对象是法律制度构建之前提,将“算法法权”作为算法行政风险的法律规制对象具有合理性和可行性,通过“权力—权利”的法权结构,可实现算法行政中“私权利、公权力、私权力”的整体性规制。质言之,算法行政风险的法律规制需要以“算法法权”的科学配置为核心,建构法律、伦理、技术与自我规制一体化的规制体系。

关键词算法行政;算法风险法律规制算法法权


运用数字技术、智能技术能够有效实现治理的数字化转型,增强社会风险防控能力,因而算法技术嵌入政府决策所形成的算法行政模式对于实现国家治理现代化具有重要意义。实际上,早在20世纪我国学者就已探讨了有关技术与行政的关系问题。随着数字政府、智慧政务、自动化行政等的逐步推进,算法行政具有了更为深厚的实践基础和价值共识。在这里,国家是一个更大的人这一古老的比喻被霍布斯变成了国家是机械,因为国家只是由人的艺术经过模仿大自然而成的人造的人artificialman)而已。由于社会逐渐向高度数字化、智能化和算法化转型,政府在处理算法时代的复杂问题时会出现知识失灵,算法行政的风险规制问题逐渐受到广泛关注。

围绕算法行政风险的法律规制,学界提出了以算法权力为中心的规制思路,但并未形成逻辑严密的规制思路,其主要掣肘在于以下两方面:其一,算法权力的界定存在争议,如有学者认为算法即是权力,有学者将算法权力等同于平台权力,还有学者直接指出算法并非权力;其二,已有关于算法权力的研究对政府公权力、平台私权力、算法私权利之间的整体性规制研究不足,体现为对政府公权力、平台私权力的单一规制和算法公权力算法私权利”“算法公权力算法私权力关系规制的研究成果颇丰,但对于算法私权利及算法私权力算法私权利关系规制的研究不足。基于此,本文尝试将法权理论的分析范式引入算法行政风险法律规制的研究之中,提出了算法法权这一命题,以期明确算法行政中算法私权利、算法公权力、算法私权力的结构化、整体性规制。


一、算法行政的概念澄清


一般认为,算法行政一词译自鲁夫罗伊提出的算法治理术algorithmic governmentality)。算法行政是自动化行政的范式之一,其并不属于规范意义上的法律概念范畴,仅是一种描述性用语以形容通过算法进行的自动化行政活动,以海量数据和完善的算法为基石,以自动化决策为中心,以代码规则与法律规则实现双重规制。总体而言,目前学术界并未就算法行政的概念达成一致,现有研究涉及的算法行政概念可大致总结为以下三种学说:

第一,技术赋能说。算法行政的技术赋能表现为政府治理的数字化,即以大数据、人工智能等新一代数字技术为支撑,按照算法程序,以辅助行政裁量等方式嵌入政府治理中,旨在提升权力行使的效能。比如中共中央、国务院印发的《法治政府建设实施纲要(2021—2025年)》提出,要坚持运用人工智能等技术手段促进依法行政。换言之,政府可以通过算法完成预定程式的自动化处理,以数据、算法为基础,推动行政执法、行政处罚等的自动化运行和实施,提升行政权力的行使效能,形成精准、高效的新型政府治理模式。

第二,技术赋权说。技术赋权说认为算法行政中的技术嵌入、公私合作重构了现有权力(利)体系。一方面,政府通过向平台的创设性授权实现社会共治。例如,《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》提出,要开展政府数据授权运营试点。数据授权可以实现信息技术与算法技术在行政管理中的嵌入,而信息技术与算法技术对行政权力的行使带来的专业化和精细化,直接推动了权力结构的变迁。另一方面,随着政府、平台、公民个体对算法技术依赖性的增强,算法实质上具备了强制性权力之属性。由此而言,原本属于政府的公权力部分转移到算法平台,同时算法平台依靠数据优势完成自我增权,进而在社会治理中扮演日益重要的角色,即平台权力的生成消减了政府公权力。

第三,范式变革说。范式变革说认为算法行政是与法律治理、伦理治理等相并行的治理范式。有学者基于福柯治理理论提出了算法行政是有别于基于法律规则的传统行政的治理体系。实际上,技术政治学亦明确指出技术绝非一个从属于政治的次要元素,相反,它是塑造当代政治之形态的一个根本性力量。算法行政与法律治理的不同之处在于:其一,算法行政是一种跨越时空的泛在权力关系,遵循商业逻辑与技术理性;其二,不同于法律治理的纵向、中心化结构,算法行政是一种横向、去中心化的治理范式;其三,算法行政注重效率价值,而法律治理秉持公平、正义等价值。

上述观点可进一步概括为两类:一是算法嵌入现行政府治理模式所型构的算法行政模式,这一模式并未实质性重构政府治理格局(技术赋能说、技术赋权说);二是算法行政具有颠覆性影响,其与基于法律强制的行政管理模式属并列关系(范式变革说)。算法作为一种新兴技术的确有助于政府治理效能的提升,但算法行政并未因此超脱于法律治理框架。在算法行政中,技术嵌入行政体系后成为一种新型的治理手段,是国家权力的辅助运行机制。换言之,在算法行政中,范式变革说所主张的平台去中心化治理结构,并不能脱离国家权力而存在。由此可见,算法行政并未实现对传统政府治理模式的重构。

相较于范式变革说,技术赋能说、技术赋权说更为契合我国实践。从语义构成来看,算法行政的概念阐释应当从算法行政两个关键词入手。技术赋能说侧重于前者,认为算法行政的核心旨趣在于借助算法改进公共治理绩效、提升公共治理价值。此种观点将技术理性绝对化,将效率作为唯一价值标准,未能充分重视行政法治的公平、正义等价值,致使技术理性与价值理性逐渐背离。技术赋权说侧重于后者,认为算法行政的平台式架构为政府行政提供了扩展槽,通过与社会性、商业性平台的扩展对接,形成了政府算法平台行政相对人的多元主体和算法权力(包括算法公权力和算法私权力)算法权利的新型法权结构。有鉴于此,从法学视角来看,算法行政的法律规制需要秉持技术赋权说的核心要义,方能有效应对算法行政多元主体嵌套和权力权利体系重构所带来的风险和挑战。


二、算法行政风险场景的类型化解析


算法行政的自动化决策系统存在将政治和社会责任向机器转移、技术构造对价值判断的摒弃等一系列风险。具体而言,算法行政的风险挑战可分为以下三类,即:技术内生性风险——算法技术的不确定性;法律维度的风险——权力行使与权利保障面临挑战;价值维度的风险——技术理性与价值理性的失衡。

(一)技术内生性风险:算法技术的不确定性

不确定性是技术的内在属性。科彭扬(Koppenjan)和克利金(Klijn)认为,技术不确定性包括技术本身不确定性、技术认知不确定性、技术制度不确定性三类。如今,机器智慧及数字宰制使得政府治理越来越依赖算法等新兴技术,但算法技术同样存在不确定性。第一,算法技术本身不确定性。算法行政首先需立基于正确的数据结构,若数据输入端产生错误,由错误数据+算法所得到的结果必然有违行政法治所追求的公平正义。例如,在部分司法案件中,由于人脸识别算法取得的违章照片模糊(属于脏数据),当事人据此认为原判决认定事实不清。此外,由于抓拍系统漏洞,某地还曾撤销了1000多起系统漏洞引发的违章案件。第二,算法技术认知不确定性。算法技术的快速迭代必然会加剧算法行政中的有限理性问题。其一,算法设计者(算法平台)认知的不确定性。英国技术哲学家大卫·科林格里奇(David Collingridge)曾指出,一项技术的社会后果不能在技术早期——研发阶段——被准确预见,然而当技术产生不良后果时,它往往已经成为了整个经济和社会结构中难以抽离的一部分,以至于难以对它进行控制。其二,社会公众(行政相对人)认知的不确定性。学者对6941份问卷进行实证分析后,发现有55.98%的用户对企业应用算法不太清楚或完全不清楚,高达64.98%的用户对企业算法应用目的表示不太了解或完全不了解。可见,社会公众对于算法技术的认知程度并不高,这同样体现在算法行政当中。其三,政府对算法认知的不确定性。政府对于算法存在明显的技术依赖。例如,新冠疫情期间,有的地方存在接口判定失误导致健康码判红的情形,在错误定位得到更改之后,健康码的颜色一直没有改变,当事人因此被隔离。第三,算法技术制度不确定性。算法行政带来的一系列政府数据与自动化决策使用、控制及操纵等方面的新难题亟需法律回应。目前,《中华人民共和国数据安全法》(下称《数据安全法》)第28条规定,研究开发数据新技术应当有利于促进经济社会发展、增进人民福祉、符合社会公德和伦理等,这构成了算法制度设计及算法行政规制的原则性条款。《中华人民共和国个人信息保护法》(下称《个人信息保护法》)第24条规定,个人有权拒绝个人信息处理者仅通过自动化决策的方式作出决定;第55条规定利用个人信息进行自动化决策应当事前进行个人信息保护影响评估等,这些规定搭建了算法行政规制的基本法律架构。同时,《互联网信息服务算法推荐管理规定》等软法规范为算法规制提供了直接依据,但目前算法责任制度、算法备案制度和安全评估制度的程序设计、具体要求和实施机制等仍待明确,这给算法行政的规范运行及行政相对人的权利保障等带来了严峻挑战。

(二)法律维度的风险:权力行使与权利保障面临挑战

一方面,算法行政中的权力行使面临合法性危机及责任鸿沟问题。行政机关是行政权的承载主体,算法行政中行政权与算法私权力的交织导致了行政权力体系的拓展和重构,使其面临合法性危机。其一,算法替代政府决策违反宪法及法律的规定。《中华人民共和国宪法》(下称《宪法》)第105条第1款规定,地方各级人民政府是地方各级国家权力机关的执行机关;《中华人民共和国地方各级人民代表大会和地方各级人民政府组织法》(下称《地方组织法》)第55条第3款规定,地方各级人民政府必须依法行使行政职权。因而,算法行政尤其是强人工智能模式下的完全自动化行政模式将面临合法性挑战。其二,算法行政难以践行相关法律法规的立法意图。如《道路交通安全违法行为处理程序规定》要求对违法行为的处理应当坚持教育与处罚相结合的原则,但算法设计遵循客观化和技术化逻辑,使得算法行政难以有效践行教育与处罚相结合的立法要求。其三,算法行政具有瞬时性和不确定性的风险,导致公众对政府工作满意度降低。在算法行政中,政府和公众之间难以建立全方位、多层次的对话机制,公众的真实诉求和权利请求难以得到切实表达。除此之外,由代码就是法律引申出的算法就是法律命题可能带来算法行政的责任鸿沟问题。劳伦斯·莱斯格指出,约耳·芮登博格(Joel Reidenberg)第一次提出代码就是法律这一命题,即一组网络空间的代码即将被创造出来,这组代码将决定网络空间的自由与规制的程度,这一点毋庸置疑,但是,由谁来创造?基于何种价值理念创造?由此而言,算法代码由谁创造、谁来执行会带来算法行政的主体性难题和归责难题,正如有学者指出的那样,算法具有很大程度的自主性,因此将相应的责任归咎于算法的使用者或设计者似乎是不公正的,而将相应责任归咎于算法自身似乎也是不可能的。总之,如果政府过度依赖算法作出行政裁决,可能使《关于推行行政执法责任制的若干意见》规定的行政执法责任制的施行效果不尽如人意。

另一方面,技术霸权下的算法行政将使行政相对人的权利保障面临诸多困境。其一,算法素养较低使得行政相对人的权利保障面临困难。2021年中央网络安全和信息化委员会印发的《提升全民数字素养与技能行动纲要》明确指出,目前我国数字化转型中全民数字素养与技能的培养体系尚未形成,数字道德规范意识有待增强。以算法行政最具代表性的交通处罚领域为例,《互联网信息服务算法推荐管理规定》第19条规定,算法推荐服务提供者向老年人提供服务时,应当保障老年人依法可享有的权益。面对算法自动化决策,即使交警通过平台对驾驶员进行了告知和解释,但大部分5160岁的驾驶员仍难以充分理解(前引学者关于公众对算法技术认知程度的实证研究结论亦为此提供了佐证)。而据公安部统计,截至2022111日我国5160岁的驾驶人6966万人,占14.48%。这使得交警调查取证还时常依赖于技术人员的技术协助,驾驶员有效维权也面临较大困难。其二,算法行政的瞬时性、自动化挤压行政相对人基本权利的行使空间。《中华人民共和国行政处罚法》(下称《行政处罚法》)和《中华人民共和国行政强制法》(下称《行政强制法》)等赋予行政相对人知情权、申辩权、陈述权等权利,但算法行政具有的决策自动性特征,使得受决策潜在影响的个人在决策之前无从获得申辩和听证的机会,这严重威胁了公民享有的基本程序权利。此外,《行政强制法》第42条第1款规定的执法和解制度具有提高执法效率、节约行政成本、化解执法纠纷的重要功能,但算法行政使得行政执法和解制度不断式微,带来了处罚密度失衡等问题。

(三)价值维度的风险:技术理性与价值理性的失衡

算法设计和研究可以选择性地植入安全、公平、效率、秩序等价值元素,但效率的突出位置是其他价值所无法取代的。经济导演并调和着这一切。它发出需求信号,检验商业理念的可行性,提出对新版技术的需求。但是经济不仅是技术的接收器,也不仅是升级技术的接收器,更重要的是,经济是其技术的表达。算法行政的合理性在于行政机构的效率需求与算法技术的高效优势之契合,但如若算法行政单一追求效率价值可能会影响公平、正义等价值的实现,即算法行政中经济性和公共性之间必然将存在矛盾。

在数字化时代,政府的官僚主义作风和机械化等问题已然成为行政法治的新症结,算法行政可能使行政法治的法律效果和社会效果相统一的目标落空。在现代法治国家,行政须受法的拘束,但并非百余年前形式法治主义强调的依法律行政。在行政法领域,行政裁量具有重要价值,不确定法律概念与行政裁量系如影随形的一对范畴。为依法、合理地适用相关法律、法规和规章,保障公民、法人和其他组织的合法权益,《行政处罚法》第34条规定,行政机关可以依法制定行政处罚裁量基准,规范行使行政处罚裁量权,同时已有多地政府发布了规范行政裁量权的政策文件,旨在通过行政裁量的法治化实现规范约束与个案正义的价值衡平。如今,算法行政虽然提高了同案同判的效率,但其不同于法律治理的机理,难以顾及个案正义。由此引发的问题是,行政处罚裁量系统中自动生成的处罚金额何以兼顾裁量要素,如若仍为人工作出,那么自动裁量系统的意义何在?此外,行政裁量的程序透明机制具有重要意义,但在算法行政中,算法黑箱已经多被诟病。

与算法行政中行政裁量的弱化一样,随着算法技术的不断迭代,算法行政中的道德推理和价值判断逐渐式微。《法治政府建设实施纲要(2021—2025年)》指出要让执法既有力度又有温度,但算法技术难以表达伦理和道德,算法行政方法论也难以恰当处理法律与道德的关系,即使在学界颇有影响力的算法就是法律法律就是算法的命题,也难以满足价值判断和道德推理的要求。例如,考夫曼曾以电脑作为法官?分析过此问题,他认为一个走向判决的电脑是可能的。当然,这时所产生的法律是与法官通过判决所说出来的法律不同的另外一种法律法律在平等原则中将被机械地操纵,绝对没有考虑到具体及历史的情境及个别性,一个瞎眼者的漫画图像,一个没有看到个别个人的正义女神,一种没有历史及非个人的法律。在算法行政中,如果按照程式化的方式来处理法律问题,道德和伦理将被排除在外,这可能引发行政法治的严重危机。以行政程序为例,行政程序的道德基础是伦理道德思想以及道德原则规范,行政程序的道德基础是行政程序正当性的基础。对此,算法作为技术工具强调客观性和效率性,这些工具理性与行政程序所需要的价值判断和道德推理必然存在兼容难题。


三、算法行政风险的法律规制原理


通过对算法行政风险规制的法律规范及现有代表性规制思路的考察和反思,本文尝试提出以算法法权为核心的更具科学性、可行性的法律规制路径。

(一)困境分析:算法行政风险法律规制的不足研判

1. 规范层面的不足。

算法行政风险的法律规制依据散见于宪法、法律、法规、部门规章等多个层级的法律法规及党和国家的政策性文件中,但有关法律规范存在内容不健全、衔接不畅以及前瞻性不足等问题。

第一,法律规范仍待健全。目前,《个人信息保护法》《数据安全法》等法律对算法行政的内容有所规定,但均难以实现对算法行政风险的有效规制。例如,《个人信息保护法》第24条规定了个人有权拒绝仅通过自动化决策方式作出的决定(对个人权益有重大影响时)。对此,以行政处罚为例,被行政处罚的公民是否有权拒绝算法行政方式作出的处罚结果?如若无权利,那么算法行政方式下的行政处罚可能面临违法风险;如若有权利,则可能违反《行政处罚法》第29条规定的一事不二罚原则,尤其是在算法行政方式下的行政处罚结果与人工处罚结果不一致时。此外,《行政处罚法》中对告知、说明理由、当事人陈述和申辩、听证等具体程序制度进行了规定,但在算法行政中如何保障行政相对人的程序性权利仍是亟须解决的问题。

第二,法律规范衔接不畅。例如,《个人信息保护法》第55条规定了自动化决策的个人信息处理者的相关责任,同时《互联网信息服务算法推荐管理规定》第7条规定了算法推荐服务提供者的相关责任,这就存在个人信息处理者责任与算法推荐服务提供者责任的衔接问题,在算法行政中,个人信息处理者应当包括政府及算法平台,但算法推荐服务提供者应当仅指算法平台,这就存在法律衔接方面的难题,衔接不畅的法律规范可能弱化算法行政风险的法律规制效能。

第三,法律规范前瞻不足。我国算法行政风险规制相关法律的前瞻性仍有不足,例如,我国已有法律规范并未对算法行政的全自动行政行为作出规定,而德国已在2017年修改的《行政程序法》中引入了全自动作出的具体行政行为概念,并联动修改了若干法条。

2. 理论层面的不足:算法权力中心规制思路的局限。

算法嵌入权力系统的主要表征使得部分学者选择以算法权力为中心构建算法行政风险的规制体系,但算法权力中心的规制思路存在明显的局限性。

第一,算法权力概念理解偏差导致算法行政风险规制的失灵。有学者从支配力的视角出发,认为算法是权力。但是,有相反观点认为,实践中算法的强制性体现,是由实实在在的人完成的。同时,如果算法即是权力,那么在算法行政风险规制中究竟是规制算法权力,还是规制算法权力?如此将带来理论和实践层面的诸多困境。还有学者将算法权力等同于平台私权力,认为资本是算法权力的操作者。但是,从算法权力的结构来看,算法权力无疑是一种复合型权力,兼具政府权力、市场权力与技术权力等综合特征。已有关于算法权力的研究更多聚焦于算法平台等的算法私权力,而在算法行政中则需要更为关注算法公权力,但目前算法公权力的规制还缺乏相应的深入研究。

第二,规制思路的缺口:缺乏对算法私权力与算法私权利关系的规制。在算法行政中,算法平台掌握着数据资源,加之政府通过权力授予、行政委托等方式给予平台的权力,衍生出一种新的权力形式,即支配和影响行政相对人权利行使的私权力。现有关于平台私权力规制思路的研究缺少行政法视角下的探讨,尤其是对算法私权力与算法私权利关系规制的研究。实际上,在算法行政中,算法私权力的底层技术基础是对行政相对人数据的获取与分析,而算法平台对数据的掌握进一步加剧了权力与权利失衡态势。因此,厘定算法私权力行使的正当性及其边界,保护行政相对人的知情权等基本权利和算法解释权、免受自动决策权等新兴权利,是目前亟待解决的问题。

第三,规制思路的缺憾:算法私权力对算法公权力的监督与制约不足。算法成为国家治理的重要权力机制,推动了国家权力向社会的渗透与扩张。基于此,学者们大多认为对平台私权力的规制具有必要性,原因在于算法行政中政府主体很可能通过算法平台规避责任,而这需要通过完善平台规制体系予以克服。但另一方面,算法平台对数据的全面、准确掌握,能够实现对政府权力的精准、及时及有针对性的监督,弥补算法行政中政府公权力监督的不足。例如,《数据安全法》第33条规定,从事数据交易中介服务的机构提供服务时,应当审核交易双方的身份;《个人信息保护法》第55条规定,利用个人信息进行自动化决策的个人信息处理者应当事前进行个人信息保护影响评估。基于以上法律规定,算法平台监督政府数据处理等行为具有合法性和可行性。同时,技术路径在行政控权中发挥的作用越强,外部监督带来的压力就越大;外部监督的压力增大,又促使行政机关加强技术路径建设以推进行政控权。多元主体通过以数据为基础的技术架构,及时发现、预警和处理算法行政中的各种问题,能够有效增强算法行政实施的规范性。

(二)路径优化:以算法法权为规制对象的逻辑证成

目前算法行政风险的法律规制仍存在诸多困境,规制对象的厘清与规制路径的优化无疑具有重要意义。本文认为,算法行政风险的法律规制能够通过对算法法权的规制实现逻辑内恰。需要加快从算法权力到算法法权的转型,以此应对公私部门的算法权力交织。那么,何为算法法权?所谓法权是从法学视角认知的、法律承认和保护的社会整体利益,它以某一社会或国家中归属已定之全部财产为物质承担者,表现为各种形式的法律权利和权力。算法行政中私权利、公权力、私权力的相互交织,亟需以法律促进算法法权的动态平衡。

具体而言,以算法法权为规制对象的逻辑理路如下:

第一,算法法权的规制思路能够弥补现行风险规制思路的不足,通过算法法权关系即算法公权力算法私权力”“算法私权力算法私权利”“算法公权力算法私权利三对关系实现算法行政风险规制的体系性。其一,算法法权中心规制思路强调以算法公权力的规制为重点,推动算法公权力与算法私权力的规制协同。在算法行政中,对算法公权力的监督和制约仍是重中之重,不能因为政府对平台等的权力让渡,而忽视政府在算法行政中的主体责任。其二,以算法法权为法律规制对象,能够为算法平台私权力的公法规制提供逻辑内恰的解释思路,因为权利和权力的基本部分毕竟是公民权利与国家权力,其他权利和权力占比不大,而且都是这两个基本部分以某种形式派生的。目前,算法平台私权力已经具有社会控制的功能。因而,如果不从宪法等公法的角度去规制私权力,则不足以维护公法上的基本权利。

第二,算法法权的规制思路能够契合民法典时代相对人中心主义执法模式的转型趋势,加强行政相对人算法私权利保障及其牵制算法公权力作用的发挥。近年来,契合相对人中心主义权利保障型行政执法方式成为民法典时代发展的必然趋势。算法私权利的保障成为行政相对人在算法行政中的基本诉求。在算法法权的规制思路中,政府算法公权力的行使,必须充分保障行政相对人的算法私权利,同时通过以权利制约权力的路径保证算法公权力运行的合目的性和规范性。

第三,算法法权的规制思路能够为算法行政的发展迭代及其风险调试提供可行框架。在未来人机共生环境中,算法会不会也像哥德尔一样,为自身的数学或神经系统发明一个反思功能?如果那样就太危险了,人工智能就能自己决定什么是它想要的和什么是它不想要的。算法是否能够获得主体资格暂不可知,但我们不得不对算法可能具有主体资格的问题进行前瞻性思考,研判其可能享有的权利(力),这将成为算法行政中新型法权类型构建的重要方面。同时,法权也是一个整体,每一个构成部分的超常扩张或缩减都不会只是其自身的事情,而是一定会引起其他部分的变化。因而,无论算法行政中出现新兴权力抑或新兴权利,将算法法权作为规制对象均能够将其纳入规制体系,且能够通过权力权利的规制思路有效抑制新兴权力抑或新兴权利的偏移。


四、算法行政风险的法律规制路径


为了确保算法行政风险处于法律的有效控制中,算法行政的行政决策应该在法治的基础上实施。实际上,长期存在的行政法原则似乎已经可以适应自动化时代。当下,有必要基于现有行政法规范进一步明晰我国算法行政风险的法律规制路径。

(一)算法法权中心规制思路的规范构造

针对算法行政的风险挑战,需要从算法不确定性风险的消解、认知不确定性风险的消解、制度不确定性风险的消解三个维度进行规范构造。

第一,算法不确定性风险的消解:算法权力行使的技术规制及其规范构造。其一,技术规制源于算法本身不确定性规制的切实需要。技术规制是通过技术升级使自动化方式的精确度越来越高从而增强自动化行政决策的公正性。算法行政因算法技术发展不成熟而形成的权力行使风险或者局限,需要在算法创造过程中对相关风险进行技术治理,包括风险识别、评估和技术解决等。其二,技术规制的效果实现需要法律保障。技术规制与法律规制的有效协同是确保算法行政有序运行的基础。算法行政规制的实质在于权力监督,但权力监督不仅是一个制度问题,也是一个技术问题,需要借助技术的力量使权力运行程序和环节得到有效、实时监控。为此,需加快技术规制法律规范的建构与完善,加强对技术规制风险的识别、评估与预防,提升技术规制效能。此外,还需加强技术规制能力提升及人工干预机制建构,即在技术规制的代码程式中嵌入人工干预选项,用以及时识别和发现可能偏离设计初衷的情形。

第二,认知不确定性风险的消解:算法私权利保障的重要内核及其规范构造。其一,加快行政相对人算法素养的培育,提升算法私权利保障的积极性。我国《全民科学素质行动规划纲要(2021—2035年)》等为数字(算法)素养的培育和提升奠定了基础,具体包括:完善政策支持和资金保障机制、组织开展算法素养与能力提升试点、定期开展算法素养与能力评估、加大个人信息和隐私保护相关法律法规的宣传力度等。其二,政府主体需破除算法依赖,坚持依法行政,充分保障行政相对人的合法权益。党的二十大报告指出,要加大关系群众切身利益的重点领域执法力度,完善行政执法程序,健全行政裁量基准。这就需要通过《中华人民共和国立法法》第8条、第9条规定的法律保留制度,明确算法行政的适用边界,防止算法行政侵害行政相对人的合法权利及公共利益,尤其是算法不能应用于涉及人身自由等重要利益的决策。因此,应确保行政领域算法运用做到合法合规、公平公正,有效保障算法行政的合法性和规范性。

第三,制度不确定性风险的消解:算法公权力规范的转型升级及其与算法私权力规范的双向互动。其一,提升算法行政规范体系的数字化水平和前瞻性。目前,我国算法行政的主要形式为算法嵌入行政程序,但实体决定仍由人作出,与此类形式相关的法律规范已经较为充分。存在较大不确定性的是程序+实体完全算法化的算法行政方式,对此,本文赞同展鹏贺的观点,即立法权需要对行政权为实现其功能所拥有的形成空间予以适度尊重。在算法行政的法律规制过程中,无论是制定专门规范,还是将算法行政纳入既有规范之下,均要求有关规范具备数字化素养。下一步,需要加快行政法律规范的数智化转型,确保其内容可以契合快速迭代的算法行政的规制需求。例如,司法规则的代码化和自动执行不仅消减了部分司法代价,还生成了特殊的司法效果。其二,构建算法行政风险规制的规范协同体系。算法规制的法律规范,如《关于加强互联网信息服务算法综合治理的指导意见》明确由网信部门会同其他部门建立协同联动长效机制;《数据安全法》第6条规定网信部门负责统筹协调网络数据安全和相关监管工作。由此可见,网信部门对于算法规制具有绝对主导地位。基于此,网信部门需与国家数据局等机构充分考虑算法平台的公私主体双重身份,以法律制度为基础,调和算法平台商业逐利与公共利益间的价值冲突,依据法律法规确定算法私权力的范围、职责和标准,在此基础上配合算法公权力规范,构建起算法行政规范运行的实施路径,推动算法行政与依法行政相向而行。

(二)基于算法法权关系架构的规制体系

算法行政中形成了政府公权力、平台私权力、算法私权利的法权关系,因而算法行政法律规制的核心就在于推动不同法权关系之间的协同规制。

1. 算法公权力与算法私权利关系的协同规制。

算法公权力与算法私权利关系的协同规制主要包括两个方面:第一,算法公权力问责体系构建。对于算法行政中政府行政权的问责,需要通过建立权力清单和相应责任清单制度,构建中国特色的算法行政问责模式,加强监察问责、行政问责与党内问责的联系,明确问责对象、问责事由和问责程序等。可以说,我国逐渐完备的监察问责和党内问责体制对算法行政中政府公权力的规制具有重要意义,构建政府公权力问责的党委+监察+行政体系已然具有现实可能性。

总体而言,算法行政中政府公权力的问责,已经存在较为充分的规范依据,能够依托现有行政问责体系实现有效规制,当下需加快完善中国特色的行政问责模式,即党委问责+监察问责+行政问责+平台问责一体化的问责体系。

第二,加强行政相对人算法私权利的法律保障及其对算法公权力的牵制作用。算法行政保障行政相对人有效参与算法行政过程,既需做到对算法公权力的限制,也需做到对算法私权利的保障,尤其是要加强算法私权利对算法公权力的制约。在算法行政时代,如何实现行政相对人享有的法定权利与算法权利的协同保障是目前亟须解决的问题。对于行政相对人法定权利的保障,学界已着墨较多,本文主要对行政相对人应享有的算法解释权以及免受自动决策权等算法权利进行分析。其一,算法解释权。对于算法行政中行政相对人享有的算法解释权保障,《个人信息保护法》第24条第1款规定了个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度,第7条、第44条、第48条等规定了个人信息处理规则,包括知情权、决定权等。综合以上条款,行政相对人享有的算法解释权已经具有清晰的轮廓。当然,算法解释权不应是绝对的,需有效衡平算法解释与国家安全、公共利益之间的价值冲突,厘清其在算法行政中的适用边界。其二,免受自动决策权。免受自动决策权旨在通过法律向个体赋权的方式,逐步使行政相对人拥有与算法相抗衡的机会与能力,以实现算法时代的权力与权利平衡。例如,欧盟《通用数据保护条例》(General Data Protection Regulation)第22条规定数据主体有权利不受一个仅仅依靠自动化处理的决定限制。欧洲议会和理事会针对刑事司法领域出台了《刑事案件数据处理指令》,其中第11条要求成员国有义务禁止仅基于自动化作出的、并会对数据主体产生重大影响的决策。在我国,《个人信息保护法》对国家机关处理个人信息的要求进行了特别规定,因而可以适当拓展《个人信息保护法》第24条关于免受自动决策权的范围,使其能够涵盖算法行政形式,使行政相对人有权拒绝仅通过自动化决策方式作出的决定。

2. 算法公权力与算法私权力关系的协同规制。

算法公权力与算法私权力关系的协同规制包括三个方面。第一,加强政府与算法平台之间的数据共享,推动算法公权力与算法私权力的有效互动及制约。算法行政中的数据已然构成权力行使的重要基础,而平台在数据获取等方面具有相对优势,这就需要在保障公共利益及行政相对人隐私权的前提下推进数据规范、高效共享。在实现方式上,可借助隐私计算等新兴技术,其可用不可见之属性将为数据安全共享发挥关键作用。此外,算法平台可根据《数据安全法》第33条、《个人信息保护法》第55条的有关规定,对政府的数据处理行为进行监督和制约。

第二,明确政府是算法行政中的唯一行政主体,平台责任可根据行政协议内容进行追究。无论行政行为模式如何变化,无论行政行为的具体客体是个人、集体还是自动化系统,在法律意义上,作为行政法律关系的一方,政府始终是行政主体。算法平台(或算法)与行政主体之间的技术法律服务属于一种行政协议关系,若算法平台(或算法)存在过错,其需根据行政协议的具体规定承担相应责任。此外,可引入第三方机构对算法私权力的行使进行监督。第三方机构保持独立,可通过提供安全评估、合规评估、安全审计等服务,为算法私权力的行使提供更为客观、公正和专业的监督。

第三,从算法行政关涉的公共利益出发,参与算法行政的平台需承担相应的责任义务。在算法行政中,算法平台私权力的责任构造旨在加强对平台私权力的规范,使其与其他权力(利)主体实现协调和制约。在确保平台私权力程序嵌入正当性、规则设定合法性的基础上,通过制定相应问责体系,推动平台私权力的规范化。网信部门可以牵头制定和完善算法平台私权力行使的关键性规则,回应不同主体的利益诉求,最大限度地降低平台私权力行使的风险。实际上,有关算法行政中平台私权力责任构造的法律规范已经较为完备,如《个人信息保护法》《数据安全法》等。晚近,《互联网信息服务算法推荐管理规定》《关于加强互联网信息服务算法综合治理的指导意见》等文件,更是对平台私权力责任问题进行了直接规定。

下一步,需加快落实规范文件规定的相关责任要求,抑制平台私权力的无序扩张,同时强化平台私权力行使的自我规制,如推进算法平台行业的等级管理体系、黑名单管理等配套制度。

3. 算法私权力与算法私权利关系的协同规制。

算法私权力与算法私权利关系协同规制的重点在于以下两个方面:第一,算法平台需在安全合规原则、数据最小化原则和分级分类原则指导下合法采集、共享和处理行政相对人的数据。其一,安全合规原则。首先是原始数据来源的合规,原始数据必须确保基于合法方式获取,遵守告知同意的合规要求,否则将直接否定算法私权力行使的合法性基础;其次是计算和共享过程中的安全合规,各主体之间的数据交互应以安全的加密状态(如同态加密、差分隐私等)或在安全可信的环境中进行交互。其二,数据最小化原则。数据最小化原则(data minimization principle)要求平台在收集和使用数据时,以实现既定目的为标准,最小范围内收集数据。其三,分级分类原则。数据分级分类原则是《数据安全法》规定的核心原则,算法行政中的数据共享和应用需综合考虑数据属性、质量、敏感程度等要素,对数据进行精准分级分类,采取相匹配的安全保障措施,在兼顾数据安全、隐私保护的基础上最大程度地释放数据价值。

第二,算法平台需配合政府充分保障行政相对人的算法私权利。具体而言,平台需履行好以下义务。其一,安全保障义务。《数据安全法》第4章明确规定了数据安全保护义务,算法平台必须确保数据安全和个人隐私。具体包括以下几项内容:一是构建行政相对人的数据安全管理制度,如制定内部管理制度和操作规范、采取加密等安全技术措施、定期对从业人员进行安全培训、制定并组织实施应急预案等;二是流程管理,应建立多节点核验方式,通过审计、评估等多种方式降低数据泄漏风险。其二,充分告知义务。平台要切实履行针对行政相对人的充分告知义务,这是行政相对人算法私权利获得保障的关键。根据《数据安全法》第33条的规定,平台在与政府进行数据共享时要切实履行好相应告知和审核义务。此外,对于提供重要互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者的义务,《个人信息保护法》第58条作了专门规定,包括建立健全合规制度体系、成立主要由外部成员组成的独立监管机构、明确平台内产品或者服务提供者规范处理数据的义务、定期发布社会责任报告、接受社会监督等。

(三)算法法权中心规制思路的价值旨归

算法法权中心规制思路的价值旨归在于调和算法行政中技术理性与价值理性的失衡。需要明确,价值理性强调人的尊严、人的价值,算法行政必须首先要建构理性的、正当的价值目标,技术理性只不过是达到目标的手段与工具。价值理性能够引导技术理性的方向,要适度调和技术理性与价值理性的背离趋势,推动算法行政中行政法价值理性的复位。

第一,个案正义是需要坚持的价值立场。技术理性不应扼杀政府行政裁量权实现个案正义的内在功能,原因在于保障人民权利是行政法的根本价值追求。《行政处罚法》第34条规定,行政机关可以依法制定行政处罚裁量基准,规范行使行政处罚裁量权。在法律秩序的框架内,无论算法行政还是其他行政模式的兴起,都不应当以扼杀行政裁量权为代价,如此方能实现《行政处罚法》第6条规定的处罚与教育相结合的法律价值。

第二,数字正义是算法行政规制的价值准则。与数据正义、算法正义、计算正义相比,数字正义追求数字技术应用,尤其是算法应用满足人权、正义、法治价值的一种理想状态,因而更加契合算法行政规制的价值需求。数字正义的实现主要包括以下三方面的内容。其一,对于数据资源的合理分配而言,《数据安全法》第28条规定,开展数据处理活动应当有利于增进人民福祉,符合社会公德和伦理。数据是算法行政运行的基础要素,算法行政规制需重视数据伦理治理的重要价值。德国数据伦理委员会认为,负责任的数据治理遵循前瞻性责任、对相关各方权利的尊重、为公共利益使用数据和共享数据、风险充足的信息安全级别、以利益为导向的透明度等原则。我国需依托《数据安全法》《个人信息保护法》等与数据、算法密切相关的法律,推动算法行政伦理规范化,保障数据收集、利用、共享的合法、安全及有序,以促进算法行政的规范发展。其二,对于数字权利的充分配置而言,国家《新一代人工智能伦理规范》第7条明确规定,要充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益。当前行政相对人的算法素养培育具有紧迫性,需要直面数据思维、计算思维等算法社会带来的思维挑战,加快提升行政相对人权利保障的素养和能力。其三,对于算法决策的公开透明和代码规制的规范有效而言,我国《互联网信息服务算法推荐管理规定》《互联网信息服务算法应用自律公约》等从算法责任角度对算法的技术主体提出了新的要求,算法行政的法律规制需要加快开展算法伦理审查,开展算法安全风险监测、评估和防控,有效处置算法安全事件。


结语


在算法勃兴的时代,政府因应数字政府的变革需求,在政府即平台的理念下推动了政府的数字化转型,为算法行政的运行奠定了基础架构。算法信任、数据优势能在很大程度上消解人工决策的有限理性。法律代码化编程和法律算法化运行将更为标准、严格、可信、高效地执行法律规则,尤其是对海量数据分析和非现场执法需求能够发挥重要作用,以实现决策的一致性、即时性和普遍性。但与此同时,算法行政亦面临着技术层面、法律层面、价值层面等多层面、多领域、多样化的风险挑战,可能对公共利益及行政相对人的个体权利等产生实质性影响,亟需法律予以回应。

算法行政风险的法律规制以算法法权为规制对象实现整体性规制,现阶段亟须建构以算法法权为中心,法律、伦理、技术与自我规制为一体的系统性规制体系,主要包括以下三方面内容:其一,从算法行政中算法不确定性风险的消解、认知不确定性风险的消解、制度不确定性风险的消解三个维度进行规范构造;其二,以算法法权关系架构为中心,推动政府公权力、平台私权力、算法私权利之间不同法权关系的协同规制;其三,算法法权中心规制思路的价值旨归在于调和算法行政中技术理性与价值理性的失衡。技术理性是达到价值目标的手段与工具,价值理性能够引导技术理性的方向,要适度调和技术理性与价值理性的背离趋势,个案正义和数字正义是算法行政规制需要秉持的价值准则。