摘 要:数字行政行为算法歧视是数字政府领域由机器学习算法与行政权力相结合而引发的算法歧视现象。它的存在可能会给数字法治政府建设带来一系列危害,包括但不限于破坏数字政府公信力、加剧社会不平等、损害行政相对人的合法权益以及影响数字行政行为的公正性。为了更好地从法律层面规制数字行政行为算法歧视,文章以智慧税务为例,从技术原理层面探究其技术生成逻辑为“数据→信息→知识→决策→数字行政行为”。在此基础上,对现阶段数字行政行为算法歧视的法律规制情况进行深入分析,发现其在事前、事中、事后三个环节面临诸多困境,主要包括缺失算法公平标准、缺乏对算法行政权力的运行制约以及数字行政行为算法歧视存在认定困难。对此,从理论与实践提出了解决路径:一是制定算法公平标准,解决技术创新与公平价值之间的冲突;二是完善算法行政权力运行制度,保障平等权;三是明确数字行政行为算法歧视的构成要件,为公众提供有效救济。由此,形成对数字行政行为算法歧视事前、事中、事后全覆盖的有效规制体系,从而推进数字法治政府建设,提高国家治理体系和治理能力现代化水平,完善中国特色社会主义法治体系。
关键词:数字行政行为;算法歧视;数字政府;机器学习算法;算法行政权力
党的二十大报告指出,“从现在起,中国共产党的中心任务就是团结带领全国各族人民全面建成社会主义现代化强国、实现第二个百年奋斗目标,以中国式现代化全面推进中华民族伟大复兴”。当前,人工智能技术正在席卷全球,深度渗透人类社会的各个领域,深刻改变着人类的生产和生活方式,成为新一轮科技革命和产业变革的重要驱动力量。人工智能技术既是推动中国式现代化的重要支撑,也是全面建成社会主义现代化强国的重要动力。然而,我国在运用人工智能技术推进政府履职数字化、政府决策科学化、社会治理精准化、公共服务高效化的过程中,面临着算法歧视的风险挑战。算法歧视会导致一系列负面后果,具体包括破坏数字法治政府建设、削弱数字政府公信力、扩大数字鸿沟、损害数字正义、侵犯行政相对人的合法权益等。2017年,美国宾夕法尼亚州阿勒格尼县政府支持研发的世界上第一个儿童福利预测分析工具——“阿勒格尼家庭筛选工具”(Allegheny Family Screening Tool,简称AFST),被曝出其使用的机器学习算法在特征选择、数据收集和后处理等相关环节存在偏见以及歧视穷人、残疾人家庭和精神障碍患者家庭。2020年,荷兰税务机关使用机器学习算法来发现儿童福利欺诈行为,经该国数据保护机构调查结果显示,该算法对“非西方外貌”“有移民背景”的人产生歧视,致使数千个家庭被要求返还福利补贴。这起事件直接导致当时的荷兰内阁集体辞职,引发民众对政府公信力的质疑。另外,算法歧视在我国私法领域造成了平台价格歧视、算法合谋、劳动权益算法歧视等多起纠纷。因此,国务院于2022年印发《关于加强数字政府建设的指导意见》,要求“全面建设数字法治政府,依法依规推进技术应用、流程优化和制度创新,消除技术歧视,保障个人隐私,维护市场主体和人民群众利益”。消除技术歧视实质上就是要求消除算法歧视,故规制数字政府领域的算法歧视是维护人民利益、国家利益的必然要求,是全面建设数字法治政府的必要条件,是推进国家治理体系和治理能力现代化的重要举措。
一、数字行政行为算法歧视的概念界定、类型界分及具体特征
为了深入剖析数字政府领域的算法歧视问题,笔者拟在学理层面就此现象提出“数字行政行为算法歧视”这一概念,并对概念界定、类型界分与具体特征进行分析,希冀为有效监督数字行政行为的公正性与合法性提供思维工具,为行政相对人及其他利害关系人进行行政救济提供前提条件,同时从法律角度明确数字政府领域算法歧视的规制对象。
(一)数字行政行为算法歧视的概念界定
数字行政行为算法歧视是一个复合概念,由“数字行政行为”和“算法歧视”两个独立的基本概念组合而成。厘清数字行政行为算法歧视概念的前提是明晰算法歧视和数字行政行为的概念内涵。
1. 算法歧视。在人工智能时代,算法歧视被视为一种普遍客观存在的新型歧视。有学者从算法歧视产生的根源与后果出发,认为这一现象根植于算法训练过程中的偏见,“算法歧视是指算法在编码、收集、选择或使用数据训练时, 会出现直接或间接基于种族、肤色、性别、宗教、政治见解、民族、血统或社会出身等的区别、排斥或特惠的偏见现象”。有学者提出算法歧视是“对特定群体或个人的不公正对待”。有学者采取描述的方式侧面证明算法歧视的存在,但未直接给出定义。笔者认为,算法歧视概念可作广义与狭义之界分,这取决于是否对算法进行分类。以算法设计原理作为分类标准,算法可分为一般算法与机器学习算法。一般算法是指能够使计算机按照预先设计的代码执行指令以实现特定功能的一类计算方法。仅仅嵌入一般算法的数字化或计算机相关产品通常缺乏智能与智慧属性,只能机械式地执行代码指令。相比之下,机器学习算法运用统计学、概率论、计算机学科等多学科理论知识,通过自主学习获取新的知识与技能,从而实现自主决策,以达到模拟或实现人类智慧的效果。相应地,算法歧视可分为一般算法歧视与机器学习算法歧视。综上所述,广义的算法歧视并不涉及对算法作前述明确的类型区分,即在实现某种输入/输出关系的计算过程中,任何算法只要对人类形成了不合理的区别对待,从而导致“不平等”结果的现象,都可被视为算法歧视。狭义的算法歧视则专指机器学习算法歧视。因为一般算法不具备自主学习与自主决策的能力,不存在“算法黑箱”,其所造成的歧视本质上是人的歧视,源于算法设计者、软件开发者等研发者自身的偏见、个人喜恶等主观意识形态,而且一般算法歧视可通过修改代码的方式予以消除,故不在本文的讨论范围之内。本文研究的算法歧视仅限于狭义的算法歧视,即机器学习算法歧视。
2. 数字行政行为。数字行政行为是指行政主体为了履行职能,将行政权力与机器学习算法相结合而作出的行政行为,包括行政法律行为和行政事实行为。从盐野宏的行政过程论视角出发,数字行政行为的作出是一个动态过程,由准备阶段、执行阶段、生效阶段等若干环节所构成。基于盐野宏的行政过程理论, 结合我国数字政府建设实践,通过考察机器学习算法在行政行为过程中的作用,可将数字行政行为分为替代性数字行政行为和辅助性数字行政行为。替代性数字行政行为是指直接由机器学习算法进行自主决策而作出的行政行为。例如,我国浙江省温州市使用的智能违章抓拍一体机器人,可对10余种交通违法行为进行识别、抓拍、上传、智能审核,全过程实现无人工干预。替代性数字行政行为无须行政主体的介入,而是通过机器学习算法自主分析数据、学习经验或者适应环境的能力来进行自主决策与自主行动。辅助性数字行政行为是指机器学习算法仅作为行政主体达到预设目的而使用的手段或工具。例如,河南省上线“河南金融领域公共风险预警系统”,该系统能够实现对金融企业、金融机构等6大类金融主体的数据化动态监测、风险评级、辅助舆情分析,监管人员可基于系统决策结果,主动对高风险金融企业(机构)进行合规审查(如公平竞争审查、安全审查)。虽然辅助性数字行政行为的自主性程度较低,但却具有独立的影响力,倘若行政主体在行政行为准备阶段(事实认定层面)运用机器学习算法进行自主决策,并作为行政行为执行的依据,那么整个数字行政行为的作出过程不可避免地受到机器学习算法自主性的影响。
综上所述,数字行政行为算法歧视是指行政主体基于机器学习算法歧视性决策结果或者完全由机器学习算法作出的行政行为,给行政相对人造成不合理的区别对待,从而导致“不平等”结果的一种行政争议或行政纠纷。
(二)数字行政行为算法歧视的类型界分
数字行政行为是算法歧视从应然层面进入现实层面,影响行政相对人实际权利义务的载体。依据数字行政行为类型的不同,数字行政行为算法歧视可以分为两类。
1. 替代性数字行政行为算法歧视。替代性数字行政行为算法歧视是指行政机关完全使用机器学习算法而作出行政行为,形成不合理的区别对待,损害行政相对人应平等享有的权益,从而导致“不平等”结果的纠纷。受当前人工智能技术的限制,再加上行政决策通常与公众利益紧密相关,许多国家通常将机器学习算法作为达到预设目的的手段或工具,只有在不涉及或较少涉及行政裁量的领域(如交通领域的自动化行政处罚)完全使用机器学习算法进行自主决策。因此,替代性数字行政行为算法歧视类型尚未真实出现。但是,随着人工智能技术的发展与进步,完全由机器学习算法完成行政决策成为一大趋势,可以预见替代性数字行政行为算法歧视发生的可能性,故对其进行深入分析具有理论意义与现实意义。
2. 辅助性数字行政行为算法歧视。算法歧视通过辅助性数字行政行为进入现实生活领域。例如,英国上诉法院认定南威尔士警方基于AFR软件歧视性决策结果,在大型公共活动中,将高风险公民列入监控名单的行政行为存在种族歧视,这属于辅助性数字行政行为算法歧视。
(三)数字行政行为算法歧视的具体特征
替代性和辅助性数字行政行为算法歧视的区别主要在于行政主体在辅助性行政行为中具有较大的自由裁量权,能够在一定程度上阻止算法歧视进入现实层面。然而,这种区别并不会影响算法歧视的技术原理与本质特征。基于机器学习算法在辅助性数字行政行为中已出现的算法歧视现象,可以合理作出推测:当机器学习算法被赋予完全的自主决策权时,算法歧视的出现几乎是不可避免的。因此,对辅助性数字行政行为算法歧视的真实事例综合运用类比、演绎推理方法,可归纳总结二者的共性特征。
1. 侵害的客体实际上是平等权。平等权是各国宪法规定的一项基本权利,是指公民在政治经济和社会的一切领域内依法享有与其他公民同等的权利,不因任何外在差别而予以区别对待。公民享有的平等权可以概括为法律适用上的平等和立法上的平等,前者包括行政执法、司法、守法等若干环节的平等,后者包括立法参与权的平等和立法内容的平等。然而,平等权是一种抽象的权利,其需要通过其他权利的内容来体现。为了便于后续平等权的救济,笔者将具备“(一般)平等权+其他权利(财产权、人身权)”这一权利结构的权利称之为具体平等权。因而,尽管数字行政行为算法歧视侵害的客体是平等权,但同时也会侵害行政相对人的其他权利。例如,美国芝加哥政府使用预测警务算法(predictive policing algorithms)预测执法中的威胁并提出解决方案,其理应在执法环节平等地对待公民。然而,Fogliato等人证明输入数据存在种族偏见,执法人员基于该歧视性算法决策结果作出对黑人个体进行监控的辅助性数字行政行为,侵犯了其在法律适用上享有的具体平等权益(平等权+人身自由权、人格尊严权+隐私权)。如果芝加哥政府完全依赖预测警务算法进行自主执法,排除执法人员的干预,并由算法自主决定将某高风险个体列入监控名单,就可能导致替代性数字行政行为算法歧视,损害公民的平等权益。因此,无论机器学习算法歧视通过哪一种数字行政行为进入现实层面,其本质上都是对平等权的侵害。
2. 数字行政行为算法歧视本质上是算法行政权力对平等权的侵害。行政权力是国家权力中最直接、最广泛地与社会公共事务发生联系的一种权力形式,权力主体是国家行政机关。在全球数字行政实践中,辅助性数字行政行为的数量要远远多于替代性数字行政行为,二者都涉及机器学习算法与行政权力的结合,前者的结合程度相对较低,后者的结合程度最为彻底。算法行政权力不仅改变了传统行政权力的形态,而且改变了各国行政机关履行职责的行为方式。但是,数字行政行为类型的不同只会影响机器学习算法歧视进入实践层面的路径,并不会从根本上改变数字行政行为算法歧视是算法行政权力对平等权的侵害这一本质特征。譬如,美国洛杉矶政府使用弱势指数——服务优先化决策辅助工具(Vulnerability Index-Service Prioritization Decision Assistance Tool,简称VI-SPDAT),以“脆弱性”为核心指标对“无家可归者”进行优先性排列并分配有限的住房资源。柯林·莱切(Colin Lecher)和麦迪·瓦尔纳(Maddy Varner)的研究显示,VI-SPDAT在使用中存在种族和性别偏见,侵害了公民享有的种族平等权和性别平等权。例如,白人女性和黑人女性因“创伤”而无家可归的概率相似,但是白人女性的脆弱性得分比黑人女性高。在此应用场景中,美国洛杉矶政府将部分行政权力委托给机器学习算法,以辅助政府作出带有歧视性的决策结果。基于这些歧视性决策结果,政府作出不合理的差别对待行为,从而导致了住房分配结果的不平等。在我国数字行政实践中,以浙江省财政厅与阿里巴巴集团建立的全国首个政府采购云服务平台——政采云为例,该平台综合采用以“集成学习”“强化学习”“支持向量机”等多种机器学习算法为核心的云计算、大数据、人工智能等数字技术。《中华人民共和国政府采购法》第三条规定,政府采购应当遵循公开透明原则、公平竞争原则、公正原则和诚实信用原则。政采云等数字化政府采购平台使用的推荐或者排序算法应当让所有供应商享有平等机会,公平地参与市场竞争。由于前述推荐算法在私法领域已经被证实存在算法歧视,侵害公民享有的具体平等权,因此,政采云使用的推荐或者排序算法极可能导致“同等条件下同类商品获得不公平推荐”的歧视性结果,存在侵犯供应商平等权的风险。在这个情境中,行政权力的行使者本应是浙江省财政厅,但实际上却交给了机器学习算法,完全由其自主作出推荐行为(即替代性数字行政行为)。
二、数字行政行为算法歧视的技术生成逻辑——以智慧税务为例
数字行政行为算法歧视的法律规制应当遵循其技术生成逻辑。为了便于剖析人工智能技术原理,笔者以智慧税务这一特定的机器学习算法应用场景为例,旨在从这个特殊的场域中归纳出数字行政行为算法歧视一般性和普遍性的技术生成逻辑。
(一)任务预设:监测A直播平台的纳税主体是否存在偷税风险
假设智慧税务平台选用一种有监督学习算法来实现监测A直播平台的纳税主体是否存在偷税风险的功能,税务机关将依据机器学习算法决策结果决定是否对其进行重点监督与审查,确保纳税人依法履行纳税义务。有监督学习算法的基本思想是从已知带标签的样本数据集中经训练生成一个模型,该模型能够对输入的未知样本数据(即未带标签的新数据)进行分类和预测。在训练环节,监督学习算法要求对采集的原始数据进行人工标记,形成带标签的数据样本。接着,监督学习算法从分类标签样本中提取数据特征,构建相应的学习模型。然后,在预测环节,向该模型输入另一组未知的(新)原始数据,由该模型输出分类结果。该任务的具体实现过程如下。
1. 采集原始数据。采集原始数据注重的是采集的全面性,可以运用数据爬虫、数据抓取工具等方式进行采集而无须人工对数据进行选择与过滤。采集的原始数据包括纳税主体的姓名、身份证号码、行业、联系方式、直播平台交易记录、商品类型、销售额、纳税申报、纳税金额、相关法律规则等数据。
2. 数据预处理:人工标注标签。数据预处理是指运用数据清洗、数据集成、数据变换、特征提取等算法对原始数据进行技术层面的处理。例如,去掉多余的字符或者重复数据。人工标注标签是指由相关专家或工作人员根据相关的法律法规、税收政策、案例经验、领域知识等,对经过数据预处理之后的数据样本进行标注与分类的过程。例如,以《中华人民共和国税收征收管理法》第六十三条作为标注规则定义一组标签:存在偷税、不存在偷税。
3. 模型选择与训练。预设的监督学习算法任务实际上是一个“分类”问题,即需要选择合适的监督学习算法模型,从带标签训练数据集中学习样本特征与标签之间的关系,不断地训练该模型,使其能精准地从新数据集中将纳税人主体分为两类:存在偷税风险、不存在偷税风险。
4. 输出决策结果。监督学习算法会根据带标签的数据集习得分类规则与特征提取,并对输入的新数据进行分类,从而输出决策结果。对于被预测存在偷税风险的纳税主体,该算法模型可以给税务机关提供行为建议。一是进行审查,对纳税人的财务记录、账目等进行详细审核,以确定是否存在实质性的偷税行为。二是进行调查,对纳税主体的业务运营情况进行调查,收集更多的证据以支撑偷税行为的认定。三是实施重点监控,对存在偷税风险的纳税人进行持续监控和跟踪,以便及时发现和防范潜在的偷税行为。对于被预测为不存在偷税风险的纳税人,可以采取继续监测的方式,确保纳税行为的合规性。
5. 应用决策结果。决策结果的应用有两种方式。一是由相关的机器学习算法自主执行行动,如自主审查、税务处罚等。二是由税务机关将决策结果作为税务检查的依据。譬如,对纳税主体进行风险评估和分类,将执法资源集中于高风险纳税人,提高税务检查的效率和精确性。
(二)生成逻辑:数据→信息→知识→决策→数字行政行为
智慧税务能够提高税收征管效能,但应当设计相应的法律制度确保决策结果的合理性、公正性、透明度,避免数字行政行为算法歧视。在前述算法任务中,极有可能出现算法歧视情形。譬如,有监督学习算法将来自某个特定地区的纳税人标记为偷税的高风险群体,从而导致该地区的纳税人遭受过度审查或者监测,增加经营成本。学界通常认为算法歧视来源于数据,但此种说法过于笼统,不利于后续的立法规制。笔者根据前述有监督学习算法任务实现的全过程,以数据为逻辑起点,透过复杂的算法现象,深刻剖析数字行政行为算法歧视动态生成的技术逻辑。
1. 数据。数据是算法的基础。在采集原始数据阶段,数据是原始的、未被解释的符号。休谟在《人性论》中提出“事实”与“价值”的二分,认为从事实判断中不可能推出价值判断。事实是未经人类思维加工解释的存在,价值判断是指价值主体评价客观事物属性能否满足自身需要的一种思维活动。在某种程度上,歧视可被视为一种有关价值判断的人类意识形态活动。譬如,甲因乙容貌丑陋
而拒绝录用乙作为公司员工。因此,采集的原始数据所表示的只是客观的事实判断,并不包含人类的价值判断,不包含歧视。
2. 信息。数据和信息两个术语的日常混用遮掩了算法歧视的生成逻辑,不利于立法用语的同一性。根据香农的信息论,信息是不确定性的减少,即凡是能够用来消除不确定性或者增加确定性的东西,就是信息。数据是信息的载体,信息则是经过数据预处理或者特征选择之后能够用来减少不确定性的数据,二者并不能完全等同。例如,甲是A直播平台的纳税主体,实现自然人税费信息“一人式”智能归集需要收集甲的数据,包括纳税人的姓名、身份证号码、纳税申报记录、职业、性别等,这些数据都是对甲的客观事实记录,以某种数据结构的形式存在于系统中。数据预处理的目的在于减少数据的不确定性,初步提取数据之间的内涵和意义(信息)。甲的数据经预处理之后,可以获得一系列事实命题,如“甲是男性”“甲的职业是服装行业的主播”等。这些以事实命题或者判断形式呈现的就是信息,能够减少某种不确定性。但是,这些事实命题依然属于“事实判断”的范畴。因此,信息中并不存在“歧视”。
3. 知识。知识是对信息进行抽象概括所提取的规律性认识。人类因为具有感官与意识(认识能力),才能发现或获取先验知识与经验知识。机器学习算法获取知识的方式不同于人类,无监督学习算法的学习方式是从未标记的数据中发现模式、结构或隐藏的关系,主要目标是聚类、降维和关联规则挖掘。聚类的目的在于将未经标记的原始数据集中的样本划分成簇(类),使簇内数据尽量相似,簇间数据尽量不同。在聚类的过程中,尽管输入数据不存在歧视,亦不存在人类知识介入的干扰,但无监督学习算法亦能从抽取的“信息”中自主习得歧视性知识。假设事实命题一:“乙是一家小型微利企业”;事实命题二:“乙在2022年度未按时缴纳税款”;事实命题三:“乙因偷税行为曾遭受一次税务行政处罚”,上述呈现“信息”的事实命题均不包含歧视。但是,无监督学习算法在聚类过程中,可能将“企业规模”作为与“偷税行为”相关的重要特征,而习得某种具有歧视性的知识:“小型微利企业都是偷税的高风险群组”。有监督学习算法的“自主学习”需要以“人类标注标签(人类知识)”为前提,才能训练出学习模型。正是因为“人类标注标签”环节的存在,有监督学习算法模型才会习得人类的主观意识形态或主观偏好。例如,法律规范中存在大量的不确定法律概念需要解释。在“主观故意是否是认定虚假纳税申报构成偷税要件”的解释标准上,不同学者的主张有所不同,有的学者认为虚假的纳税申报需要主观故意才能构成偷税;有的学者认为错误的(非主观故意)纳税申报也是虚假的纳税申报,应构成偷税。学者的不同主张可能导致不同的标注结果,最终,有监督学习算法可能习得两种或某种标注规则,从而导致歧视性结果,即同一个纳税人因同一事实却获得不同的评价。由于“算法黑箱”的存在,机器学习算法的可解释性偏弱,其究竟是如何抽取信息之间的关联性从而自主发现某种知识作为分类或聚类的决策规则是外部不可知的。因此,数字行政行为算法歧视形成于机器学习算法自主学习的“知识发现”阶段,即前述的模型选择与训练环节。
4. 决策(输出)。此处的决策是指机器学习算法通过对数据和信息进行分析处理、特征选择之后,自主发现知识,并在此基础之上形成对某个任务或某个问题的回答。输出包含歧视性的决策结果并不意味着立刻对相关人权利义务产生实际影响,而是一种潜在的风险。
5. 数字行政行为。数字行政行为是算法决策结果执行与应用的行为方式,是潜在的机器学习算法歧视风险转变为现实危害的载体,能够对行政相对人及其他利害关系人产生实际的法律效果。
三、数字行政行为算法歧视的规制困境
规制数字行政行为算法歧视的正当性来源于康德所主张的“人是目的,而不是手段”。然而,对当前数字行政行为算法歧视的法律规制情况进行深入分析,发现其在事前、事中、事后三个环节分别面临不同的规制困境。
(一)事前规制困境:算法公平标准缺失
依据《中华人民共和国标准化法》等相关规定,此处的算法公平标准具有双重性质,既是一种技术标准,也是一种特殊的行政规范性文件。算法公平标准的具体内涵是指为了在一定范围内获得最佳秩序,经协商一致制定并由公认机构批准的以法律、伦理道德为引导的公平性定义去设计公平机器学习算法的一种能够共同使用和重复使用的规范性文件。“算法公平”标准是事前控制算法歧视风险的手段之一,能够从源头上有效避免数字行政行为算法歧视的生成。在通常情况下,数字政务平台建设要经历软件计划、软件开发和软件运行三个周期。在软件计划和软件开发阶段,“算法公平”标准的缺失将导致算法歧视事前规制困境。
1. 缺失“算法公平”标准的具体表现。在数字政务平台软件计划、开发阶段,未设立“算法公平”标准,忽视了算法歧视风险。在软件计划时期,研发人员主要有问题定义和可行性研究两个任务。受到公平机器学习算法高研发成本的限制,研发企业并不会过多关注算法公平,问题定义主要涉及数字政务系统所要解决的技术问题和所要实现的技术目标。可行性研究报告的主要作用在于帮助研发企业尽可能规避法律风险。在软件开发时期,研发企业与行政机关之间会签订一项技术合同,即“软件需求规格说明书”,其也是产品验收的依据。即便行政机关在该技术合同中提出算法公平的技术要求,研发企业也会以机器学习算法公平研发成本高昂、既有技术缺陷为由而拒绝实现。而且,行政机关由于缺乏相关专业知识与技术、算法公平标准,亦很难判断该软件应用是否达到了法律规定的“禁止歧视”的要求。在程序编码阶段,对算法的重要代码进行中文或者英文注解是规制算法歧视的方法之一。注解可以帮助不具备专业知识的人员明白算法运行的原理,甚至是“算法黑箱”。但是,为了追求效率与利润,研发企业往往不会要求研发人员用自然语言对重要的程序代码进行注解。另外,在数字政务系统正式投入运行之前,研发企业需要反复对软件进行测试。软件测试主要是通过人工或技术工具辅助测试的方法来检查代码的编写是否存在逻辑错误、语法结构问题、不当使用全局变量与局部变量、循环嵌套错误等技术问题,确保软件能够实现“软件需求规格说明书”明确的主要功能,而不是去测试使用的机器学习算法是否公平提取了数据特征、是否公平建模、是否公平决策,也不会去测试软件运行的最终结果是否合乎社会公平正义的要求。
2. 算法公平标准化存在困难。标准产生的基础是科学、技术和经验的综合成果。算法公平标准自身需要具备科学性和先进性,以便于研发企业遵守和执法机关监督,从而在源头上消除或避免算法歧视。但是,“算法公平”标准化涉及多个维度和多种因素。一方面,难以明确定义算法公平的概念。明晰概念是度量机器学习算法公平性的前提条件,然而“算法公平”这一概念在理论界与实务界尚未达成共识,众说纷纭。另一方面,算法公平性指标的选取难、量化难。由于机器学习算法决策链与歧视链是同一的,每个环节都需要大量数据、背景信息、领域知识的支撑,这不仅会影响决策结果的公平性,也会增加算法公平性指标的选取难度和量化难度。因此,算法公平标准化所面临的困难进一步增加了对“算法歧视”进行事前规制的难度。
(二)事中规制困境:缺乏对算法行政权力的运行制约
实际上,数字行政行为算法歧视是算法行政权力与平等权关系在数字政府领域的具体表现。数字行政行为是算法行政权力的载体,对数字行政行为算法歧视的事中规制需要从控制算法行政权力的运行入手。历史已经证明,法律规则是控制权力的最有效方式。目前,我国法律采用多元控权方式来对权力进行规制,主要包括实体法律规则、程序、权力、权利等对权力的控制。但是,这些控权方式尚存在缺陷,难以有效规制算法行政权力的运行过程,无法保障公民或法人享有的平等权益。
1. 现行实体法律规则倾向于控制算法私权力。现阶段我国初步形成了包括法律、部门规章、地方性法规、行业自治规范在内的多层次人工智能治理规范体系,但人工智能治理规范的调整对象侧重于“私人领域中的算法、数据及其现象”,治理主体以政府为主导,治理内容侧重于强调人工智能的安全性、个人信息的隐私保护、技术的创新发展等。譬如,《生成式人工智能服务管理暂行办法》第四
条第二款规定,“在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视”,该款规制的是造成算法歧视的私权力主体。另外,行政法的功能在于控制行政权力,保障公民权利。行政法对行政权力控制的基本原则是“依法行政”,来源于“人民主权”的宪法原则,其背后的法治逻辑是法无授权不可为。但是,现有行政法律规范忽视了“算法行政权力”对公民平等权及权益的侵害。而且在实践中,行政机关通过制定大量的行政法规、行政规范性文件的方式来控制算法私权力,反而进一步导致算法行政权力的扩张并凌驾于平等权之上。
2. 正当法律程序制度难以制约算法行政权力。现阶段,既定的正当法律程序制度无法有效制约算法行政权力的运行过程并保护行政相对人的平等权。正当法律程序原则的基本含义是指行政机关作出影响行政相对人权益的行政行为必须遵循正当法律程序,包括事先告知相对人、向相对人说明行为的根据、理由,听取相对人的陈述、申辩,事后为相对人提供相应的救济途径等。替代性数字
行政行为和辅助性数字行为都已经在某种程度上架空了行政法的正当程序制度。譬如,由于“算法黑箱”的存在,行政机关无法向行政相对人说明数字行政行为的依据、理由。替代性数字行政行为完全由机器学习算法自主决策,无法满足“听取相对人的陈述、申辩”的程序要求。
3. 以权力制约算法行政权力的制度设计滞后于技术发展。孟德斯鸠认为:“从事物的性质来说,要防止滥用权力,就必须以权力约束权力。”以权力制约权力是一种政治学范式,我国现阶段对行政权力的制约主要依靠立法权、监察权、司法权。但是,《中华人民共和国监察法》(以下简称《监察法》)和《中华人民共和国监察法实施条例》仍存在立法疏漏。在立法层面存在“算法行政权力”监察缺失的制度漏洞,未明确规定针对性的监察措施及手段。
4. 平等权对算法行政权力的控制效果极为有限。权利制约权力的理论基石是人民主权论,将公民权利视为制约和平衡国家权力的一种社会力量。国家权力的运行以保障公民权利的实现为导向,平等权作为宪法规定的一项公民基本权利,禁止歧视是平等权的内在核心。平等权在行政法领域由法定权利转换为现实形态主要依赖于算法行政权力运行的载体数字行政行为。然而,平等权对算法行政权力行使的制约只是一种消极制约,其只是作为一种警示和标识,时刻提醒算法行政权力不能逾越权力的法定界限。因此,在数字行政行为作出的过程中,难以保证平等权的实质落实。另外,由于算法行政权力运行不透明、缺乏可解释性,公民与算法行政权力行使主体之间存在信息不对称,以平等权制约算法行政权力最终沦为一种修辞技术。
(三)事后规制困境:数字行政行为算法歧视认定困难
法谚有云,“无救济即无权利”。公民、法人或者非法人组织遭受数字行政行为算法歧视的侵害,可寻求行政救济。现阶段,我国的行政救济制度体系主要由行政复议、行政诉讼、行政赔偿等法律救济制度组成。但是,现有的行政救济制度对数字行政行为算法歧视的救济不足,主要体现为数字行政行为算法歧视存在认定困难。
数字行政行为算法歧视是一种新的行政争议,依法认定该违法事实的存在是法官进行裁判活动的逻辑起点,也是行政复议的重点审查内容,亦是被告或被申请人承担行政赔偿责任的前提条件之一。行政救济的一般裁决逻辑是以事实为依据,以法律为准绳,即先查明事实,解决事实问题,之后适用法律,解决法律问题,作出裁决。行政诉讼以审查行政行为合法性为原则,以合理性审查为例外。《中华人民共和国行政诉讼法》(以下简称《行政诉讼法》)及司法解释主要采用列举式的方法规定了行政诉讼的受案范围,当数字行政行为算法歧视已经或可能对行政相对人的人身权、财产权等合法权益造成侵害时,宪法规定的平等权以“禁止歧视”的形态进入实质性司法审查环节。2023年修订的《中华人民共和国行政复议法》(以下简称《行政复议法》)第三十二条明确规定:“对当场作出或者依据电子技术监控设备记录的违法事实作出的行政处罚决定不服申请行政复议的,可以通过作出行政处罚决定的行政机关提交行政复议申请。”这条规定在某种程度上为行政处罚领域的数字行政行为算法歧视提供了行政复议渠道。对于其他场域的数字行政行为,可运用法解释学方法,依据《行政复议法》第十一条第十五款的规定“认为行政机关的其他行政行为侵犯其合法权益”进入行政复议范围。行政复议主要审查具体行政行为,重点审查被申请的具体行政行为的合法性与合理性(适当性)。但是,《行政诉讼法》《行政复议法》及相关解释条例并没有对数字行政行为算法歧视的构成要件(证明对象)进行详细规定。因此,该违法事实的认定需要法官或行政复议机关凭借自由裁量权,运用证据证明或基于经验法则、逻辑规则进行事实推定等法律方法进行认定,即确定证据材料与案件事实之间的证明关系。行政诉讼中被告的证明对象是被诉具体行政行为的合法性,行政法规定由作出数字行政行为的行政机关承担举证责任,其应当提供被诉具体行政行为所依据的事实证据和规范性文件。但是,这只能证明数字行政行为的形式合法性,并不能否定数字行政行为算法歧视的实质违法性(明显不当)。
法官或者行政复议人员需要依据行政法规确立的合理性审查标准“明显不当”,对“数字行政行为算法歧视的合理性”这一待证事实进行证明。一般从两个方面进行判定。一是行政机关及其工作人员实施的行政行为虽然没有违反法律的禁止性规定,但是却明显不合情理或不符合公正的要求。然而,从语义学角度来看,“明显”“不当”都属于法官或行政复议人员自由裁量的范畴。法律没有对数字行政行为算法歧视的构成要件进行科学规定可能会导致法官或行政复议人员自由裁量权的滥用。二是行政裁量权的行使不合理或不公正。行政法中的不确定法律概念是行政裁量权的合法性根基。但是,替代性数字行政行为本质上由机器学习算法自主决策执行;辅助性数字行政行为由机器学习算法自主决策,再由行政机关及其工作人员负责执行,属于多阶段行政行为。在数据预处理、人工标注标签环节,研发人员或法学专家依赖于自身的经验事实与知识、个人的喜好与价值等意识形态,对“违法事实”“情节轻重”“公共利益”“处罚理由与根据”“过罚相当”等不确定法律概念进行解释并进行人工标注。但是,数字行政行为实际上解构了“行政自由裁量权”,这导致既有法律规定的“明显不当”这一审查标准并不能实质性解决数字行政行为算法歧视争议。综上所述,数字行政行为算法歧视存在认定困难导致行政救济制度无法有效救济行政相对人的具体平等权及其他合法权益。
四、数字行政行为算法歧视法律规制的路径选择
数字法治政府建设既是全面建成社会主义现代化强国的重要组成部分,也是贯彻全面依法治国战略的必然要求。对数字行政行为算法歧视的法律规制应从事前预防、事中监督和事后救济三个方面出发,完善行政法律规范体系,形成高效的行政法治实施体系和严密的行政法治监督体系。
(一)确立算法公平标准:平衡技术创新与公平价值之间的冲突
确立算法公平标准是从源头上消除或减少算法歧视的手段之一,其应贯穿数字政务系统与机器学习算法的全生命周期。
1. 厘清算法公平的内涵。笔者认为,算法公平指的是在机器学习算法决策过程中,不存在因个体或群组所固有或后天的属性而引起的不合理区别对待,不会据此产生“不平等”结果。
(1)预测公平与比例公平。预测公平是指同一种机器学习算法对相似个体或群组的预测结果是相同或类似的。机器学习算法从原始数据中进行特征提取所形成的对个体或群组属性或特征的集合(信息)不包含歧视,歧视性知识产生于机器学习算法的模型选择与训练阶段。因此,在机器学习算法正式应用到数字政务系统之前,需要使用原始数据样本对已经训练好的模型进行预测,判断预测结果是否合乎预测公平的要求。比例公平是指机器学习算法进行自主化决策时要实现受保护群体(弱势群体)与非受保护群体之间的比例相等,避免反向歧视现象。一方面,比例公平是对预测公平的一种纠正,避免间接歧视。间接歧视指的是在相同条件下,罔顾特定群体或个体的特征而适用某项普遍性且合理的规则。人类的不同群体都有各自显著的固有或后天的属性,差异性是客观存在的。如果完全依据预测公平要求实行“同等条件,同等对待”,则可能造成实质不平等,合理的差别对待不构成歧视。另一方面,如果为追求实质平等,对特定群体给予的特定保护超过必要的限度而形成对一般群体的不合理差别对待,又会造成反向歧视。因此,比例公平要求机器学习算法既要特别关注受保护群体(弱势群体),也不能忽视非受保护群体。
(2)过程公平与结果公平。过程公平是指在机器学习算法自主决策过程中,保证个体或群组享有获取资源和资格的平等机会。结果公平是指机器学习算法自主决策的最终结果应当对相似个体或群组是相同或类似的,不存在不合理的区别对待。决策结果是机器学习算法在预测结果基础上结合其他信息作出的最终结果,其他信息包括预测的置信度、成本、风险、约束条件、法律法规等。预测公平可以确保预测结果公平,但是预测结果不一定准确,这会影响决策结果的准确性与公正性。因此,机器学习算法模型通常使用预测的置信度来表示模型对预测结果的确定性或可靠性程度。置信度以概率值的形式表示,范围从0到1,其中0表示“不可信”,1表示“非常可信”。譬如,对某个区域内的交通违法行为进行处理,预测结果认定某事件交通违法并给出置信度为0.1(低置信度),系统可以将事件标记为“需要人工审核”,并通知交警进行进一步调查。置信度为0.85(高置信度),机器学习算法则将预测事件的特征与法规信息进行映射,以识别该违法行为的严重程度、应缴纳罚款数额等信息,自动生成一份罚单并以电子邮件的方式发送给违法者。因此,预测结果与决策结果存在差异,有必要将结果公平纳入算法公平的范畴,以确保最终的决策结果不会对某些个体或群体产生偏见、歧视。综上所述,机器学习算法公平需要符合过程公平、结果公平的要求。
2. 建立科学的算法公平指标体系。围绕前述确定的算法公平的内涵,科学建立算法公平指标体系,这不仅有利于研发企业遵守算法公平标准,而且便于行政机关进行事前监管。但是,算法公平指标的选取不宜过于细化,以免限制技术创新、增加企业成本并提高监管难度。算法公平性指标体系可包括四项指标。
(1)预测公平指标:平等准确率。在实践中,研发企业往往只注重提高机器学习算法模型的整体预测准确率,而忽视相似个体或群组之间预测准确率的不公平性,这将导致在同等约束条件下,机器学习算法模型对某一个特征群体的预测准确率高,而对另一个特征群体的预测准确率低。例如,假设某省教育厅委托某企业研发了一个机器学习算法模型用来预测全省高级中学对于额外教育资源(如高科技教育技术设备)的需求。该模型也许在整体上能成功预测全省高级中学额外教育资源需求,但是对于经济不发达地区的学校的预测准确率可能远远低于经济发达地区的学校。预测准确率的不平等会导致资源分配不均,因此,设立平等准确率作为预测公平的量化指标,能够确保在同等约束条件下机器学习算法处理具有相似特征或属性的个体或群组时实现相似的预测准确率,从而保障预测结果的公平性。
(2)比例公平指标:比例公平率。比例公平率是一个衡量标准,用于评估某项资源、机会或结果在受保护群体与非受保护群体之间分配的相对公平性。比例公平率的数值是通过计算获得某项资源、机会或结果的个体在各自群体中所占的比例而得出的。由此可知,比例公平率(R)的计算公式为:R=C/Z,其中,C是该群体中获得某项资源、机会或结果的个体数量;Z是该群体的总人数。假设某政府部门在住房资源有限的条件下,研发一个机器学习算法模型对需要救助的对象进行优先性排列,数据集包括个人收入、工作状况、性别、年龄等信息。在以“贫困程度”为衡量指标的情况下,机器学习算法将“女性”“孤儿”“60岁以上的老人”“残疾人”等群体确定为受保护群体,其他群体则被视为非受保护群体。假定受保护群体的个体数量为100人,非受保护群体的个体数量为300人,他们都有机会获得住房资源。最终,机器学习算法分配住房资源的情况如下:受保护群体获得住房资源的数量为40人,非受保护群体获得住房资源的数量为120人。比例公平率计算过程如下:受保护群体的比例公平率为40/100=0.4;非受保护群体的比例公平率为120/300=0.4。在这种情况下,受保护群体和非受保护群体的比例公平率是相等的,都是0.4。这意味着在住房资源的分配中,受保护群体和非受保护群体获得资源的比例是相同的,符合比例公平。
(3)过程公平指标:机会指数。机会指数是度量机器学习算法决策过程中不同群体在获得特定资源、权利或机会方面平等程度的量化指标。笔者将机会指数的计算公式设置为:H=-∑i=1 n Pi ×ln(Pi )。其中,H代表机会指数;n表示群体总数;Σ表示求和,即对所有n个群体的计算累加。Pi表示各群体的机会分配比例,指的是在某个领域内某个群体获得某种机会的比例。Pi的取值范围为[0,1]。ln表示自然对数。H的取值范围为[0,ln(n)]。当H的值越接近于0,表示机会分配越不均等;值越接近于ln(n),表示不同群体之间的机会分配越均等。假设某政府部门要求政府采购方面的机器学习算法要让不同性质的企业在投标获得合同方面的机会均等。假定机器学习算法输出的预测结果:国有企业投标100次,获得合同90次,机会分配比例为0.9;私营独资企业投标150次,获得合同10次,机会分配比例为0.067;私营合伙企业投标200次,获得合同15次,机会分配比例为0.075。将该数据代入机会指数的计算公式:H=-[(0.9×ln(0.9))+(0.067×ln(0.067))+(0.075×ln(0.075))]≈0.4702。相较于ln(3)≈1.0986,0.4702更接近于0,表明该机器学习算法在政府采购领域存在不公平分配的情况,不同性质的企业获得政府采购合同的机会相对不均等。
(4)结果公平。前述三类量化指标设立的最终目的是从技术角度确保结果公平。如果从定量角度再行建立“结果公平量化指标”,会使研发企业承担过多的社会责任而遏制技术创新。为了平衡技术创新发展与公平价值之间的冲突,判断“结果公平”的权利应交由行政相对人,因为每个人都是自身利益的最佳判断者。但是,研发企业应在软件上设置相关的反馈渠道,当行政相对人认为结果不公平时,其亦可寻求法律救济。此外,研发企业应当对机器学习算法的原理进行适当注解。在行政自由裁量的基础上,相关执法机关可依据前述三类算法公平的量化指标,对算法歧视进行事前监管。
(二)完善算法行政权力运行制度:保障平等权
事中规制数字行政行为算法歧视的首要问题是完善“算法行政权力”运行制度,以法律规则的形式让数字行政行为有法可依,确立监察权对算法行政权力的制约制度,赋予行政相对人以算法解释权利,保障平等权。
1. 制定规制算法行政权力运行的法律规范。我国需要在法律或者行政法规层面制定规制算法行政权力运行的法律规范,弥补立法空白,保障平等权不受数字行政行为算法歧视的侵害。相关法律规范的主要内容集实体规则与程序规则于一体。
(1)明确算法行政权力运行的边界。数字法治政府建设意味着算法行政权力正通过数字行政行为这一载体渗透到人们日常交往活动的方方面面。但是,以机器学习算法为核心的人工智能技术目前还属于弱人工智能的范畴,地方政府需要结合实际情况,慎重选择人工智能技术适用的领域。对于与公民或法人的人身权或财产权密切相关的领域,可适当依靠辅助性数字行政行为,尽量避免替代性数字行政行为侵犯公民或法人享有的具体平等权。
(2)定期检查和监督。各级政府内部需要设立一个独立的技术机构,专门定期审查数字政务系统的算法或代码的运行情况,着重依据前述确立的算法公平标准检测其运行结果是否存在歧视,一旦发现相关问题,及时报告。行政机关内部的定期检查与监督属于横向的权力制约,以行政权力制约算法行政权力。
(3)建立信息弱势群体平等权程序保护机制,避免数字不平等。数字不平等是指一些信息弱势群体因年龄、学历、经济状况、数字素养与能力、数字技术发展不平衡等因素而无法参与、使用或享受相应的数字技术资源。数字不平等的存在会导致数字行政行为算法歧视。假设某政府部门使用数字政务平台来自动审批公民的社会福利申请,但是一些文化水平较低的老年人可能不会使用智能手机,他们可能无法轻松提交在线申请或者不知道应具体提交哪些电子文件(如家庭收入、资产、就业等),信息缺失或错误都可能导致算法歧视。因此,在数字政府建设过程中需要考虑信息弱势群体,建立信息弱势群体平等权程序保护机制,为行政相对人提供选择权,让行政相对人可以自行选择数字化行政或人工服务等方式。
2. 构建数字行政行为算法歧视审查制度。数字行政行为算法歧视审查制度本质上是以监察权制约算法行政权力,算法歧视审查制度由审查主体、审查对象、审查原则、审查公开四个要素构成。
(1)审查主体。针对数字政务系统的运行过程,算法歧视的审查主体应由地方各级监察机关承担。由于我国数字法治政府建设处于初期阶段,辅助性数字行政行为将在很长一段时期内存在。在行政处罚、行政许可、政府采购、行政立法等领域都可能会出现公职人员对数字行政行为算法歧视视而不见或滥用算法行政权力侵害公民平等权的情况。由于数字行政行为算法歧视的隐蔽性,各级监察机关要化被动监督为主动监察,依据前述的算法公平标准,定期对数字政务系统运行过程中的“算法歧视”进行风险审查。
(2)审查对象。数字行政行为算法歧视的审查对象包括算法模型、算法输入与输出数据、系统日志、访问记录、软件需求规格说明书、总体设计说明书和详细设计说明书等与算法运营相关的资料信息,其中,算法模型是数字行政行为算法歧视审查的首要对象,算法输入与输出数据或信息是算法歧视审查的重要内容。
(3)审查原则。各级监察机关在对数字行政行为算法歧视进行审查时,应当遵循以下两项原则。一是依法审查原则。依法审查原则要求完善《监察法》,将算法行政权力纳入监督范围。另外,还需出台与《监察法》相关的配套法规,专门针对数字行政行为算法歧视进行审查。二是独立审查原则。各级监察机关行使监察权对数字行政行为是否存在算法歧视进行审查时,不受其他行政机关、社会团体和个人的干涉。
(4)审查公开。在审查完成之后,审查机构需要公开数字政务系统的算法歧视审查报告。一方面,行政权力和算法的结合对公民权利的侵犯风险。另一方面,由于数字政务系统中的算法模型及相关信息既属于商业秘密,又属于政府信息。商业秘密的主张和政府决策的民主性、透明性之间的冲突也愈加激烈,为了平衡技术创新与公开透明价值之间的冲突,算法模型的源代码应给予保密,只需要在数字行政行为算法歧视审查报告中解释机器学习算法的原理。
3. 赋予行政相对人算法解释权。平等权自身对算法行政权力运行的制约是一种消极制约,可以通过赋予行政相对人算法解释权以保障平等权。《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第二十四条第三款规定了公民享有算法解释权,“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”。但是,该款不完全适用于公法领域,也排除了法人或非法人组织享有的算法解释权。笔者认为,可以在《个人信息保护法》第三节“国家机关处理个人信息的特别规定”中增加一款规定,“国家机关通过自动化决策方式作出对行政相对人合法权益有重大影响的数字行政行为,行政相对人有权要求国家机关及时予以说明,并有权拒绝国家机关仅通过数字行政行为作出决定”。一方面,在行政法制监督关系中,行政相对人是监督主体,理应享有算法解释权。另一方面,算法解释权的最终目的是保障平等权,平等权作为宪法基本权利客观价值秩序,即便算法行政权力在运行过程中并没有造成数字行政行为算法歧视,国家机关在宪法上仍然负有义务采取积极的措施实现对平等权的保障。因此,在作出数字行政行为时,国家行政机关除了履行行政法规定的说明理由义务,还须主动向行政相对人发送该数字行政行为的机器学习算法原理解释文件或者由监察机关公布的该数字行政行为算法歧视审查报告。
(三)明确数字行政行为算法歧视的构成要件:提供有效救济
明确数字行政行为算法歧视的构成要件是行政救济制度发挥救济行政相对人权益功能的关键要素,是行政复议机关或者人民法院认定数字行政行为具备违法性或不当的构成要件,也是国家机关承担行政赔偿的前提条件。数字行政行为算法歧视的构成要件主要包括主体要件、行为要件、损害结果要件和因果关系要件。以行政主体名义实施的数字行政行为需要满足四个构成要件,才能构成数字行政行为算法歧视。
1. 主体要件。行政主体理论认为,行政主体是指享有国家行政权,能以自己的名义行使行政权并能独立地承担因此而产生相应法律责任的组织,包括行政机关和法律法规授权的组织。虽然替代性数字行政行为事实上是由机器学习算法自主行使算法行政权力,但在弱人工智能阶段,法律暂时不需要赋予数字政府领域中正在使用的人工智能技术或机器学习算法以行政主体资格。为了避免行政主体以替代性数字行政行为是由机器学习算法完全自主作出、不具备行政主体资格为由而逃避职责,故应明确规定替代性数字行政行为的作出必须冠以具体的行政主体名义。这有利于行政相对人申请行政复议或提起行政诉讼,也便于数字行政行为算法歧视法律责任的分配与承担。因此,数字行政行为算法歧视的主体是授权使用机器学习算法作出数字行政行为的具体行政机关,能够独立承担相应法律责任。
2. 行为要件。数字行政行为需存在“不合理的区别对待”。“不合理的区别对待”是指机器学习算法因个体或群组所固有或后天的属性,对处于相同或类似情况下的个体或群体进行不公正的差异对待。亚里士多德在《尼各马可伦理学》中曾言,公正在于同类同等对待之。相同条件,差别对待,谓之歧视。但是,合理的区别对待不构成歧视。法官或行政复议人员在查清数字行政行为作出依据合法的基础上,还需要审查数字行政行为存在的区别对待是否具有合理性。前述提及的算法公平标准在法律性质上是一种行政规范性文件,法官或行政复议人员可以参照适用来解决区别对待的合理性问题,也能加强待证事实与裁决结论之间的确证关系以及裁决文书或行政复议决定书释法说理的质量。
3. 损害结果要件。数字行政行为存在的“不合理区别对待”必须给公民、法人或者非法人组织造成了“不平等结果”,即损害事实的发生。平等权是宪法规定的一项基本权利,但我国没有确立基本权利诉讼制度,平等权往往需要借助其他法定权利或推定权利(如财产权、教育权、隐私权、参与权等)具体化为具体平等权之后,才能进入法律救济的范围。当数字行政行为存在不合理的区别对待给行政相对人造成损害时,行政相对人可以在申请行政复议或提出行政诉讼时一并提出行政赔偿的请求,但行政相对人只能在法定损害事实范围内主张财产损害和人身损害、物质损害和精神损害。
4. 因果关系要件。因果关系要件是指损害结果与行政主体的数字行政行为具有法律上的因果关系。法律上的因果关系是指客观事物之间引起与被引起的关系。数字行政行为中形成的不合理的区别对待与不平等结果之间需要具有因果关系,因为并非数字行政行为导致的不平等结果都可以归因于算法歧视。譬如,某个政府机构负责处理某项许可证申请,申请人的信息已经被错误地记录在系统中,由此导致符合申请条件的申请人被拒绝。在这种情况下,由数字行政行为中的数据错误因素导致不平等结果,并不构成数字行政行为算法歧视。
五、结语
机器学习算法与行政权力的深度融合不可避免地带来数字行政行为算法歧视问题,侵害行政相对人及其他利害关系人的合法权益。有效规制数字行政行为算法歧视不仅需要明确其背后的技术生成逻辑,而且需要基于当前规制困境的分析结果,积极采取针对性措施。这些措施主要包括设置算法公平标准、优化算法行政权力运行制度设计、确定数字行政行为算法歧视的构成要件。需要注意的是,随着数字中国建设的快速推进,以机器学习算法为核心的人工智能技术在数字监察领域获得了广泛应用,如何监督数字监察权力本身亦需要进行制度设计,以有效监督算法行政权力。总之,实现对数字行政行为算法歧视的法律规制是数字法治政府建设的应有之义,也是完善中国特色社会主义法治体系的必然要求。