摘 要:在数字化发展阶段,荷兰通过组建关键信息数据总库和制定以人为本可信任的人工智能算法规则,完善了个人信息保护的基本权利保护框架和数据保护框架,为引入风险路径创造了条件。在数字化成熟阶段,SyRI案不仅是风险路径的首次实际适用,其更深远的意义在于揭示了复杂算法中,风险分析在分类手段、受力对象和推导逻辑上的颠覆性改变及其诱发的路径风险。我国个人信息保护制度的完善可以借鉴荷兰经验,并结合自身制度优势,通过使用更开阔的系统视角和更包容的协同工具,来应对风险路径从预防走向侵入所带来的挑战。
关键词:个人信息保护;算法;风险;侵入型;自动化
一、问题的提出
欧盟《通用数据保护条例》(General Data Protection Regulation,简称GDPR)作为极富变革意义的尝试,自被实施起便受到广泛关注。这极大地带动了人们对数字治理的讨论,尤其是治理模式的转变对个人信息保护的影响。但同时,这些讨论大多聚焦于突出问题和具体权利,而少有围绕整体的制度设计和运行展开。这主要体现在三个层面:首先,是个人信息保护制度的构建层面;数据结构和算法是数字治理的两大基石,对数据结构的讨论应先于算法,因为它决定了算法所处理的对象及其呈现形式。换句话说,数据结构的发展水平决定了数字治理所处的阶段,为诸如“科技在挑战法律什么”一类的问题设置了重要的时段,再匹配与发展阶段相适应的算法规则,实现个人信息保护技术功能与立法目的的对接。近年来,我国虽涌现了大量针对数据基础设施建设和算法规则的讨论,却少有将二者结合的系统分析。技术安全与技术隐私的提升并未被有效转化为个人信息保护的实现。其次,是个人信息保护制度的路径层面;GDPR并非一场革命,而是现有法律内容的演变,它没有改变欧盟积极推进数字化的态度。新时期欧盟个人信息保护制度的重点,在于成员国如何实现技术发展与权利保护的双轨平衡,而国内对此关注较少。这不仅影响我们对欧盟数字战略的解读,一定程度上还影响了我国自身法律制度的完善:随着《网络安全法》《民法典》《数据安全法》《个人信息保护法》等立法陆续颁行,我国个人信息保护的制度框架基本成型。然而,无论是围绕知情同意的系列规则设定,还是与个人信息自决相关的权利义务细化,它们都更多地在强调各自的外在功能,而不是《个人信息保护法》第1条立法目的中“保护个人信息权益”,“促进个人信息合理利用”所蕴含的内在平衡。最后,是个人信息保护制度的实践层面;我国的数字化仍处于发展阶段,实践中主要关注具体问题的应对,而少有涉及数字化成熟阶段可能存在的系统性挑战?国内已有学者觉察到这种隐忧,并建议引入风险路径。但“不知何为不知”的元认知匮乏,使我们无法预见这种方法是否将招致更多难题。基于实践反馈的法律调适仍是应对不确定性的最佳策略之一。这使我国在立足本国国情的同时,有必要放眼域外。
本文正是以这三个层面的问题为原点,以欧盟框架下荷兰个人信息保护的制度构建、路径选择和实践问题为线索展开。将荷兰作为研究对象具有重要的理论和现实意义:一方面,荷兰的数字化程度和对基本权利的保护程度同时处于世界领先水平。其国内层面对欧盟双轨战略的解读与演绎,能为我国识别当前问题,提升治理水平提供参考。另一方面,2020年荷兰海牙地方法院针对政府利用“系统风险指标”(System Risk Indication, 简称SyRI)工具进行反福利欺诈案的判决具有里程碑式意义。它不仅是风险路径在GDPR中被明确提出后的首次现实适用,更揭示了风险分析在复杂算法中产生的异化和影响,为我国理解风险路径并警惕其路径风险提供了难得的样本。
二、欧盟框架下荷兰个人信息保护的制度构建
(一)工具塑造——以数据架构与算法规制为核心的“透明工具”补强
欧洲的个人信息保护,最早始于对个人住宅等传统隐私内容的关切,其后随着信息技术的扩张,发展为对数据收集和处理行为的事前规制。以隐私权为代表的基本权利保护框架与数据保护框架,逐渐成为欧洲保护个人信息的两大组成部分。需要注意的是,介于数据保护规则对于个人隐私等基本权利同样起到保护作用,现有研究倾向于将数据保护规则置于基本权利保护框架下进行解释。这种做法,一方面未能区分数据保护规则不同于隐私规则的功能取向,另一方面,也未能区分数据保护框架在个人信息保护制度中的独特立场;事实上,这种区分非常必要:基本权利框架用于确定公共机关和私人团体对个人生活的干预限度,其主要利用隐私权等保护基本权利的“不透明工具”,为权力设定规范性限制。数据保护框架则用于促进数据使用合法化,其主要利用以透明度为中心的程序规则作为“透明工具”,来引导权力正确行使。两种框架之间本是互为补充,协同作用。但长期以来,欧洲对基本权利的强调及其形成的大量判例,使基本权利框架和不透明工具受到广泛关注,数据保护框架和透明工具的独立价值被忽视了。不过,近年来欧盟数字化进程中,有意重新明确这种区分。这主要是通过组建数据架构和完善算法规则,以补强数据保护框架和透明工具来实现的。
荷兰早在1990年便采取了《电子政务行动方案》(Actieprogramma Elektronische Overheid),允许公共机关交换数据,组建互通的数据管理系统,以加强跨部门合作。随着这些系统数量的攀升,荷兰当局意识到“至少对于关键数据而言,只有建立超越行政组织结构的数据架构(Gegevensinfrastructuur),才能实现数据的有效利用”。于是,荷兰加速了数字化进程,通过《基本数据精简方案》(Programma Stroomlijning Basisgegevens),将标准不一的数据管理系统,整合为10个关键信息数据库(Basisregistraties,简称数据库)。随后,这些数据库又通过配套协议,最终整合为单一的,统一了定义、标准与分类的关键信息数据总库(Stelsel van Basisregistraties,简称总库)。为了确保透明度和信息可获得,总库中设置了分类目录,以方便特定数据需求者查询。以总库为代表的数据架构的形成,被视为是荷兰迈向数字化成熟阶段的关键。
在完成总库组建后,荷兰将重心转移到了算法规则。作为欧盟成员国,荷兰的国内政策需遵循欧盟的战略框架。在欧盟层面,其围绕算法规范提出了“以人为本可信任的人工智能” 这一理念,并通过《欧洲人工智能计划》《可信任的人工智能伦理指南》《人工智能白皮书:欧洲追求卓越和信任的方法》等文件,将该理念的内涵具体化。在荷兰层面,荷兰政府将其于2019年向议会呈递的《人工智能战略行动计划》《政府数据分析风险规范》,以及《人工智能、公共价值观和人权关系报告》,作为制定一切数字战略的基点。其内容主要涉及荷兰的算法规则对欧盟双轨战略的展开(见表一)。
(二)路径选择——个人信息保护的主轨难题与风险路径引入
从数据结构到算法规则,荷兰的数字化战略可以说是非常清晰的。一方面,它遵循欧盟的双轨战略,围绕基本框架提出了具体规定、要求和行动。另一方面,它没有照搬欧盟层面的内容,尤其是在“以人为本可信任的人工智能”还不具备明确定义时。相反,它在国内层面中提出了新的诠释,反向促进欧盟数字战略的发展。
然而,无论在欧盟还是荷兰层面,一个并未直接回答的问题是:数字治理中,技术发展和权利保护的双轨是否存在主轨?显然,数字治理中需要协调多重关系和利益,这意味着主轨只能是个案式的艰难选择。那么,此时的难题就变成了:实践中应如何平衡两条轨道的关系?欧盟明显意识到了数字化对既有方法带来的挑战,因此它明确提出“以风险为路径”将成为个人信息保护的主要方法。简单地说,风险是某种程度上可以预见的最终危险,它被用于基于对未来事件评估的决策,这一过程被称为风险分析和管理。GDPR并未对风险进行定义,但根据数据敏感度和可识别度对数据进行了类型划分。荷兰的《通用数据保护条例实施法》(Uitvoeringswet Algemene verordening gegevensbescherming,简称UAVG)中也引入了这种方法。更重要的是,荷兰政府正因使用一种名为SyRI的风险分析工具被诉至法院。
三、SyRI案:风险路径的实践样本
SyRI是荷兰政府用于自动链接公民数据的系统工具。它正是被运用于前文荷兰大力组建的总库中,通过数据挖掘方式实现数据的最佳利用。此外,SyRI还能从这些链接数据中识别存在的福利欺诈行为或高风险人群,以预防和打击犯罪。虽然反对声极大,但涉及SyRI的立法于2012年被通过,作为荷兰《工作与收入实施结构法》(Wet structuur uitvoeringsorganisatie werk en inkomen)的修订内容纳入第65条中。SyRI立法对数据使用的范围、主体、方式进行了明确限制。概括地说,SyRI链接的不是数据本身,而是被假名化的数据文件。有权使用SyRI的公共机关可以作为申请机关,要求荷兰社会事务和就业部(Ministerie van Sociale Zaken en Werkgelegenheid, 简称SZW)授权对特定数据文件进行风险分析;获批后,由市政府内部资讯机构进行分析并发现潜在命中结果。随后,潜在命中结果将被发回SZW的下属监察机构进行二次分析,并确定是否发送风险报告。若否,SZW必须立即销毁分析内容。若是,则将风险报告提交申请机关(或警察/检察院)。相关机关在收到风险报告后,必须进行调查,并且只有在确有欺诈嫌疑时才能采取行动;风险报告将存放于SWZ的登记册中,至多保存2年,公民可以申请查看。
可以看出,SyRI在实质和程序上都设有限制。荷兰立法者希望通过这些条款中所包含的透明和不透明工具,完善个人信息保护的基本权利框架和数据保护框架,并证成SyRI的合法性。但SyRI最饱受诟病之处在于:公民不会被自动告知正受到风险分析。公共机关希望利用风险模型,预测谁应受到监控,但这又不可避免地默许其同时对“高风险”和“非高风险”人群进行分析。因此,所有人都不知道他们是否正受到监视,更不清楚被怀疑的依据,这导致了社会普遍的不安与恐惧。荷兰政府因此被工会组织联合诉至法院,海牙地方法院于2020年2月5日作出判决,认定SyRI立法因违背《欧洲人权公约》(European Convention on Human Rights,简称ECHR)第8条尊重私人生活的要求而无效,要求荷兰政府立即停止使用SyRI。荷兰政府并未上诉,该案因此成为反对数字福利国家监视的重要先例。笔者将判决内容梳理为以下四个方面:
第一,是法院并未认定使用风险评估工具与隐私保护的目的不符。虽然隐私保护是原告关注的重点,但法院并不认为使用SyRI与个人隐私保护相冲突。相反,法院首先承认了政府利用数字技术进行反欺诈的必要性,因为它能确保福利的享有者是符合条件的公民。SyRI因确保公民的经济利益,获得了使用上的合法性。但同时,政府在使用数据时必须提供充分的法律保护,以获得公民的信任,这与预防和打击欺诈同样重要。如果缺乏对私人生活权利的充分尊重,那么将出现公民不愿提供任何数据的寒蝉效应。因此,国家有责任确保二者的平衡,而ECHR第8条为成员国的具体判断留有余地。
第二,是隐私权在基本权利框架和整体关系语境中的淡出。法院援引ECHR第8条作为论证起点,是因为它能将包括隐私权在内的各种权益,纳入保护私人生活的伞式范畴。与直接援引隐私权相比,该条的保护范围能延伸到个人自主、个人发展,以及与外部世界建立关系的其他基本权利。同时,虽然该条未直接规定个人数据权,但根据欧洲法院判例,对个人数据的保护也属于尊重私人生活权利的范围。这使法院在利益平衡时,可以同时考察基本权利框架和数据保护框架的要求。
第三,是法院回避了风险分析是否涉及自动化决策的技术讨论。案件中一个重要争点是:SyRI形成的风险报告是否包含GDPR第22条所禁止的,针对个人的自动化决策?这个问题实质上是对SyRI的数据挖掘和自学能力的判断,并直接决定SyRI对私人生活的干涉程度和严重性。法院处理的方式极为巧妙:一方面,它强调法院的职能不是以它认为合适的方式,赋予相关利益以社会价值。因此,它必须在技术评估中表现出足够克制。这体现在法院没有判定政府为防止技术被破解,有意留有黑盒是否适当;也未评估SyRI的自学能力,判断是否存在超越设计者认知的二度黑盒。另一方面,法院并没有放弃对SyRI的审查。它跳出算法黑盒本身,认为政府若要证明其实现了公正的平衡,必须证明它对私人生活的干涉是必要且与手段相称的。通过回避讨论自动化决策对基本权利保护尺度的影响,法院事实上跳过了风险路径在基本权利框架中的适用,而选择重点审查数据保护框架的要求。
第四,是法院基于相称性和可预期性判定SyRI未实现公正的平衡。法院承认SyRI立法的确设置了程序性和实质性的限制,但它们必须能确保个人数据不被任意筛查,尤其是数据架构为筛查提供便利时,任何数据链接行为都必须事先证明其必要性。GDPR第5条,UAVG中针对透明度、目的限制和数据最小化原则等条款为审查提供了依据,而SyRI显然没有满足要求:对于高风险者,他们不知道自己基于何种逻辑被怀疑,因此无法为自己辩护。对于非高风险者,他们同样有权知晓被筛查的理由和方式,因为风险报告的形成已经对私人生活产生了影响。换言之,数据保护框架中用于规范权力行使的透明度要求,在SyRI案中被延伸到所有被筛查的公民。政府无法证明为何对事实上不具高风险的公民进行风险分析是必要且适当的,未实现公平的平衡。因此,SyRI立法被判定为无效。
对于SyRI判决,笔者认为是完整且克制的。完整在于其提供了一个合乎逻辑的论证,在欧盟和荷兰现有制度框架下,解决了当前问题;克制在于法院虽然赞同自动化决策可能带来巨大挑战,却拒绝在案件中对其作出定性,为未来技术发展和制度调整留有弹性空间。后文中,笔者将延续对风险路径适用的追问,剖析其在数字化成熟阶段的演变。
四、风险路径的路径风险与传统保护规则的系统性破防
(一)数字时代风险分析的路径演变
一般而言,风险分析是指通过发现数据间的相关性,对个体或群体进行识别或排序,以确定其对他人或国家安全构成的风险程度。使用风险分析方法本身并不新颖,欧美国家早已将其用于预防性警务中,或作为一种执法和决策工具。在数字时代,风险分析的新颖之处在于,其逐渐从针对性、预防性的数据分析,转向普遍性、主动性的数据分析。普遍性在于,特定个人不再是风险分析的靶心,而是其类型化过程中的附带品。主动性在于,类型化的最终结果,不是形成作用于特定个人的决定,而是形成规模化的群体类型和适用于该群体的决策。这种在个体层面上的超越,不再是结果意义上的,规模上的量变;而是先发制人的,抽象层上的质变。换言之,传统的风险分析是在已有社会情境中,基于合理怀疑、特征或知识对特定人群进行分析,其结果是识别符合要求的个体集合(Groups of Individuals)。算法驱动下的风险分析则是先基于特定目的,指定某些特征作为抽象层建立假设和模型,再对社会情景中的人群进行分类的行为(Grouping),其结果是塑造特定类型的群体(Grouped Individuals)。觉察到这种变化至关重要,因为这事实上偏离了Beck所探讨的,依据已发生事件分布归纳的“可计算的不确定性”,转向了由数据架构和算法支撑的,关联个人特征与行为的统计模型,并使风险分析从预防(Preventive)走向了侵入(Preemptive)。
(二)侵入型风险分析的运行模式变化
1.改变分类手段:主动创造类别而非识别已有集合
这主要涉及事前类型划分的正当性与反歧视。侵入型风险分析的目标不再是识别,而是通过事先指定抽象层创造类别。分类行为本身是中性的,而分类目的,以及基于该目的选定的抽象层才是影响集合属性的关键。因此,审查风险分析的目的非常重要,但难点是绝大多数风险分析具有多重目的。例如,SyRI案中并存着政府打击犯罪和提升福利的双重目的,实现两者应遵循的规则和手段也截然不同。法院没有直接判断哪个目的在本案中占主导地位,而是审查分类本身是否以保护基本权利为导向。这也解释了为何被归入特定群体中的个人,即使尚未受到实际干涉就有权要求停止侵害,因为分类本身就可能因不尊重私人生活,而被认定为是不正当的,甚至构成歧视。
2.改变受力对象:超越“个人”和“集体”概念的“群体”
这主要涉及群体层面的数据处理。侵入型风险分析的分类先行,使群体成为数据利用的前端,而个人则退居末端。但现阶段,个人信息保护的制度框架仍以个人为原点展开:OECD颁布的《隐私框架》中,个人数据被定义为是与可识别个人有关的任何信息;GDPR中对数据主体的定义,同样是确保个人对与自己有关的数据处理具有一定的控制权,并主要基于个人知情同意。但事实上,这种保护极易被瓦解:其一,介于数据处理的数量与规模,个人实则很难了解某项数据的处理情况,并评估被侵害程度。其二,侵入型风险分析在操作层面是允许个人隐藏在群体中的,即使它根本无法掩盖个人特征。这种操作层面的模糊性与结果层面的精准性共同作用,使所有围绕个人制定的规则无法被适用。因为数据利用始终未刺破群体的外壳,分析发生在群体层面而个人仍是匿(化)名的,政府没有义务告知其数据正在被处理。其三,侵入型风险分析往往被知情同意规则的例外情形所涵盖。
以上因素,使得侵入型风险分析中很难落实个人知情同意规则,对于是否应考虑群体层面的规则制定应被重视。这里“群体”一词极具迷惑性,它使我们不禁想到已有的,对集体权利的讨论。二者区别在于,前者不再是个人特征在集体中的汇总,而是作为独立的层面存在。以隐私保护为例,集体隐私决定的是集体中进行个人信息共享的类型,与成员的私人生活密切相关,强调亲密与信任。从这个角度出发,将集体的隐私保护问题化解为对个人隐私的关怀这种做法并无问题,只要处理好每个成员的隐私,集体的隐私问题自然化解。然而,侵入型风险分析所针对的,是事前人为调整抽象层划分的群体。换句话说,从聚集形式上看,这些成员是被抽象组合在一起的,多数情况下他们并不相识,不一定存在与身份相关的特定事实。人为塑造的群体成为侵入型风险分析的起点,它不再是彼此关联的个体在集合中的呈现,而现有保护措施却都是从个人出发,遵循从“个体到集合”这种处理集体隐私的思路来处理群体隐私,显然有些错位了。
3.改变推导逻辑:在“事实与规范之间”的数据挖掘工具
传统行政法中,行政机关(监管人)及其对行政相对人产生法律后果的行为始终被置于法律框架的核心。然而,侵入型风险分析不再是以监管人为中心进行的,对已有规则的重复适用,而是以自学系统为起点,围绕行政相对人进行的定制化、类型化的规则适用。这不仅架空了大多数为规范监管人行为制定的规则,还模糊了一般规则与具体适用的边界。
具体而言,算法可以用于验证数据类型间的特定相关性。简单算法决策具有去个性化特点,可能无法考虑个案情况,此时需要监管人介入并进行人工矫正。复杂算法则可以在数据挖掘中处理信息细粒度,形成假设并将其纳入决策形成中,同时在模型的不断测试中实现实时改进。换言之,只要特殊情况被识别,复杂算法就可以自主且重复地进行个案分析,并形成适用于特定群体的决策。此时由于人类在审议空间和时间上的必然局限,人工矫正事实上退居次位了。现有规则中针对监管“人”的要求很难被应用。
复杂算法中最吊诡的一点,是数据挖掘在“事实与规范之间”进行自主的事实调查,并彻底颠倒了事实与规范的形成逻辑。例如,以往监管人在适用规则时,可以基于个别事实行使行政裁量权,调整对一般规则的适用。而现在,复杂算法替代了人类评估,基于不同事实和情况对一般规则适用进行调整并形成决策。此时,确认事实变成了适用一般规则的基础,而一般规则在任何时候都不再对事实评估起决定性作用,以往的“法律算法(基于规则)”俨然变成了“技术算法(基于事实)”。同时,基于复杂算法形成的自动化决策是定制的、个案化的,这不仅模糊了行政法中一般规则和具体适用的二分,还模糊了权力架构中立法职能与行政职能的二分。算法决策不再是“被适用”的规则,它本身就构成了“规则”和“适用”的一部分,这种模糊于一般与具体之间的决策,将被广泛适用于未来更多无法被预见的案件中。现阶段,即使GDPR第22条对自动化决策作出了限制,但实践中该条仅能约束简单算法决策,而极难适用于复杂算法决策。
(三)侵入型风险分析的路径风险演绎
在理解风险分析从预防走向侵入的模式演变后,笔者将结合SyRI案和荷兰的具体法律法规,呈现侵入型风险分析带来的系统性挑战:
第一,是对调查和诉讼起点的影响,尤其是对合理怀疑标准的影响。合理怀疑标准作为公共机关采取措施的门槛,确保个人不被恣意干扰。例如,荷兰《刑事诉讼法》第27条要求采取调查措施前,必须提供客观证明。但显然,侵入型风险分析正在绕过这种门槛:首先,针对个人的搜查不再必要,合理怀疑标准终将因为极易被满足而丧失意义。其次,由于分类目的不再是识别,“无辜者”“有理由被怀疑者”以及“因分类结果而被怀疑者”三者的界限早已被模糊了。
第二,是对调查过程和证据规则的影响。由于调查中证据收集、证据真实性和证明力验证等程序逐渐自动化,调查时间和程序都被大幅压缩,传统刑事司法中诸如无罪推定、警察证据收集与法院检验证据分离等规则都受到侵蚀。甚至有学者提出,自动司法进程最终将模糊司法程序的起点和终点,重新审查陈年旧案成为可能,而这将威胁一事不再理原则的适用。
第三,是对诉讼中程序性规则,尤其是对透明度和可预期的影响。利用统计模型,以某种要素进行分类和分析的行为,本身就具有概率性,是一种近似值。这意味着侵入型风险分析存在固有的错误率。增加透明度是减少错误率的必要条件,但复杂算法的自主性和规模性不仅递增了错误率,也使算法解密变得困难。反向工程或许曾经有效,但现在它只能揭示复杂算法运行的瞬间快照,而这在公布时早已与决策形成毫不相关了。这种现状迫使我们必须接受算法黑盒的必然存在,那么又应如何调整现有框架和手段,作出回应呢?
不断提高数据规模和处理能力,通过组建更智能的数据环境来训练数据挖掘工具,以提升算法准确度是个不错的权宜之计,但它迫使我们必须首先降低对数据最小化原则的严格要求,因为统计推断的准确度依赖于更大的图景。同时,由于侵入型风险分析中,数据价值体现在未来而非当下,只有当分析结果揭示了数据隐藏的信息时,收集某项数据的目的才能被定义。现行数据保护框架下的比例原则和目的限制原则,很难作用于这种反向逻辑,因为二者都假定数据收集和处理的目的在开始前便已明确。又或者,我们应该禁止使用数据挖掘工具?这显然有些因噎废食,因为数据价值完全取决于组织挖掘数据的能力,没有有效的数据挖掘工具,就无法区分数据库中的噪音和有效信息。前文荷兰重点发展数据架构和算法规范,也正是为数据挖掘创造更加整合和智能的数据环境。
第四,是对程序性权利保障的影响。基于正当程序和公平审判要求,公民对任何对其具有重大影响或有法律后果的决定,有权向法院提出异议,并获得有效救济。SyRI案中,公民以是否存在“高风险”被划分,且只有高风险者受到进一步调查。其中必然存在分类错误,个体可能错误地被归入高风险(假阳者),也可能在高风险组中被遗漏(假阴者)。然而,现有救济措施集中于诉讼后期,在调查前期和中期基本不存在纠错可能。这意味着被分类为非高风险者,他们无法对调查前期、中期行为申请监督和救济;对于被分类为高风险者,他们很难挑战那些触发下一阶段调查的标准。就社会影响程度而言,假阴者的危险远大于假阳者,因此实践中会设置更严格的筛选模型,产生更多假阳者,而他们无法提出异议,并接受身份认定带来的所有影响,即使这种认定是错误的。不仅如此,错误在系统的深度学习中,变得更难被发现和解决。
同时,很难用“一般”和“具体”的划分,来定义这种决策的性质(群体内部是一般的,群体层面是具体的)。若将其视为一般规则,则行政法院的审查权将受到影响,因为荷兰《行政法通则》(Algemene wet bestuursrecht,简称Awb)第8:3条第1款规定,不能对具有普遍约束力的法律或政策规则,向行政法院提起诉讼。若将其视为具体适用,那么无论是欧盟基本权利保护框架还是GDPR都难以发挥作用,因为它们规范的是针对个人的决策,而此时决策是针对群体的,即使它暗中针对集合中的所有个体。
第五,是对问责制的影响。即使接受了算法黑盒的必然存在,也并未免除了行政机关对部分或完全自动化决策进行最终监督和纠正适用的责任。相反,对自动化决策的问责,一定程度上能对冲复杂算法中透明度的必然削减带来的影响。遗憾的是,这在现有法律规定中极少涉及。以荷兰为例,Awb中规定了监管人(Awb 5:11)在数据收集和处理中的权力和责任,以及其为实现良好行政监管职责应遵循的标准:听取意见(Awb 4:7)、利益权衡(Awb 3:4),证据规则(Awb 3:47)、合理审慎(Awb 3:2)、告知(Awb 3:9)、规则纠偏(Awb 4:84),合理情况下的重新审查(Awb 7:11)等。这些规定是详尽但无益的,因为其适用于那些人类被迫退居次席的,被复杂算法替代的自动化部分,同时与问责无关。
第六,是对ECHR第8条保护功能的消减。至此,一个有趣的问题是,虽然上述规则受到侵入型风险分析的严重破坏,但法院仍通过援引ECHR第8条,以及对侵入型风险分析的回避,保护了SyRI案中公民的个人信息。这确实展现了现有法律体系的内在张力,但这种回避是非常危险的,因为它提示了一种反向策略:既然法院选择与技术发展保持距离,不为权力边界设定规范性限制是可被接受的,那么只要在涉及基本权利的敏感场景中主动借用透明工具,就能将ECHR第8条对实体权利的保护功能消减为促进透明度提升的程序工具。
欧洲法既有体系为这种策略适用提供了条件。首先,GDPR第5条第2款目的原则在措辞上的松动,以及第6条为数据处理合法化提供的诸多途径,使透明度逐渐取代合法性,成为欧盟数据保护框架的核心。这与近年来欧盟对透明工具的补强行为相呼应,呈现出对程序正义的强调与依赖,所有被赋予透明度的数据处理都被视为是合法的,满足ECHR第8条第2款“符合法律规定”的要求。其次,欧洲法中程序权利与实质权利的融合趋势,使有关透明度等程序性要素成为了合法限制实质性权利的条件。换言之,透明工具被借用到了基本权利框架的分析中。这种做法不必然造成严重后果,但法院如果回避审查侵入性风险在价值规范层面对私人生活带来的影响,其实质是放弃了使用不透明工具为权力进入私人生活划定不透明疆界。此时权力只要被透明工具规范引导,便能合法照亮这些本不透明的领域。这使得ECHR第8条第2款中的“社会必要”要求被转换为更易实现的透明度和相称性要求。其后果是更多类似SyRI的工具将全力致力于提高透明度,而届时ECHR第8条的实体保护功能将被严重削减。
(四)侵入型风险分析的破局
侵入型风险分析所带来的挑战,在更广阔的意义上被包含在数字化福利国家兴起的危险中。法学界也在积极寻找应对方式,主要表现为两类:
一类是困难的,试图在算法黑盒的阴影中凿取更多微光。其困难在于,虽然透明度是法治的基本支柱,但必须承认,即使技术监管手段能以完全透明和负责的方式实施,某个时刻透明度仍会消失。因为系统设置中仅将透明度作为系统特征的部分,而不是旨在影响人们行为规范的规则。另一类则是危险的,选择放弃人类主导并坚定地站在机器一边。这主要基于人机交互理论,认为既然算法具有人类无法匹及的数据处理能力,那么人类就不应执着于自己的最终决定权,而应接受这种人机混合状态,给予算法信任和尊重,如同尊重人类也会犯错一样。其危险之处在于,它为行政机关逃避问责提供了辩护,认为决策者的责任被封装在复杂逻辑和编码语句中,行政机关的代理权因此被剥夺,并转移给软件开发商甚至是计算系统本身了。
对比两类方法,显然后者对问责规则的探讨更趋近于法学和法治的核心。它反映了国家在多大程度上允许对基本权利进行限制,如何平衡正义与安全,以及如何对待弱势群体。基于此,笔者认为,复杂算法虽然降低了程序上的可溯性和可视性,但现阶段最佳问责者仍是行政监管人,应要求其随时检查算法决策的可靠性和合法性,并保留其偏离执行算法决策的最终决定权。同时,公民必须具有质疑和挑战自动化决策的有效途径,而不是虽然能作出有意识的选择,却无不陷入知情同意的自主式陷阱中。这要求现有以个人保护为中心的法律框架需要具有更大的包容性,对群体进行保护可以作为调整方向之一。毕竟,有时保护个人的最好方式就是保护整个群体。
余论:重访我国个人信息保护制度的边缘与核心
对我国而言,荷兰数字治理的经验值得参考,而SyRI案中侵入型风险分析带来的影响更需要警惕。笔者建议,我国个人信息保护制度的完善应首先明确不同发展阶段(划清边缘)的关键问题(确定核心),随后匹配与实现阶段目标相适应的手段。同时,分清各类手段间的关系是交替的还是协同的,对于提升整体治理效果至关重要。
具体而言,可以将我国个人信息保护的制度构建划分为发展阶段和成熟阶段。现阶段我国仍处于发展阶段,本阶段的核心任务应是组建数据架构和规范算法规则,为数据分析和知情同意规则落地创造更智能的环境。荷兰发展阶段的总库建设和算法规则可供借鉴。值得肯定的是,这些要求已体现在我国各层级立法中,但仍需进一步精细化和体系化。尤其需要根据权利保护与数据保护在范围、立场和功能上的差异,区分基本权利框架和数据保护框架,并发展相应的不透明工具与透明工具。坚持这种区分非常必要:第一,两组工具间互为交替关系,但整体上又共同致力于实现个人信息保护效果的最优值。区分有利于我们根据具体情形动态调整二者适用的比例和程度,因为设置固定标准既不现实,也不明智;第二,区分有利于我们在公私混杂、实体与程序交融的复杂场景中,对在基本权利框架中借用透明工具的行为保持警惕,防止SyRI案反向策略的出现。相比荷兰,我国由检察机关提起公益诉讼的独特机制,事实上能帮助我们更有效地避免这种反向策略的发生,一定程度上成为我国的制度优势。
我国个人信息保护制度的发展,还需防范成熟阶段的系统性挑战。这一阶段,如何使静态的法律规则有效回应复杂算法带来的巨大变化,是一个需要不断思考的问题。笔者认为,使用更开阔的系统视角和更包容性的协同工具是潜在方案之一,这要求我们在整体规则设计上,至少需要考虑主体“个人”和“群体”,风险“预防”和“侵入”,系统“工具”和“情景”三组关系。
首先,在主体“个人”和“群体”关系上,需要明确保护措施应该指向谁,以破除现阶段以个人为中心的法律框架在面对针对群体层面的决策时,无法被启动的困难。同时,对于个人层面和群体层面的保护措施应被置于一种协同关系,即对群体层面进行保护并不会削减对个人层面的保护,在发展阶段围绕个人层面制定的系列规则,仍能通过与群体层面的联动继续发挥重要作用。换言之,两种保护只是抽象层的不同,权利归属于个人还是群体,并不一定是不相容的选择。现阶段,虽然我国《个人信息保护法》的保护措施仍指向个人,但第70条针对侵害多人信息权益的行为制定了公益诉讼条款,为后续措施在“个人”“集体”与“群体”间转换留有空间。
其次,在风险“预防”和“侵入”关系上,必须警惕侵入型风险分析对法律论证的改变,而这种改变在现有分析中被过度简化了。如何规范复杂算法中游走于事实与规范之间的数据挖掘工具,应受到重视。Wolswinkel教授提出应在传统行政法规则外,构建一套模拟行政法(Analoog Bestuursrecht)规则,使这些规则在理论上具有类似于算法的自学能力。其中,行政监管人进行监督的“自学”行政法的起点(输入)是模拟行政法的规则;由于这部分的监督是由自然人在数字化背景下完成,因此能实现向传统行政法规则的转换(输出)。整个流程中,行政法规则能始终处于自动化决策的事实背后,并且只会在事后对具体的自动化决策作出判断。这便能化解复杂算法对法律论证和传统行政法规则带来的挑战。这种方式的实际效果有待检验,但它在理论上是极为新颖的。
最后,在系统“工具”和“情景”的关系上,需要采用更全局的视角,来审视法律和道德的规范功能:它不应只被视为是情景中用于实现特定目的的技术工具,它对情景本身同样具有重要作用。二者关系也应是协同的,对系统情景前期设计的规范有利于情景后期运行中工具的使用与优化,并反作用于系统情景的优化。从一开始,便将诸如法律原则、道德标准等要求都嵌入到系统设计规范中,可以形成一个更加智能且自律的情景。
除了对法学的研究方法和维度进行调整外,法学研究者也应走向更开阔的领域中。这种开阔既不反对他们成为具有算法思维的技术人员,也不支持他们将新技术视为执行法律的中立工具来思考,而是要求他们将新技术作为一种全局性的媒介,去呈现法律和道德的规范要求,并促成社会公众对这些价值观的广泛参与。用Flanagan和Nissenbaum在《数字游戏中的价值观》中的隐喻来说,要成为一个有良知的设计师,必须先为游戏脚本设定价值取向,再允许游戏运行来塑造我们。
我们身处于真实的社会游戏中,认清每个阶段的重大变化是我们做出正确判断和回应的前提。正如在数字化初期,我们常想到Foucault的全景敞视主义,并认为捍卫隐私是对抗权力窥视的最佳方式。在数字化的高速发展期,我们必须及时调整这种观念,因为此时的权力运行范式不再仅是监视之眼,它更像是Foucault的生命政治中所阐述的知识形成与个人渗透。此时,应对这种变化的最佳方式不再是对抗,而是寻找其他因素与它对接、整合并抵消影响,甚至在一定程度上反过来影响它。这些外在变化和思考方式对我们来说可能是新的,但在更高的知识型和范式转换层面,它们仍是旧的,数字革命并未改变科学革命的固有结构。认识到这些可能并不能帮助我们突破技术瓶颈,但它的确能帮助我们更从容地按下社会游戏的通关键,解决完一个问题,打开千万个问题。