摘要:人工智能嵌入行政执法是政府治理现代化的重要标志与未来走向。与传统行政执法相比,当前人工智能执法技术的应用呈现出对数据、算法与算力技术的依赖,以及全自动行政与半自动行政并存、智能执法应用广泛等特征。上述特征与执法场景固有特性的融合交叠容易诱发行政执法权的固有属性被侵蚀、行政执法程序的完整性受损害、行政执法责任分摊难辨识等潜在法律风险。为了有效防范风险,推动人工智能执法的健康有序发展,应当明确人工智能行政执法遵循的基本原则、提升行政执法者人工智能的应用能力、保障人工智能行政执法程序的透明、界定人工智能行政执法的责任归属和定位人工智能执法的辅助工具地位。
关键词:人工智能;行政执法;权利保障;风险规制
一、问题提出
大数据时代,行政案件量罚自动化、违规车辆检测智能化、行政审批全流程自动化成为现实,这标志着人工智能在行政执法领域应用的广度与深度被进一步拓展。人工智能的应用在提升行政执法效能的同时,也与行政执法权的固有法律属性要求之间产生了不同程度的冲突,进而给传统行政执法带来了诸多风险与挑战。受制于风险的潜在性、立法的滞后性,现有法律规范与技术伦理尚无法对其进行有效调控。在此背景下,认清人工智能应用于行政执法领域的新特征、辨识新技术应用带来的新风险,进而寻求应对措施,已经成为亟待解决的现实问题。与“人工智能+立法”“人工智能+司法”研究相比,尽管“人工智能+行政执法”在执法实践中早已存在,但学界研究似乎有所疏忽,尤其是对人工智能技术应用对行政执法本身带来的新风险这一关键问题缺乏应有的关注。对此,本文尝试探索三个问题:其一,现阶段人工智能行政执法具有哪些显著特征?其二,上述特征与执法场景的特殊性相结合会衍生哪些潜在法律风险?其三,我们应该如何有效应对这些风险?
二、人工智能嵌入行政执法领域的应用情势
人工智能技术的应用,“不仅仅是一场技术革命,更是一场决策革命和治理革命,它正在开启一个新的未知空间,可能带来一场社会变革,特别是公共治理领域的变革与创新。”对于行政执法领域而言,人工智能的嵌入一方面促进了政府监管个人、组织和社会的能效;另一方面也为公民权利的保障创造了更优越的条件。从当下人工智能行政执法的实践来看,其应用特征主要表现为:
(一)技术属性凸显:智能执法依赖于数据、算法与算力技术的共同支撑。
人工智能技术在行政执法领域应用的成效,取决于行政执法活动所需法律知识与事实情形的数据量大小,也取决于将海量知识转化为计算机可识别的知识所依赖的算法和算力。事实上,就技术层面而言,数据、算法、算力,是人工智能的“三驾马车”,决定着人工智能在行政执法领域应用的广度和深度。
数据是决定执法人工智能识别率和精准度的关键要素。人工智能技术在行政执法领域运用的实质是通过对已有行政法律法规、行政处理决定书、行政案卷材料、行政执法图片与视频等数据的分析比较,挖掘行政执法中隐藏的规律性,再予以模型化,为执法活动提供技术支持。数据的多寡和有效度是决定人工智能识别率和精准度的核心要素。相比人工智能发展的前两次浪潮,我们正在经历的第三次浪潮建基于互联网快速发展并广泛应用积累的数据,这为人工智能深度学习奠定了基础,也促进了人工智能在行政执法领域的广泛应用。
算法是生产执法人工智能的直接工具。人工智能替代传统行政执法者完成大量简单重复性劳动主要依赖的是算法。目前,使用最为广泛的深度学习算法是通过建立模拟人脑进行分析学习的神经网络,将算法的学习与形式神经网络结合在一起,从而模仿人脑解释图像、声音和文本等数据。与以往由人类专家设计的机器学习比较,深度学习算法具有很强的自我适应性,能够在计算、挖掘的过程中自动调整算法参数,使结果更加准确。以“人脸识别”为例,基于深度学习算法的运用,已将识别成功率提升至99%以上,从而有效提升了行政执法的精准度。
算力是执法人工智能应用的决定性力量。在数据、算法和算力三者中,算力是核心因素,是人工智能在行政执法领域获得实际应用的基础性平台、决定性力量。当下,以异构计算、加速计算、可编程计算等为代表的新的计算技术和架构正在强化行政执法人工智能的算力,《2018—2019 年中国人工智能计算力发展评估报告》预测,人工智能算力将由过去的80%集中于训练场景转向80%集中于推理场景,这意味着将经过训练的应用场景与行政执法的实际应用进一步结合,有助于推动人工智能在行政执法领域的更广泛运用。
(二)替代程度不同:智能执法表征为部分自动行政与完全自动行政的并存。
人工智能在行政执法领域中的具体运用,主要指在行政程序运行过程中,原先由执法者操作的任务交由人工智能完成,这种执法方式被学界称为“自动化行政”。实践中,这种自动化行政表现为,一个行政行为的做出,行政程序的某个或某些阶段由人工智能机器人替代实施;或者是行政程序的所有环节由人工智能代为完成。
前一种情况往往被称为“半自动行政”或“部分自动行政”,即尽管在行政行为做出的过程中借助了人工智能机器人,但仍需人工介入才能完成行政程序的全过程。从相关法律及其行政执法实践来看,主要有四类情况:一是申请环节自动化。如《行政许可法》规定可通过电子数据交换和电子邮件等方式提出申请;《政府信息公开条例》规定可以数据电文形式向行政机关申请获取政府信息。二是调查取证环节自动化。如交通抓拍就是运用智能交通违章监摄管理系统具有的车辆检测、光电成像、自动控制、网络通信、计算机等多种技术,自动发现机动车超速、违章停靠、闯红灯、逆行等违章行为,并进行检测、抓拍、录像,完成对机动车违法事实的确认,作为交通行政处罚的证据。三是自由裁量环节的自动化。如南京市公安局首推的“行政案件自动量罚系统”可给出处罚建议,其中的量罚环节交由人工智能自动完成。四是送达环节自动化。如《商标法实施条例》规定,经当事人同意,商标局或者商标评审委员会的各种文件,可以通过数据电文方式送达当事人。
后一种情况往往被称为“全自动行政”或“完全自动行政”,即行政机关借助人工智能机器人完成行政程序的全部流程。由于完全自动行政在我国尚属新鲜事物,法律法规中对此暂无明确规定。如深圳市于2018年推出的“无人干预自动审批服务”,就是利用大数据、人工智能等先进技术,由申请人网上提交申请事项及其支撑材料信息,政务系统按照先前设置的既定规则,通过数据共享实时比对核验,自动做出行政审批决定,并将行政审批结果及时主动送达申请人的全新政务服务模式。这种模式下,只要申请人提供的申请材料符合法律规定,则行政审批的“申请—受理—审查—决定—送达”全流程的各环节均无须人工干预。相对于部分自动行政,完全自动行政的效率得到了极大提升。
(三)应用范围广泛:智能执法正逐步嵌入具体行政执法的各个实践领域。
当前人工智能的发展进入了新阶段。国务院发布的《新一代人工智能发展规划》,使人工智能在复杂社会问题研判、政策评估、风险预警、应急处置等重大战略决策方面被进一步推广应用。就行政执法领域而言,人工智能技术应用的广度和深度也在日益拓展。
一是行政检查智能化。基于人工智能技术的支持,越来越多的行政机关采用智能化的监管系统和预警系统,通过分析图像、视频等数据资料,对监管对象的行为进行自动识别,并对违法情形进行自动报警和自动跟踪。如“智能警务系统”通过数据汇集,信息融合、提炼,再利用知识图谱,运用数据挖掘、信息处理、知识计量和图形绘制等一系列方式将海量公安执法数据快速转换为高价值的线索、情报,为治安巡逻提供精准服务。
二是行政审批智能化。借助人工智能技术的支持,行政机关在行政审批方面实现了从“人工审批”向“智能审批”的重大转变。目前,在广州、南京、成都等多地行政机关的审批活动中,通过安装自助服务一体机,实施了“AI审批”。这种自助服务机器,集合了高清拍摄、人脸识别、指纹采集、证照打印等多项功能,利用人脸识别技术进行验证,有效避免申请者提交大量不必要的证明材料,改变了过去人工办理的“见面审批”,实现了“不见面审批”,从而大大提高行政机关的审批效率。
三是行政处罚智能化。其一是应用人工智能固定证据成为绝大多数政府部门采用的调查取证方式。如交通抓拍可对司机没系安全带、开车打电话、抽烟等违规行为进行拍摄,抓拍的图片和视频能自动存储,并直接传输至交管数据后台服务器,作为交通违法处罚的证据。其二是应用人工智能做出处罚决定成为诸多政府部门规范量罚权的手段。以公安机关采用行政案件自动量罚系统为例,执法民警登录警务平台输入警情后,对于需要给予行政处罚的,将会进入行政案件量罚系统,勾选平台上预设的较轻、减轻、从轻、从重等备选情节后,系统会自动生成处罚结果。
四是行政给付智能化。行政给付是行政机关对公民给予物质帮助和服务的行政行为,包括救助、补助、扶贫、优待、抚恤等具体表现形式。政府部门运用人工智能技术实施行政给付的目的在于,防范虚报冒领现象,实现精准给付。以行政机关扶贫为例,人工智能技术帮助行政机关进行大量信息的采集汇聚、挖掘分析,明确“哪里的人口真正贫困”“谁是真正的贫困人口”“贫困体现在哪里”“贫困的原因是什么”“贫困人口的真实需要是什么”等关键问题,从而促进精准扶贫的实现。
三、人工智能应用给传统行政执法领域带来的新风险
人工智能技术应用于行政执法领域,虽然在提高行政执法效率、约束行政权行使的任意性、方便行政相对人办理行政事项等方面发挥了积极效应,但其对行政执法权的固有属性、行政执法程序的完整性、行政执法责任的承担等方面带来了新挑战。
(一)行政执法权的固有属性被侵蚀。
运用人工智能技术开展行政执法,意味着将行政权交给智能机器人,此举存在颠覆传统行政权属性的潜在可能。这种风险可从技术权力本质属性上进行阐释。对技术权力的最初认识可以回溯至马克思对“机器权力”的探究,他在《资本论》中指出,“智力变成资本支配劳动的权力,是在以机器为基础的大工业中完成时,……科学、巨大的自然力、社会的群众性劳动都体现在机器体系中,并同机器体系一道构成‘主人’的权力。”当技术发展到人工智能时代,这种技术权力控制的范围更广、强度更大。基于大数据技术的支持,人工智能行政执法具有了前所未有的数据前置性与算法依赖性等技术特征,由此形成“算力即权力”的新型权力形态,极有可能使行政权遭受更隐蔽的技术权力侵蚀。
实践中,人工智能技术借助代码、算法支配行政执法的各个环节,以实现对行政权的控制。无论是贵阳市41家政府部门实施“数据铁笼”工程,完整记录行政权力运行的整个过程,以实现对行政权的全流程监控;还是南京等地公安机关使用行政案件量罚系统,将行政自由裁量权精细划分编程纳入人工智能系统,都是尽可能地将行政权运行的全流程纳入技术、算法以及模型的监控之中。事实上,在上述监控过程中,行政机关拥有的自由裁量权这一行政权属性同时也被技术权力所“肢解”。
随着人工智能技术在行政执法领域的深度应用,行政权的“不可处分性”受到侵蚀同样会凸显出来。行政权的“不可处分性”是公权力相对于私权利具有的属性,意味着行政机关不得随意放弃、转让自己依法拥有的行政权,源于行政权是“权力与责任的重合”。由人工智能做出行政审批、行政给付、行政处罚等处理决定,看似将行政权交给了智能机器,实则是转移给了人工智能专家,容易陷入技术专家行政执法的怪圈。
简言之,与传统人工智能技术在行政执法中定位为辅助工具相比较,在大数据技术支持下的人工智能应用过程中,技术权力对行政权力的挑战将会范围更广、程度更深,从而导致行政权的自由裁量性、不可处分性不断被侵蚀,也强化了行政执法者被人工智能机器人取代的潜在风险。
(二)行政执法程序的完整性受到挑战。
行政程序的设置,要求行政机关按照法定的步骤、方式、顺序以及时限实施行政行为,有助于规范公权、保障私权。自行政程序的法治价值被重视以来,行政执法规则一直是围绕从事具体执法行为的“人”构建程序体系的,然而,人工智能行政执法是通过“机器”运转获取行政处理决定,势必对传统行政程序规定带来诸多挑战,尤其是在全部执法环节交由人工智能机器人处理时,这种挑战将会更加突出。
一是行政调查程序受到挑战。行政调查是指行政机关在行政程序启动之后、行政决定做出之前,依职权查明案件事实、获取证据的相关活动。“除当场做出行政行为的案件外,调查是行政程序的必经程序。”行政调查属于一种权力性行为,对当事人的权益有可能产生实质性的影响。为规范行政调查程序,相关法律法规对表明身份、告知权利、说明理由、组织调查、制作笔录等主要环节提出了明确要求。人工智能技术的应用,对行政调查程序的现有法律规定形成挑战:如何实现调查人员不少于两人?怎样出示执法证件、表明身份?通过什么方式告知行政相对人有关法律依据和权利?如何听取当事人的陈述和申辩?……此外,人工智能机器人在执法中的运作是按照事先编制的程序进行的,而某个具体执法行为是针对个案实施的,行政调查中面临的情况各有不同,一旦运用智能流水线作业的方式,则不仅有失公正,而且所获证据材料的关联性程度也会存在大打折扣的风险。
二是行政听证程序受到挑战。行政听证是正当法律程序原则的核心要求之一,即指行政机关在做出重大的、影响行政相对人权利义务关系的处理决定之前,听取当事人陈述和申辩的活动。行政听证程序的设置,有助于行政相对人和利害关系人的参与,“在听证中,相对人向行政机关提出证据,陈述自己的意见,对不利于自己的证据进行反驳,影响行政决定的做出,从而有效参与了行政决定。”行政听证的本质在于行政相对人运用这种法定参与权利抵制行政机关可能做出不当行政行为,缩小行政相对人与行政机关在行政法律关系中的不对等地位差距。人工智能依赖的算法一旦出现偏差,将给行政听证程序的启动及其结论带来负面影响。依据法律规定,行政听证程序的启动方式包括两种,其一是行政机关依职权自行决定,其二是行政机关依行政相对人申请决定。无论是哪种方式,行政听证程序能否启动,最终都取决于行政机关的意志。如果参与人工智能设计的政府官员在过往听证案例的处置中有过不愉快的经历,或是存在认为听证程序烦琐的偏见,基于“算法是人编写的,那么在编写过程中,人的观念和思维完全有可能写入算法当中”,导致“AI可能会表现出与人类相同的偏见”,有可能出现本应当启动听证程序的情形未能启动。同理,即使进入听证程序,基于人工智能的算法偏差,也可能影响听证记录能否如实进入行政决定,最终影响到行政相对人对行政决定的平等、有效参与。
三是行政决定程序受到挑战。行政机关在行政调查终结后,应当对调查结果及时进行审查,根据不同情况,做出相应的处理决定。人工智能技术在行政执法领域的运用,让传统行政决定程序的有关限制性规定失效,不利于行政相对人权益的保护。其一是行政机关负责人集体讨论决定的规定无法实现。对于情节复杂或对行政相对人影响重大的行政案件,如涉及限制公民人身自由、较大数额罚款、丧失生产经营资格等行政处罚,应由行政机关负责人集体讨论后做出决定,并形成集体讨论的书面记录载入案卷,以实现行政处理决定的公正合理。人工智能流水线作业下形成的行政处理决定,是没有经过行政机关负责人集体讨论就做出决定,由此对“未经集体讨论做出行政决定属于严重的程序违法,应予撤销”这一行政审判规则提出了挑战。其二是酌定情节轻重的条款规定不能兑现。人工智能算法依赖设计者输入的数据信息,然而行政相对人的情况各有不同,往往无法形成全面信息输入系统,导致人工智能执法决定很有可能忽略相关情节。例如,传统行政执法中由行政机关负责人全面把握相对人信息可以适用“违法行为轻微不予处罚”的条款,基于人工智能缺失个案性分析的弊端就不能有针对性地得到落实。
(三)行政执法责任难以分摊。
随着人工智能在行政执法领域应用范围的日益拓展,其引发的行政侵权责任认定及其承担问题,对现行行政侵权责任制度将提出越来越多的挑战。依托于精准算法和程式的全自动行政执法系统在我国刚露头角,目前暂无行政侵权案例的报道。但人工智能技术运用引发的侵权事件已多次发生,如美国量刑假释听证系统因算法错误标记黑人被告的可能性是白人的2倍,从而导致黑人罪犯的评级定位高于非黑人,由此产生系统性种族偏见的不公平结果。同理,应用于行政执法过程的人工智能,基于算法偏差错误、系统故障,也会导致行政处理决定违法并损害行政相对人权益的情形发生。
人工智能行政执法损害行政相对人权益的责任应当由谁负责?通常的考虑是,既然行政机关是人工智能的使用者,当然应由行政机关承担责任。诚然,由实施具体行政行为的行政机关直接向行政相对人负责,既符合行政法理论的要求,也便于行政相对人寻求救济。然而,值得我们进一步思考的是,人工智能执法机器人是生产厂家提供的,行政机关对外承担责任后,是否可以要求生产厂家承担责任?人工智能机器人是按照事先设计的程序开展执法的,那程序设计者是否要承担责任?如果多个单位、多人共同开展程序设计,是否都需对此承担责任?如果人工智能执法机器人按照自己的“意念”执法,是否应当要求最初研发者承担责任?而上述相关主体又应当以什么方式、按照什么比例承担责任?诸如此类问题,随着人工智能行政执法的进一步发展,将成为行政法理论研究和实践操作中必须面对的问题。
四、人工智能嵌入行政执法的风险规制
《新一代人工智能发展规划》强调:“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”面对人工智能技术应用于行政执法领域可能产生的风险,我们不能投鼠忌器,更不能因噎废食,而是应当分析风险产生的原因,对其予以适度规制,以更好地发挥人工智能技术应用于行政执法领域的优势效能。
(一)明确人工智能嵌入行政执法应遵循的基本原则。
一是遵循法律规制与伦理规制兼顾原则。法律确认行为人的权利和义务、由国家强制力保障实施,是防范和化解人工智能风险的有效手段。但法律规范的制定往往具有滞后性,如果没有伦理规范的指引与约束,人工智能行政执法技术的负外部性溢出,将损害行政相对人的合法权益,甚至危害社会的和谐稳定。所以,行政执法领域应用人工智能技术,必须采取法律规制与伦理规制兼顾原则,将风险控制在最小范围内。对此,《新一代人工智能发展规划》高度重视“制定促进人工智能发展的法律法规和伦理规范”,将其列在“保障措施”的首条位置,同时在“战略目标”部分明确了发展伦理规范和政策法规的“三步走”战略。其中尤其值得关注的是,人工智能应用的法律规制仍然是规避技术执法风险的强有力保障。基于人工智能技术的迅速发展对现行立法体系提出的严峻挑战,亟须制定一部《人工智能安全法》并出台配套法律规范体系,考虑到人工智能发展的不确定性,《人工智能安全法》宜粗不宜细,重在设置有关原则框架,细化部分则由配套法规完成,以增强基本法适应新技术变化的容纳性,确保其稳定性,同时应避免人工智能技术的进一步发展受到不必要的阻碍。
二是遵循权利保障原则。人工智能行政执法带来的直接风险是对行政相对人合法权益造成损害,如人工智能算法偏差可能使应当获得行政许可的人未能取得许可;也或许因算法偏差让公安机关投放警力时误判,导致让某地被错误锁定为敏感地域从而投放大量警力,而其他地方因警力投放低于正常标准从而缺乏安全保障。再则,行政执法应用的人工智能系统中保留着关涉当事人个人信息的文字、图片和视频资料,如果处理不当,泄露个人信息的情形极有可能发生。因此,无论在人工智能行政执法的程序编制抑或是具体实施中,均应遵循保障行政相对人权利的原则。
三是遵循行政比例原则。鉴于人工智能技术应用于行政执法领域可能带来的风险,行政机关是否采用以及在多大程度上采用人工智能技术创新执法方式,应遵循行政比例原则审慎决定。行政比例原则的遵守,主要表现在行政执法应用人工智能技术之前,需要进行适当性、必要性以及均衡性判断。首先,在是否应用人工智能技术前进行适当性判断,即认定应用该技术能否有助于达到保障行政执法的公正、提升行政执法效率等行政目的。其次,确定人工智能技术应用于行政执法具有适当性的基础上,还需判断应用的必要性。必要性判断应遵循最少侵害准则,即在选择采用传统的人工执法还是人工智能执法时,需要判断两种执法方式对行政相对人权益的负面影响,只有在人工智能行政执法可能造成的损害更小时,才可选择。再次,确定人工智能技术应用于行政执法确有必要后,仍需进行均衡性判断,只有人工智能技术应用可能保护的社会利益大于其可能对公民权利造成的损害时,才能最终确定应用。
(二)提升行政执法者的人工智能应用能力。
自人工智能律师CaseCruncher在案件裁决比赛中击败100名法律专业学生后,法律界人士对自己是否会被人工智能取代表示担忧。那么,人工智能可否取代行政执法人员?对此,已有学者表达了自己的看法,“公职人员的部分工作肯定会被替代。……但是,对于需要更高智力、更多情感投入的行政工作则绝不可能被替代。”倘若把行政执法全部交给人工智能机器人处理,则执法面对的现实差异因为数据库没有关涉而被忽略,容易导致新的执法不公正。此外,人工智能开发者对技术的滥用,也可能成为人工智能执法侵犯行政相对人合法权益的根源。可见,人工智能应用于行政执法领域,并不意味着对行政执法人员的取代,相反,要防范人工智能成为脱缰的野马,为减少新技术执法带来的社会风险,需要提升行政执法者对人工智能技术的认识和应用能力。
以人工智能技术应用于行政执法的过程阶段为标准,行政执法者的能力提升主要包括两个方面:一是参与人工智能程序设计的能力。人工智能行政执法机器人的设计游走于科技与人文之间,要保证其向善发展,绝不是工程技术人员独自研究即可的,必须集合工程技术人员、哲学家、法学家、伦理学家的力量。行政执法者掌握执法的法律依据、深谙法律术语的内涵,并拥有丰富的实践经验,由他们参与人工智能行政执法机器人的设计,能促进新技术执法的专业性与科学性。同时,行政执法者要有效参与产品研发,则需要通过学习,掌握人工智能基础、知识工程、数据挖掘分析、语音图像识别、自然语言处理、机器学习等方面的专业知识和技能。二是监督人工智能应用过程的能力。人工智能行政执法机器人设计出来后,需要进行测试并被评估,以保障表述规则的代码准确和整个系统的安全性。测试和评估需要行政执法者综合运用行政执法、人工智能的知识与技能,来考察人工智能执法系统是否存在偏差、偏见和任意性及其程度,论证由这些因素导致的风险概率,并提出修正系统的方案,这无疑是对行政执法者的素养和能力提出的更高要求。
(三)保障人工智能行政执法程序的透明。
人工智能技术应用要充分尊重行政执法的透明性。这里的透明性是指行政执法决定的实施根据、法律依据以及形成的具体过程的公开,也即通常所说的执法公开透明。在法治政府建设、执法规范化要求的时代背景下,近年来行政执法公开渐趋普及,对行政行为说明理由提出了更高要求,意指除法律有特别规定外,必须向行政相对人说明作出该行政行为的事实根据、法律依据以及裁量时所考虑的政策、公益等因素。然而,人工智能执法系统的使用,普通行政相对人基于对算法原理和机制的认知困难,由此产生算法“黑箱”现象,即“算法能够被看到和理解的,只有输入和输出两个环节,其信息处理过程是一个无从知晓的‘隐层’”。
行政相对人对行政执法的信任建立在行政透明的基础上:如果人工智能执法的算法继续维持神秘,那么人工智能行政执法将难以取得行政相对人的信任。这种信任不仅关乎人工智能行政执法的顺利进行,也关乎行政法治建设的持续推进。可见,在人工智能行政执法领域,保障算法的透明度、提升可解释力相当重要。因此,在研发人工智能行政执法技术过程中,应当特别关注执法过程的透明性,以普通公众能理解为标准,将技术模拟行政执法的过程以可视化方式呈现出来,对人工智能执法系统的运作过程、作出行政行为的推理以及运作结论,给予具体的说明。
(四)界定人工智能行政执法的责任归属。
人工智能行政执法导致的损害由谁承担责任,是新技术应用过程中必须面对的新问题。近年来关于人工智能法律地位的相关讨论不绝于耳,大致包括三类:第一类是肯定说,即人工智能具有法律主体地位。如学者郭少飞认为,基于人工智能体拥有自我的情感、认知与行动能力,不再是完全受支配的客体,故应当以“电子人”身份界定其法律主体地位。第二类是有限肯定说,即人工智能承担有限法律责任。如学者袁曾审视了人工智能有限法律人格,认为应将人工智能作为特定的法律主体,使其承担有限法律责任;F.Patrick Hub⁃bard则建议将智能机器人当作动物或者幼儿来看待,让其承担相应的后果责任。第三类是否定说,即人工智能不具有法律主体地位。如学者郑戈认为,人工智能体本身并没有独立的财产且不具备独立担责的能力,故不应当承认其法律主体资格。我国政府对此问题也给予了高度重视,如国务院发布了《关于新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划 (2018—2020年)》等文件,将“明确人工智能法律主体以及相关权利、义务和责任等”作为今后的一项重要任务。
人工智能有无法律主体资格的确定,对新技术执法造成损害的责任承担主体确定至关重要。人工智能机器人不具有自然人的良知和心智,基于预先设计的程序和已有数据库进行计算;也不拥有独立的财产,只是被使用的工具,因此不应当由人工智能机器人承担责任。况且,行政执法是对行政权的行使,其直接责任主体应当是行政机关。当然,这并不意味着由行政机关负责所有损失的承担。基于行政委托理论和行政追偿责任制度,笔者认为,在行政机关对行政相对人承担赔偿责任后,根据致损因素来源,依法应当责令人工智能设计人、有故意或重大过失的执法人员承担部分或全部赔偿费用。
(五)定位人工智能执法的辅助工具地位。
行政执法权的行使是一件十分严肃的事情,涉及行政相对人的合法权益,关系整个社会的和谐稳定,决不能简单地将行政执法权移交给其他组织与个人,人工智能机器人只能发挥辅助工具的作用。
一是避免人工智能“技治主义”执法的风险。技治主义强调,基于大数据、人工智能等新技术治理社会的强大优越性,应当将包括行政权在内的国家权力交由科技人员、技术专家、工业经济学家、工业管理专家等“工程师”行使。然而,人工智能依托的大数据算法具有“从历史数据中训练而获得数据的特征”,由此带来的效应是,“一旦整个社会对某个少数族群存在结构性的种族主义和负面偏见,那么这种偏差就会反映到数据上,于是大数据算法就会‘如实’地归纳出这些偏性”,从而带来个人偏见、社会歧视、隐私权和财产权被侵犯等风险。为规避上述风险,人工智能行政执法应以工具主义为功能定位。
二是防范人工智能“技术盲区”造成行政不合理。时至今日,人工智能技术尚不能审时度势地处理行政执法中遇见的各类主客观情形,也不能有效解决执法推理中的复杂问题。人工智能系统进行的数据分析本身不能发现行政案件背后反映的各种社会关系,忽视了地区差异、对象差异,无法取代行政执法人员对个案尤其是疑难案件中的自由裁量、利益平衡以及对公平的判断,也就出现了通常所讲的“技术盲区”。与此同时,行政执法适用法律不单单是机械地依据法律法规做出处理,以行政处罚中处罚与教育相结合原则为例,人工智能缺乏情感意识,不能很好地与受处罚人进行必要的沟通以达到教育目的。因此,技术盲区的存在,同样决定了人工智能只能是辅助工具。
可见,人工智能的算法偏差、技术盲区、数据安全等技术瓶颈的存在,决定了人工智能只能以辅助工具的地位存在。此外,在今后的人工智能执法技术的研发中,对法律术语的语义界定、伦理规范渗入系统的建模、执法情形的数据扩充等予以优化,也应当成为避免人工智能执法风险、最大限度发挥其技术工具价值的有效路径。
五、结语
历史发展的事实表明,“我们无法真正预测未来,因为科技发展并不会带来确定的结果”,人工智能技术仍然处在不断改进过程中,未来的发展状况我们尚且无法进行精准判断,但其运用于行政执法领域的广度和深度将进一步扩大则是国家治理现代化发展的要求。人工智能犹如一把双刃剑,一方面,人工智能的运用能提升行政执法的效率、规制行政权行使的任意性、方便行政相对人办理行政事项;但另一方面,人工智能应用产生行政执法权固有属性的侵蚀、行政执法程序完整性的破坏、行政执法责任分摊难以辨识等相关风险也客观存在着。因此,我们应当在积极推进人工智能应用于行政执法领域的同时,积极回应人工智能应用带来的各种挑战,妥当设置相关规则、制度,既应当有效规范人工智能技术的应用,也应当为新兴技术的发育预留必要的制度空间。