高级检索

学术资源

交叉学科研究

当前位置: 首页 -> 学术资源 -> 交叉学科研究 -> 正文

张欣:面向产业链的治理:人工智能生成内容的技术机理与治理逻辑

信息来源:《行政法学研究》2023年第6期 发布日期:2023-11-12

[摘要]

ChatGPT为代表的大型生成式语言模型通过对海量自然语言文本数据的学习,运用统计学和概率分布预测下一个单词或句子,从而实现流畅连贯、语法正确、具备逻辑的文本生成。这一技术机理虽能提升模型性能,但却在内容公平性、真实性和可靠性方面带来治理挑战。概率生成文本的方式存在难以控制内容质量的问题。基于网络文本语料库的训练可能嵌入算法偏见,人类反馈强化学习可能加剧虚假信息的生成与传播风险,模型的涌现性还可能产生意料之外的治理风险。迈向模型泛在的人工智能2.0时代,生成式人工智能的治理应遵循敏捷治理与韧性治理并重、精准治理和参与式治理协同的原则。针对“模型即服务”的新型产业生态链,围绕信息生产变迁和产业链变迁的核心特性,构建基于应用程序接口模式的治理、基于插件模式的治理和基于模型垂直部署模式的治理架构。


[关键词]

生成式人工智能;内容幻觉;模型即服务;敏捷治理;韧性治理


2022年,OpenAI发布了其开发的基于深度学习技术的大型自然语言处理模型ChatGPT。该产品一经发布,展现了令人赞叹的强交互、强理解、强生成能力,上线仅一周就突破了100万用户量,引发了各界广泛关注。比尔·盖茨(Bill Gates)将其喻为不亚于互联网和个人计算机诞生的人工智能技术。深入ChatGPT成功的背后,可以发现有三个相互交织的因素促使ChatGPT引发广泛关注,并成为引爆新一轮科技革命的催化剂。首先,伴随着内容生态的不断成熟和用户内容需求的不断攀升,内容生产从Web1.0时代的专业用户创作、Web2.0时代的用户生产内容迭代至Web 3.0时代的人工智能生成内容(AI-generated Content, AIGC)新阶段。信息生产的商业化需求成为了人工智能技术不断迭代的持续动力。其次,模型即服务(Model as Service, MaaS)的新型产业链模式建构了模型-单点工具-应用场景的运营路径,带动了人工智能研发软硬件和上下游产业链的协同共进。当人工智能步入工业化生产时代,拥有更先进的人工智能模型企业意味着拥有开启未来的钥匙,大模型研发因而成为企业升级转型的重要驱力。最后,底层算力基础设施得到极大改进,这使得Transformer模型架构的开发可以利用并行训练的方式对海量数据集开展训练。正是在信息、产业和硬件的同频共振之下才衍生出以AIGC为代表的人工智能技术浪潮。在当前AIGC的赛道之上,以ChatGPT为代表的生成式人工智能通过展现其可维护、可迭代、可扩展特性,成为人工智能行业的新型基础设施,通过开放应用程序接口的方式成为产业链中的基础底座,获得了较之以往更加中心化的社会权力。在生成式人工智能赋能千行百业,引领全球科技发展格局之时,其生成内容的可靠性、公平性和真实性引发了广泛关注。有研究发现,人工智能生成内容不仅可能隐含偏见,还可能存在虚假信息,对公众造成误导,影响社会秩序、威胁社会信任。本文以人工智能生成内容的治理为核心议题,深入生成式人工智能的技术运行机理,探析人工智能2.0时代的治理框架的底层逻辑,结合AIGC的产业链特性,探索与之配适的治理框架。


一、生成式人工智能的技术机理与治理风险——以ChatGPT为例

语言模型是指根据研究及应用需要,将人类语言加以简化、变化,采用形式化表示而得到的算法模型。通过将模型数值化,成为可编制程序并在计算机上实现其表达。ChatGPT就是一种基于概率生成的语言模型。该模型采用了Transformer架构和预训练技术,通过学习大量的自然语言文本数据,利用统计学方法和概率分布根据先前的输入预测下一个可能出现的单词或句子,生成流畅连贯、语法正确、逻辑通顺的文本。这些技术机理在显著提升模型性能的同时还对生成内容的公平性、真实性和可靠性带来一系列风险,给互联网内容治理带来全新挑战。以下将从四个方面剖析ChatGPT的核心技术机理以及内容治理风险,为制定契合技术规律的内容治理框架奠定认知基础。

(一)基于概率的文本生成方式难以从源头把控内容生成质量

大型自然语言处理模型在训练时被用来设计为表示覆盖预先指定领域的标记序列。开发者通过这种方式训练机器捕获训练语料库中的语言统计特性,并以此对标记序列开展概率预测。用户虽在互动界面上看到的是其直接输出的文本,但实际上是模型基于训练时学习到的对不同话语出现频次的概率分布,从中提取样本并进行采样标记,进而完成文本输出。这种基于概率分布生成文本的方式关注生成内容的自然性和连贯性,但无法保证生成信息的真实性和准确性。这也是为何用户在使用时会遇到生成文本虽然连贯自然,但实际上可能缺乏事实依据并欠缺逻辑性的原因。面对这一问题,虽然用户可通过特定语言输入或者“提示语”调整输出,或者训练过程中采用额外目标以及特定采样技术的方式对模型进行约束和指导,但现阶段仍然难以对模型输出的内容质量实现精准掌控。这一技术特性将会带来一系列内容治理风险和挑战。

第一,基于概率的大型自然语言处理模型无法稳定产出可解释、可预测的输出。面对实质上相同的输入,模型对于细节过于敏感,这导致即使在几次输入中仅有一些细微差别,也可能产生完全不同的输出。从这一角度来看,其生成的文本不具有重现性和可预测性。由于难以从源头上把控生成内容的质量,这可能导致部署者需要花费更多的技术成本和人工审核成本构建更为强大的内容审核和过滤机制在应用层面实施信息治理。

第二,自然语言处理模型在歧义消解和知识边界方面仍然存在局限。虽然相较之前的自然语言处理技术,ChatGPT已经获得了基于上下文的语境学习能力,能够在理解文本时广泛消除歧义,但人类理解语言的认知机制与机器处理语言的技术机理仍然存在本质区别。人类在调动认知功能时会即时调用所有存储的词汇、语法、语义以及语境知识,而非在某个范围内相对孤立地处理对象。而模型在处理相关任务时却可能大费周章。即使语言模型在文本分析中消解了歧义,也并不意味着其真正理解自然语言。人类语言构成中,隐喻的运用、识别与理解超出了歧义消解的范畴,与认知能力相伴而生。故而当模型面对复杂任务,尤其是涉及多层次背景知识的任务时,难以拥有全局视野并生成令人满意的文本。近期,已经出现法官利用ChatGPT撰写裁判文书的真实案例。法律裁判文书的撰写不同于一般的语言处理任务,不仅存在大量的复杂语言结构,需要精准理解每个语词的背景及含义,还需要在成文过程中具有与当事人的对话意识,发挥宣示、证成、教育功能。这一任务的完成需要法律专业知识的支撑,依靠缜密的逻辑推理,蕴含多层次背景知识并彰显价值观和人文素养。因此,ChatGPT作为大型自然语言处理模型,虽然在语言生成方面已经取得了巨大进步,但其在歧义消解和知识边界的技术局限仍然会限制其在高风险场景领域的应用。

第三,ChatGPT作为自然语言处理模型具有自回归特性,即其依赖对下一个单词开展预测的方式生成文本。该架构不允许回溯,亦无法在模型内部进行对话或生成暂存器从而对相应任务开展预先规划,这导致模型无法直接执行多步计算或者存储中间结果。基于顺序预测下一个单词的生成范式导致该模型的思维方式是单向的,在计划能力、工作记忆以及回溯能力和推理能力方面均凸显局限性,难以对任务展现全局或者深度的理解。因此,该模型适合以按部就班、渐进式增加词语方式为特点的增量型任务,更适宜生产流畅连贯的文本。但当一项文本生成任务不能以渐进或者连续的方式完成,而需要“顿悟”式、跳跃式展开且具有复杂性和创新性等特性时,则会显现适用局限。

(二)基于网络文本语料库展开训练嵌合算法偏见

大型自然语言模型的训练需要海量数据“喂养”。训练数据集对于模型输出的质量密切相关。ChatGPT是在3000亿单词语料上训练而成的。其中60%的语料来自2016-2019年的C4语料库,该语料库是全球知名的网络文本语料库;12%的语料来自WebText2,包括谷歌、电子图书馆、新闻网站、代码网站等丰富的网页文本;还有部分语料来自书籍、维基百科以及用户生产数据。GPT-4的训练不仅基于网络公开可用的数据,还包括第三方提供商授权的数据。从训练数据环节来看,ChatGPT的训练数据集可能从下列三个方面对输出内容产生影响:

第一,训练数据集多来自于网络,数据质量参差不齐。如前所述,ChatGPT是基于对单词序列中下一个单词出现概率进行预测的方式生成文本。在技术机理上,开发者需要将系统设计为文本输出与训练模型的数据集之间具有最大化相似性的架构特点。这意味着当训练数据采自于充斥着虚假信息和毒害信息的社交媒体和公共网页时,模型难以避免地会重现这些不真实的信息。即使将模型训练的数据均设定为真实可靠的数据,由于概率预测可能生成数十亿组合模式,模型仍然可能生成不准确的内容。因此,以ChatGPT为代表的大型自然语言模型广泛存在幻觉”(hallucination)现象,难以避免地生成与事实不符的内容。由于幻觉性内容仅出现在部分语词上,难以被现行通用的指标全面识别,因此在实际应用中可能衍生巨大风险。例如,在医疗场景中,如果根据患者信息生成的治疗方案产生幻觉问题将产生健康和安全风险。即使在机器翻译场景中,如果由机器翻译生成的药品说明书存在幻觉问题,亦可能引发危及患者生命的风险。目前,OpenAI采用基于人类反馈的强化学习技术、过滤训练数据集、制定安全性控制令牌以及引导模型生成、集成微软Bing浏览器等复杂模块外部连接的方式尝试改进文本生成的安全性、准确性和一致性。但这一问题尚未能得到实质性解决。不仅ChatGPT面临着幻觉挑战,谷歌的Bard、微软的Bing均存在同样的技术局限。

第二,大模型存在“灾难性遗忘”特征,除联网、集成搜索引擎等方式外,难以实时更新训练数据集,导致输出内容凸显时效性局限。大型语言模型使用深度神经网络架构,学习知识的方式模拟人类开展。但与人类不同的是,人类改变错误认知只需知晓机理与规律,即可规模性的更正错误,并不需要深入大脑之中对轴突之间的连接加以改变。但大型语言模型动辄参数上亿,研发者无从知晓需对特定的神经元作出何种改变才可准确无误的更新信息。若调整的参数量不足,导致模型欠拟合,会导致仅面对特定提示时才能针对输入作出正确答复;若过度调整参数,导致模型过度拟合,可能出现对不相关的提问却以更新后的信息作为输出的情形。虽然技术界致力于该问题的解决,但目前的方法和路径仍然存在各种适用局限。由此可见,研究者虽可训练和生成模型,但是尚不具备对大型自然语言模型进行“编辑”的功能。这导致模型的输出内容和导向性难以精准全面控制。例如,有研究显示,多类大模型对于接种疫苗的看法和回答始终非常消极,传递了负面看法和拒绝免疫导向的信息。但因研究者尚不具备模型编辑的能力,难以从技术源头改善这一内容生成导向。

第三,训练数据倚重网络数据,导致输出文本呈现刻板印象和偏见。训练数据集的广泛性不足,不仅对英语外的其他语种存在性能偏差,还可能导致价值观偏见。有研究表明,GPT-2以及同类大型语言模型在特定群体和种族相关的文本生成任务中呈现偏见倾向。模型训练依托的数据库本身存在显著的歧视和偏见。例如,谷歌的Word2Vec语料库存在显著的性别歧视问题。该语料库中与工程师相关的人类姓名几乎都是男性。而依托网络数据的输出不仅会出现性别偏见,经济偏见、流行偏见、语言偏见和价值观偏见等多类偏见均随处可见。此外,ChatGPT在训练过程中主要使用了英语语料,不仅导致对其他语种的语言识别、情感分析、机器翻译性能差距显著,还存在生成内容与社会主义核心价值观冲突和悖离的问题。种种局限导致ChatGPT并不适合作为不同自然语言处理问题的通用工具。

(三)人类反馈强化学习加剧虚假信息生成与传播风险

为训练模型获得理解上下文关系的能力并与人类价值观对齐,OpenAI在训练过程中使用了基于人类反馈强化学习的训练方法,对各种语言任务展开微调,形成了InstructGPT模型。强化学习是机器学习领域中的一个重要分支,其核心理念是通过训练智能体不断与环境互动,找到最优行动策略,即能够最大化获得奖励的动作序列。每一个训练回合,开发者会设计开始、结束以及奖励信号,用于引导和评估智能体的行为。训练回合的长度可以根据任务的复杂度和智能体的学习能力来调整。越长的训练回合可以提供越多的信息,但也需要更多的计算资源和时间。目前强化学习被认为是开发真正通用的自主人工智能的关键技术。为帮助模型学习并抽象出人类所重视的价值,而非简单地模仿人类行为,从根本上提升模型的适应性、可解释性和决策能力,OpenAI雇佣专职人员担任人类标注员。首先,人类标注员会给出提示语和期望的输出行为,通过监督学习的方式对GPT-3进行微调。有时,人类标注员会对模型输出的样本进行排序和标量打分,将人类偏好集成到模型中并形成具有判别功能的奖励模型。特殊情形下,人类标注员还需要创制反馈答案,而非简单地进行标注。其次,研发者通过强化学习针对奖励模型优化原始语言模型开展微调。这一训练过程不仅耗资巨大,还可能呈现如下局限性:

第一,人类标注员的偏好可能存在歧视和偏见,通过标注环节注入模型之中。人类标注员的个人价值观和文化背景会对奖励模型产生实质影响。例如,美国标注员见到football一词时自然联想后的词汇是橄榄球,而其他国家的标注员则会联想为足球。基于语言、背景、文化和意识形态差异而产生的信息不对称会加剧智能体偏见,致使模型输出偏离人类价值观的内容。第二,人类反馈受到排序和打分的形式限制,仅能提供有限的显性偏好信息。这意味着排序和打分形式的人类反馈难以传递人类选择背后所蕴含的隐性信息以及相关偏好的程度,导致模型在精细化和复杂化任务中难以展现良好性能。第三,人类反馈强化学习加剧虚假信息的生成与传播风险。一方面,人类反馈强化学习赋予模型复杂语义推理的能力,可以更好地理解人类的行为、偏好和价值体系并形成类人化活动。这种交互能力意味着模型能够对互动开展情境化和个性化处理,以最大限度地发挥其生成内容的影响力,产生操纵、说服或影响指定对象的效果。另一方面,人类反馈强化学习可以强化模型与人类协作的效率,加快信息的生成与扩散,为虚假信息的生产和扩散提供技术便利。

(四)模型的涌现性可能产生预期之外的治理风险

大型语言模型具有多模态处理能力、推理能力以及与人类交互的能力。其拥有的海量参数可能产生令人惊叹的涌现(emergent)效果。例如,对GPT-3模型输入任意任务相关的提示语(prompt),不需任何训练或者梯度更新就能完成应答。OpenAI从未对GPT-4就各类美国专业考试开展过专门训练,但无论是在美国LSAT法律考试、SAT考试、美国律师执业资格考试,还是在有关医学、艺术史、生物学、环境科学、心理学、物理、宏观经济学甚至品酒师资格等各类考试中,GPT-4均获得了优异的成绩。尤其是在大多数专业和学术考试中,均表现出超出人类水平的表现,并获得在考生中排名前10%的成绩。预训练大模型的涌现能力虽然使其具有广泛的应用潜力,但现有研究尚未充分理解和清晰阐释模型涌现能力的原因。与此同时,大模型的涌现能力还伴随着一系列治理挑战:

第一,模型涌现能力对规模和参数量要求极高。为了获得模型的高级性能,研发者具有不断追求模型规模的内在驱动力。海量参数不仅不利于算法透明度治理,也难以对模型生成的文本和决策进行清晰解释和追溯。相关研究显示,当模型规模增加时,会呈现类似线性关系的正向效果,当模型超过某个阈值时,其性能会随着模型增大而大幅提升。例如,与GPT-215 亿参数相比,GPT-3拥有 1750亿参数,并开始具有语境学习的能力。GPT-4模型参数量虽未公布,但可合理预计是GPT-3100倍以上。因此,就现阶段的技术水平而言,要精准地防止模型生成某一特定内容可能在技术实现上仍然存在挑战。

第二,预训练大模型的涌现能力具有隐式归纳而非显式构造特性。这意味着涌现出的能力并未被包含在预训练任务之中,开发者也难以探知大型自然语言处理模型涌现任务的全部范围,因而相关风险也可能以“涌现”方式出现。例如,在Big-BenchBBQ偏见基准上,当语境模糊时,模型生成带有歧视和偏见的内容会伴随模型规模增长而显著增加。TruthfulQA基准的测试则展示了GPT-3模型越大,就越有可能模仿人类说谎,生成不实信息的问题。

第三,大模型的涌现能力还伴随着同质化趋势,两者相互作用导致大模型领域的内容生成风险具有跨域性。在人工智能技术迭代过程中,机器学习使得算法变得同质化,深度学习则使得模型架构变得同质化。伴随着深度学习技术的发展,模型训练范式也发生了转变。相较于为每个应用定制相应的特征工程流水线,不如将相同的深度神经网络架构用于各种应用。例如,谷歌的BertOpenAIGPT-2GPT-3、百度文心一言等大模型均采用了Transformer架构。这导致了大型自然语言模型达到了前所未有的同质化水平。几乎所有的自然语言处理模型均源自少数基础模型之一。这种同质化特质极大提升了效率,因为任何基础模型的改进均会直接提升自然语言处理模型的性能。但其也是一种负担。原因在于所有人工智能系统均可能继承了相同的偏误。这种偏误不仅存在于文本生成领域,由于大模型被广泛部署于图像、语音、蛋白质序列、有机分子等诸多领域,同质化影响会愈发明显。大模型基于同一或者相似架构训练而成的特点使其在处理文本时采取同样的策略,因而产生共同的偏见或者盲点,从而产生跨文化、跨领域、跨背景的串联性风险。例如,《纽约时报》的记者在ChatGPT、谷歌的Bard 以及微软的 Bing就《纽约时报》何时第一次报道人工智能提问时,几个模型均无法准确回答且呈现同质化的技术局限。由此可见,大模型的同质化与涌现性正在以难以预料的方式相互作用,基础模型中的任何缺陷都有可能被适配好的模型盲目继承,从而产生难以预料的不确定性风险。


二、“模型泛在”时代生成式人工智能的治理原则

ChatGPT可生成语法流畅、表述通顺、具备逻辑的文本。但其四大核心技术特性也引发了内容可靠性、真实性、客观性、公平性等方面的诸多风险。ChatGPT的通用潜能和泛化能力使其超越了聊天机器人并日益展现出人工智能产业新型基础设施的重要地位。正如陆奇所指出的,通用大模型带来的是新范式、新机会、新时代ChatGPT寓意着人工智能发展即将迎来范式拐点,模型通过将数据成功地转化为知识表达,实现记忆、泛化功能,从而针对目标进行推理和规划。这一范式将引领人工智能作为行动系统与环境展开互动,实现对物理、生物世界和人类社会环境的全面互动。伴随着数字化程度的不断提升,人工智能技术还将直接转化为生产力。人类社会也即将实现从数据泛在、算法泛在的时代过渡到“模型泛在”的新时代。通用大模型将作为强劲的新引擎,不断压低知识产生的边际成本,在产品业务、产业变革、能力开发领域带来一系列新机会。纵然以ChatGPT为代表的大型自然语言模型在现阶段存在诸多技术局限,衍生诸多法律风险,仍不可因噎废食,在人工智能技术拐点期放弃对大模型的研发。在治理与创新双轮驱动的理念之下,推进对生成式人工智能监管和治理的研究,积极应对其可能存在的问题和挑战,引导新一代人工智能科技与应用负责任的创新是更为可取的路径。基于这一治理目标,以下治理原则应成为生成式人工智能治理框架的底层逻辑和路线指南,指引监管范式的结构化革新。

(一)敏捷治理与韧性治理并重原则

在人工智能步入新的发展范式,迎来重要拐点的发展新时期,可以预见人工智能治理面临的挑战会日益攀升。生成式人工智能技术迭代的速率已经远远突破传统科技的演化速率和上限,无论是算力的提升还是新模型新应用的开发,已经以日为单位迭代。生成式人工智能的嵌入性愈发明显,开始超越单纯的技术工具角色而发挥社会新型基础设施和人工智能产业底座效应。与之伴随,人工智能革命背景下风险社会所面临的不确定性和动态性成为常态。因此,“全球人工智能的竞争已经从技术层面扩展到监管层面”。我国近期颁布的《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)可谓全球首发,为生成式人工智能的全球治理提供了中国范本,也被认为是通过垂直切口对人工智能监管重点的迅速回应以及践行敏捷治理的尝试。“敏捷治理”是率先在软件工程研发领域提出的概念,其内在逻辑是软件应以敏捷方式尽快发布,同时以用户为中心,通过反馈驱动软件的迭代与优化,这样其效果可以在早期就接受评估从而有助于效果的改进。该理念在世界经济论坛上被提出,而后由公共管理学者阐发与充实并将其应用到人工智能治理领域。作为一种新的理论构想,敏捷治理原则虽然被我国《新一代人工智能治理原则——发展负责任的AI》和《新一代人工智能伦理规范》所吸纳,但其理论内涵还不够充实,且适用条件和实现机制尚未得到充分挖掘。尤其在人工智能发展范式已经步入规模化和工业化生产的时代,如何正确理解敏捷治理原则是重要且基础的方法论。

敏捷治理虽强调扭转被动滞后的回应式监管,却不应将其僵化地理解为监管政策或者立法对新兴技术和应用的简单快速回应。在生成式人工智能嵌入式发展的当下,敏捷治理应首先强调承认治理对象的“不确定性”,应开发一系列轻量化、灵活性并以反馈为驱动的治理工具提升风险识别能力,应对人工智能技术快速发展中监管者和研发者“共同无知”的客观挑战,从而提升监管框架的自适应性。其次,敏捷治理强调治理规则体系的动态性和迭代性。对于生成式人工智能的潜在风险应开展持续的研究和预判,对已建立的治理框架开展及时的评估和验证,以反馈迭代到后续治理框架之中。最后,敏捷治理还应与韧性治理(resilience governance)并重推进。韧性治理强调治理框架的适应、恢复和转型能力。人工智能的韧性治理要求监管框架具有自适应性,正视人工智能技术带来的风险、冲击和变化,在治理时并不追求绝对的零风险,而是强调通过精准化的制度设计引导构建处理复杂风险的管理机制,确保新兴科技和应用的风险保持在最低可控水平。韧性治理强调面对技术风险时构建一整套灵活高效的风险处置能力,对严重且可能发生的风险场景科学研判,在风险发生后备以科学的应急计划和快速响应机制。与敏捷治理的内在逻辑相一致,韧性治理还强调治理框架的动态更新和持续完善。通过在治理框架中创建反馈循环的信息接口,开发导向型工具评估治理框架与技术发展风险之间的配适程度。只有将敏捷治理与韧性治理深度融合,才可在应对人工智能快速变化、层出不穷的新问题时既避免不适当的超前立法,防范监管不当引发的创新失速风险,又能够增强治理框架的适应性和实效性,形成治理与技术的良性共振。

(二)精准治理原则

生成式人工智能具有催生新技术、新产品、新业态、新模式,实现社会生产力整体跃升的巨大潜力,也是各国科技竞争的焦点和竞相主导的重要领域。如前所述,当前人工智能技术竞争已经从技术赛道延伸至制度赛道。有证据表明,不适当的监管不仅可能抑制创新,还可能破坏人工智能创新生态,将中小企业挤出市场竞争。就我国AIGC产业格局而言,大模型生态不仅涉及底层的服务支持、算法平台,还关涉一众下游应用企业。目前在基础层,虽然主要以百度、科大讯飞、腾讯、阿里、华为等头部平台为主力,但也不乏光年之外、Minimax等别具一格的中小企业横空出世”。可以说,大模型虽然是头部企业的跃升契机,也同样是中小企业智能化转型和逆风成长的普惠性发展机遇。有鉴于此,更应秉持精准治理的原则构建精细化、梯度化的治理框架。就生成式人工智能而言,更应注重三个层次的精准性:

第一,治理对象的精准性。我国《暂行办法》在第22条中对生成式人工智能技术的界定,相较于《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)第2条的描述,展现了更高的精准性。《征求意见稿》第2条将生成式人工智能定义为基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。这一定义未能精准捕捉生成式人工智能的技术本质与特性,可能引发治理对象的模糊不清和相关规则间的冲突。算法、模型、规则之间并非是独立并行的关系。算法是一系列定义明确的步骤或指令,是用于解决特定问题或者执行特定任务的计算过程,是实现模型和规则的基础。模型是通过假设、变量等要素构成,根据已有数据和特定算法构建的抽象描述。而规则是用来指导计算机程序行为的指令或者规范,可以用于指导模型的构建和使用,确保程序的正确性和可靠性。三者之间相互关联、紧密交织,难以拆分列举。生成式人工智能具有巨量参数、海量数据、超大规模、通用潜能等核心技术特征。若将所有生成合成类人工智能均含括在内,将与《互联网信息服务算法推荐管理规定》中规定的生成合成类算法以及《互联网信息服务深度合成管理规定》出现诸多交叉重叠之处。《暂行办法》中的定义一方面聚焦输出端的技术特性,明确该技术应具有内容生成能力;另一方面也将焦点定位为模型及相关技术,更贴合生成式人工智能的技术呈现方式。但目前的定义也存在一些未尽之处。其一,《暂行办法》中出现了生成式人工智能技术、生成式人工智能服务以及生成式人工智能三个术语。由于《暂行办法》中并未明确“生成式人工智能”的定义,三个术语之间的关系可能需要进一步厘清。其二,生成式人工智能不仅可生成文本、图片、音频、视频,还可生成代码。“代码”是否被默认属于“内容”这一类别尚无法在《暂行办法》中找到明确依据。相比于《征求意见稿》的定义,此次《暂行办法》将“代码”二字删除,可能在一定程度上导致执行和落地层面的不确定性。

第二,治理方式的精准性。生成式人工智能作为一种成长和发展中的技术,其技术发展范式以及研发者的技术认知仍然处于探索之中。以前文提及的幻觉问题为例,由于具有幻觉性问题的文本不一定存在语法错误,相反,其可能看上去十分流畅自然,因此相较于语法错误更为隐蔽但风险更大。对于这一问题,目前常见的文本生成评估标准均基于单词间的相似度运行,但幻觉文本影响的单词数量可能非常少,故难以识别幻觉问题。虽然有一系列技术致力于该问题的解决,但重点均聚焦如何从文本评估和检测方面着手展开。在现行技术发展阶段,需要机器审核与人工评测相结合的方式共同加以应对。因此,鉴于技术的局限性和发展性,监管规则需要预留必要的容错空间。虽然人工智能1.0时代强调全周期、全链条、全过程的治理,但就生成式人工智能而言,从结果视角提出合规要求可能更符合技术特性。从监管视角而言,希冀达成的目的在于防止生成的虚假或者不良信息产生相应风险,因此相较于防止再次生成的合规要求,可能要求提供者采取停止生成、停止传输等处置措施,同时辅以内容过滤和评测机制,对模型进行优化训练,确保生成内容达到更高的准确性阈值是更为精准有效的监管方式。

第三,治理归责的精准性。与传统人工智能相比,生成式人工智能因三个特性引发归责难题。其一,生成式人工智能基于深度学习模型,海量参数使其决策过程不具透明性。当其生成违法或者有害内容时,难以清晰界定内容生成的原因。其二,生成式人工智能在应用层面体现为用户与模型的交互性。虽然模型在训练后掌握了固定能力,但生成内容与用户的提示词以及用户互动方式密切相关。例如,已有诸多案例表明用户可以通过特定提示词使得ChatGPT绕开开发环节设定的伦理限制,回答并生成违法及有害的内容。即使是GPT-4,也尚难以完全摆脱这一攻击。因此,生成式人工智能的训练并不具有迭代终局性。用户与模型的每一次互动均会对内容产生交互影响。其三,AIGC行业中模型即服务的产业链条使得下游部署者通过应用程序接口或者模型压缩的方式获得L2层的垂直领域模型。而以OpenAI为代表的模型提供方则是在大量数据的L0层开发基础大模型。因此,在该产业链条上会出现开发者、部署者、专业用户、个体用户、接受者以及第三方服务提供商等多个主体。由于该产业链具有云上协同部署、终端微调对接的特性,可能出现真正研发模型、对于模型安全具有终局影响力的主体并未与应用层的用户发生交互。而在每一个具体场景中与用户紧密互动的服务提供者对上游大模型却不具有终局的技术影响力。因此,应结合生成式人工智能的生命周期、技术研发特性和产业链特点,制定更为公平精准的主体责任矩阵。

(三)参与式治理原则

伴随着人工智能技术复杂性和绩效性的提升,人工智能技术引发的社会风险日益凸显,给技术治理和社会治理带来诸多挑战。为平衡人工智能创新与安全,人工智能治理逐步从单一的以国家为中心、以命令和控制为核心的“硬法”模式向基于多中心主体参与的,以协同性、动态性、分层性、复合型为特征的新型治理范式转变。将生成式人工智能的研发者、部署者、用户、公众以及第三方专业机构纳入到治理网络中不仅是践行人工智能协同治理的重要方式,还是践行以众包为内核的开放式治理创新的重要路径。生成式人工智能是高度交叉复合、快速飞跃发展的新兴技术领域。基于下列三个原因,生成式人工智能的治理挑战更大,复杂度更高,更应探索包含公众、企业和第三方专业机构的参与式治理。

首先,生成式人工智能的产业生态不同于传统人工智能“作坊式生产”的传统架构。大模型的基础设施和底座效应打破了人工智能1.0时代研发、部署、运营主体清晰界分的格局。生成式人工智能的产业链上存在开发者、部署者、专业用户、个体用户、接受者以及第三方服务提供商等多个主体。从这一视角来看,数字内容生产者和提供者已经突破了知识和技术的壁垒,拥有资金、技术、数据优势的平台企业已不再是唯一的服务提供者。

其次,自下而上、用户驱动的治理以用户同模型的交互体验为基础,能够实时、动态、持续地反映真实环境中的应用风险。用户驱动的人工智能治理更能帮助监管者和设计者在日常、真实的交互中发现利益攸关影响节点,更能捕捉技术精英因专业知识结构同质化而产生的审计盲区,从而发挥“参与式治理”的制度优势。基于此,可以看到无论是ChatGPT,还是文心一言和星火大模型,均就内容生成为用户设置了便捷的反馈入口,希冀借助用户的反馈更好地对模型进行迭代和优化。

最后,传统科层制的监管架构具有“自下而上”的传导式治理特征,可能存在反应速率不足、应对风险措施僵化等问题,将不可避免地需要社会专业组织构成多中心协作网络,群策群力地应对生成式人工智能技术带来的风险。相较于个人用户,专业组织能够克服个人因时间精力和知识不足而导致的追责弱势地位。其不仅可以提供独立的技术评估、审查和监督,还可推动建立评估方法、制定行业准则,并提供专业的咨询和建议,以推动生成式人工智能的可持续发展和社会责任。尤其当新兴技术和应用出现时,专业组织能够在硬性监管介入之前充当风险纾解和缓冲的有效地带,对于人工智能治理具有不言而喻的重要作用。也正是基于参与式治理在生成式人工智能治理中的重要作用,最大限度地发挥参与式治理的潜力和优势已经成为治理共识。例如,美国白宫总统科技顾问委员会近期成立了生成式人工智能工作组,其成立后的首要举措便是邀请公众就生成式人工智能监管的五大核心议题提交意见,最大化地汲取各方观点,以参与式治理路径推动生成式人工智能监管框架的形成。面对生成式人工智能,多中心、多主体的参与治理模式可以增加透明度、减少潜在偏见和不公,并为生成式人工智能的进一步发展提供良好的治理生态。


三、面向产业生态链的新型治理范式:人工智能生成内容的治理逻辑

生成式人工智能彻底颠覆了数字内容领域。其改变了Web 1.0时代,信息仅以只读模式传递给用户以及Web 2.0时代信息通过网络在用户间双向生产和流动的方式。在这两个时期,人类仍然对信息的生产、编辑和流动发挥着实质性影响力。但在AIGC时代,人类对信息生产、编辑和流动的掌控力不断锐减。人工智能开启了知识生产和信息生产的新纪元。另一方面,生成式人工智能推动了人工智能即服务”(AIaaS)模型即服务”(MaaS)两种新型产业生态的涌现。平台企业突破和扩展了原有边界,在生成式人工智能语境下,不断从中下游平移至上游,从之前的单向度资源整合者拓展为通过插件(plugin)和应用程序接口(Application Programming Interface, API)实现多向度赋能的资源调配者。抓住信息生产变迁和产业链变迁这两个本质特征,结合敏捷治理与韧性治理、精准治理与参与式治理原则,本文提出面向产业生态链治理的新型治理范式。结合AIGC产业链的三种核心模式,未来的生成式人工智能内容治理应从基于API的模式、基于插件的模式和基于模型垂直部署的模式协同推进。

(一)基于API的治理

所谓模型即服务,就是通过基于模型的调用量进行收费。该种运行模式适用于底层大模型和中间层模型的商用化落地,按照数据的请求量和实际计算量确定模型调用量并进行收费。这种方式也是大模型向外赋能,降低人工智能规模化部署成本,进一步推动人工智能步入工业化发展阶段的核心模式。有研究表明,模型即服务的营收模式预计在2027年将成为AIGC产业链条的主流模式。以ChatGPT为例,其于202332日开放了应用程序接口,面向企业和开发者用户提供服务。OpenAI通过允许开发者用户登录其网站来调用服务。付费后,用户仅需少许操作即可完成配置,进入本地运行或者云端部署。距离其开放仅三个月,已经有办公软件、社交文娱、商业营销、家庭助理等多个场景的应用接入其中。在这一模式之中,用户可以通过惯常方式调用,也可引入专用容量对模型系统性能进行更深入的控制。

在技术机理上,OpenAI在基础层先行使用大规模未标注数据训练模型,使之学习和获得通用能力。中间层的部署者则需要微调(fine-tune)基础模型。微调是指在已经预训练好的模型上,根据新数据对训练过的模型开展训练,或者调整现有模型,以适应特定任务的技术配置过程。微调可以使用较少的标注数据在相对较短时间内完成模型训练,但也可能调整预先存在的模型参数。在各主体的技术能力和控制能力上,位于基础层的大模型是超高算力、海量数据、高效算法相结合的产物,需要雄厚的资源与科研实力,多集中于科技巨头以及部分科研机构主体。位于中间层的部署者更多体现为中小型公司和创业公司。而在应用层,则存在专业用户和非专业用户以及广大的生成式人工智能接受者等多个主体。基于API链条下的部署特点,在内容治理层面需要注意以下几点:

第一,Maas模式上中下游之间的风险视角存在差异。基础模型的开发者可能与在特定场景下微调后的部署者和应用者存在风险认知偏差。人工智能内容生成的具体风险在不同的价值链环节呈现不同面向。例如,基础模型在翻译任务中的精度偏差仅是关涉技术指标的问题。但当下游部署者将其用于翻译药品说明书或者医治方案时,则任何有偏差的内容均可能对人身安全存在巨大风险。在这种情形下,下游部署者存在对人工智能生成内容的人工审核义务。第二,API运营模式下风险既可能来自于基础模型,还可能来自于中间层和应用层,这使得风险识别与衡量复杂化。大模型开发者、中间层部署者以及应用层使用者可能使用的风险指标或者衡量方法并不一致。即使中下游主体发现了内容生成技术上的缺陷,由于基础模型不具有透明性,中下游主体也难以从技术架构上展开实质性迭代和调优。第三,中间层的部署者更多是中小企业或者个人开发者,其可能尚不具备完善的内部治理结构和风险技术保障。如果基础模型对应的单点工具产生错误信息和伪造信息,可能会嵌入其他场景和产品的产业链条之中将错误和伪造信息由传统的“一对多”转为“多对多”模式传播。用户端不仅难以甄别生成式人工智能产生的信息质量,对信息的证实滞后性明显,用户群体还可能成为新的信息源,传播规模和传播速度难以控制。基于API运行模式的三种风险特征,各主体应围绕人工智能生成内容安全履行相关治理义务:

首先,位于上游环节且具有全栈技术能力的基础模型开发者在训练环节应履行数据公平保障义务和数据准确保障义务。如前所述,数据集对于模型输出至关重要。因此,无论数据集是自行收集、使用开源数据集还是通过第三方数据经纪商购买,大模型研发主体均具有一系列数据公平保障义务和数据准确保障义务。虽然人工智能系统多依据统计建模,难以在现有技术条件下达到100%的统计精度,但仍可通过正确标记的测试数据为基准对系统输出正确答案的频率进行测量,从而衡量人工智能准确性。因此,当训练数据中包括个人信息时,应遵循数据准确性原则,即确保数据准确无误并在必要时及时更新。即使当训练数据采取的匿名化措施不包括个人信息时,开发者仍应采取一切合理措施保障训练数据集的合法合规性、多样性、一致性和可靠性。

其次,位于上游环节的基础模型开发者具有信息披露义务。正如欧盟《人工智能法案》最新折衷草案所指出的,鉴于人工智能系统价值链的性质和复杂性,基础模型开发者具有信息义务,为潜在的下游供应者提供所有必要的技术文件。结合生成式人工智能产业链特性,上游开发者应当对APIManifest文件、认证等关键开发步骤信息、部署环境配置说明、模型性能、扩展和调整性能指导、故障排除、更新维护以及特定应用环境下的风险警示等内容加以披露和说明,为中下游部署者构建配适的风险管理机制加以必要的信息支持。与此同时,监管者应当和技术社群合作共同制定技术设计和信息披露的标准与指引。

再次,位于上游环节的开发者具有持续追踪和评估基础模型应用风险的义务。基础模型的开发更像是在实验室或者受控环境中进行,在部署和应用环节等实际运营环境中可能会出现预期之外的风险。加之大模型具有较低的透明度,上游开发者在开放API接口时,应围绕技术维度、应用维度、救济维度和影响维度开展算法影响评估并持续跟踪部署和应用环节可能产生的风险。

最后,位于中游和下游调用API服务的主体也应当参与到治理生态之中。不仅应遵照法律法规和使用协议合法部署,还应协同配合上游开发者履行人工智能生成内容的标识义务。生成式人工智能极大解放了信息生产的效率,对中下游的部署者和用户赋能,使得人人都是程序员的时代提前到来。从这一角度而言,数字内容生产者和提供者已经突破了知识、技术、资金的壁垒。因此,在AIGC产业链条中下游的从业者、工具开发者、媒介和受众均应纳入到治理网络之中,从信息源头履行及时规范的识别义务,共同营造清朗健康的内容生态。此外,由于部署者是最为清晰知晓生成内容质量和应用场景的主体,其还应提供便捷的用户反馈渠道、及时评估模型生成内容的质量以及创建必要的人机协同内容过滤和审核机制,以合理化措施保障最终生成的内容符合应用场景的风险预期。

(二)基于插件的治理

AIGC产业链条上,构建基于插件式架构的大模型平台是继API模式之外的另外一条生态路径。插件式架构系统是一种兼具开放性和高扩展性,通过松散耦合方式互联的架构设计体系。基于插件式架构设计,可以把扩展功能从宿主框架中剥离出来,降低框架的复杂度。从技术功能视角来看,插件可分为类似命令插件、脚本语言插件、程序环境插件以及聚合式插件四类。为迅速成为超级流量入口,构建AIGC生态帝国,ChatGPT一方面将其自身插件化,集成应用至Microsoft Edge浏览器等工具之中,借助集成应用和工具界面向原生应用用户输出内容,迅速扩展其应用和辐射范围。另一方面,OpenAI邀请第三方协同开发插件商店,允许ChatGPT Plus用户访问并使用超过70个涵盖购物、房地产、股票、旅游、餐饮与外卖等多应用场景的第三方插件。在这一模式下,GPT内部插件带来优于外部原生应用的用户体验,用户的使用场景可直接迁移至GPT模型内部。通过该种方式吸引更多用户,迅速补齐各类场景的数据,形成同频优化的新生态。目前,OpenAI的插件通过ChatGPT连接到自有或第三方应用程序,增强 ChatGPT 的功能并允许其执行范围广泛的操作,包括获取最新实时信息,执行代码、计算或数据处理任务,与第三方集成协助用户执行任务等。在“对话+插件运营模式下,大模型单点工具能够依据应用类别、应用场景及时转换为多模态的应用工具,并直接对外部服务执行操作。这一模式下用户的使用场景得以迁移到大模型内部,大模型演变为接驳多场景应用插件的集成平台。

插件有如大模型的“耳目”,将大型语言模型连接到外部工具并带来一系列新机会。与此同时,插件生态也“引发新的重大风险”。插件接入使得大模型同其他系统交互的同时也构建了全新的、更大的复杂人机交互系统,由此带来真实、不确定外部环境互动下的增量风险。聚焦于人工智能生成内容的治理,插件模式可能带来下列风险:第一,用户易对生成内容产生过度依赖。与垂直使用模式不同,插件一方面对大模型赋能,另一方面大模型也可以插件模式集成到用户熟悉的应用场景之中,两种形式均会扩展用户与大模型的交互范围,可能产生过度依赖,致使用户内容验真意识与批判性思维降低,产生盲目信任模型生成内容的风险。第二,插件接口增加了网络安全攻击威胁。OpenAI的内部模拟显示,如果在没有保护措施的情况下发布插件,不法分子可通过执行复杂的提示语注入行为绕过安全、伦理限制,向插件用户发送欺诈性、垃圾信息。第三,内容生成的风险会通过插件系统跨域蔓延。插件系统的开放性和嵌入性形成模型泛在的效果。大模型与各类跨域场景和应用构成了复杂交互的新型生态系统,使得内容可靠性、公平性、真实性、涌现性风险串联蔓延。与API模式有所不同,插件路径更多面向个人用户,风险更易集中于插件部署前的安全、伦理、法律审查和部署后的实时、互动的内容输出环节。

鉴于插件路径下的复杂生态,更应将AIGC产业链上的所有主体纳入到内容生态治理网络之中,针对风险产生的不同时点、环节采取对应性的治理措施。具体而言,在插件部署应用前,位于上游环节的开发者应开展个人信息保护影响评估、科技伦理审查以及算法影响评估,制定安全可信的插件接入审核标准和审核机制。插件应用开发者应依据相应标准对插件应用效果进行测试,保障提供符合安全标准和伦理标准的插件服务。在插件部署应用环节,开发者和部署者应从全链条视角履行风险提示义务并对虚假信息的生成展开系统性治理。一方面,对于有关医学、金融等高风险场景的内容生成,不仅应清晰标识该信息为人工智能生成,还应以显著方式做出风险提示。另一方面,大模型开发者作为插件生态的“平台化主体”,还可积极研发提升信息可信度的工具和技术。诚如所言,我们应从一开始就将社会影响和伦理设计深深地融入基础模型及其周围生态系统的技术开发之中。大模型开发者在构建生态圈时,还应一并研发设计增进人工智能可信性的治理工具。例如,谷歌目前开发的人工智能生成图片识别工具可以提升AIGC技术的透明度,帮助用户区分人工智能生成内容。其开发的Perspective API等工具,以自动对抗性测试的方式辅助降低模型生成有害内容的可能性。在模型设计环节,谷歌还将水印直接嵌入生成的图像内容之中,即使对其进行后续修改和合成,该水印也会持续存在。

(三)基于模型垂直部署的治理

AIGC领域,第三种也是更为常见的产业运行模式是基于模型垂直部署的软件订阅付费模式。该模式下由大模型开发者作为面向企业用户和个人用户的提供者,以页面程序方式和用户互动,通过迭代问答式数据反馈,按照软件提供服务的特定周期收取相关费用。以OpenAI为例,ChatGPT Plus版本每月收费20美金。订阅用户可以获得高峰时段优先访问、模型快速响应以及新功能的优先使用资格。在大模型开发者直接面向用户垂直部署的模式下,人工智能生成的内容在模型与用户之间通过输入提示语的方式直接生成。因此,大模型开发者也是内容提供者,应从全周期视角履行积极合理的内容生成义务。

首先,在基础设施层,大模型开发者应履行数据质量义务。自然语言生成的“幻觉”问题主要由于训练语料中包含了错误事实。这些错误知识被模型学习并存储在参数中。当模型生成文本时,会优先考虑自身参数化的知识,因而倾向于生成幻觉性内容。因此,大模型开发者应当构造高质量数据集,包括对自行收集和交易购买的数据集实施数据去噪、引入高质量知识库进行知识增强等方法提升训练语料的质量,降低数据引发的文本幻觉问题。此外,大模型开发者还应从信息的完整性、准确性以及抗攻击和篡改能力对训练数据集开展定期评估,在涉及特定主题或者概念时,应衡量训练数据集的相关性和一致性。

其次,大模型开发者应秉持全周期视角履行内容评估义务。对话任务可分为任务型对话和开放域对话。任务型对话已经有较为一致的评估方法。但对于开放域对话,目前尚无一致的评估机制。大模型开发者可根据模型技术特性和应用场景特性定期开展内容评估。例如,围绕可读性、准确性、一致性、原创性、目标受众的适当性、生成结果的效率性、模型在不同输出层面的可扩展性等维度构建人工智能生成内容的评价基准,综合运用基于统计方法、模型方法和人工方法开展定期评估和内容审核。

此外,大模型开发者应对终端用户履行一系列信息披露、风险警示和使用指引义务。这不仅包括大模型开发者通过清晰标识和风险警示提示用户人工智能生成内容的可靠性风险,还应建立便捷易用的用户反馈渠道。在垂直部署模式中,用户的反馈对于模型迭代优化至关重要。大模型的研发不仅应在设计阶段纳入人类反馈,在部署和运行阶段也要持续地将用户反馈纳入迭代环路之中。例如,可依托A/B 测试框架实现用户反馈的评估,通过研究人员、开发人员与用户一起测试输入,深入评估内容输出模型参数设置的有效性。与此同时,与一般的人工智能应用有所不同,大型自然语言模型的提示语对于激发模型性能,使其更好发挥解决问题的能力具有至关重要的作用。提示语是指用于触发特定反应的输入信息。用户在与大模型互动时所提供的问题、语句或者场景,用以引导人工智能模型生成相应回答和行动的输入信息即为提示语。例如,针对大模型不会“慢思考”,过快给出结论的问题,当使用正确的提示语,引导模型先尝试给出步骤,再推导得出结论时,就会得到更为准确的输出结果。一项最新研究显示,大型语言模型可通过逐步思考(chain of thought)的方式解决多步推理任务。当使用正确的提示语时,即使并未微调模型,也可激发其推理能力,尤其在涉及数据或者推理等复杂任务时,其能够显著提升大型语言模型的性能。因此,大模型开发者在垂直部署时,有义务给出清晰易懂的描述和使用说明,为用户提供必要信息正确掌握与模型互动的方法,提高模型输出的可靠性和准确性。由此观之,我国《暂行规定》第10条要求生成式人工智能服务提供者明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术具有前瞻性和合理性。


结语

伴随着人工智能技术的飞速发展,通用人工智能的星星之火光芒闪烁、初露端倪。借助首发优势,ChatGPT正从数据飞轮迈向智慧飞轮,有望进一步释放实现人机共智的巨大潜能。一旦大型自然语言处理模型突破内容幻觉的技术瓶颈,其势必能够赋能千行百业,广泛嵌入社会经济生活的方方面面。正如陆奇所指出的,大型自然语言模型带来的是一个充满新机会、新范式的新时代。当下既是人工智能技术的奇点时刻,也是人工智能治理的关键时刻。在人工智能技术飞速创新的拐点时刻,如何实现技术治理的结构性革新是一项摆在时代面前的重要命题。这一新型治理范式的实现不仅需要遵循人工智能技术的机理与规律,还需顺应人工智能产业生态的结构与特征。随着平台企业突破并扩展了原有边界,从之前的单一资源整合者转变为通过插件和应用程序接口实现多维度赋能的资源调配者。本文提出了基于API、基于插件和基于模型垂直部署三种模式的治理架构。在未来,如何在该三种模式下探索构建更为精细准确的归责矩阵将成为撬动生成式人工智能治理最为关键的基础性杠杆制度。面对这一议题,有待于学界同仁携手展开进一步的深入探索。