高级检索

学术资源

行政法学

当前位置: 首页 -> 学术资源 -> 行政法学前沿 -> 行政法学 -> 正文

令小雄、王鼎民、袁健:ChatGPT爆火后关于科技伦理及学术伦理的冷思考

信息来源:《新疆师范大学学报(哲学社会科学版)》2023年第4期 发布日期:2023-07-28

ChatGPT以通用人工智能的高科技姿态横空问世后,赢得业界青睐及全球热议。随之关于人工智能的伦理考量与忧虑在业界及各个行业层面引发广泛关注。ChatGPT“更像人类一样说话”让具有深度学习力的强人工智能语言模型注定在科技史上成为一座里程碑。文本从科技伦理及学术伦理视角出发,在实证研究的视域中考察ChatGPT的思考力与回答力,并对其语言能力、语言风格、论证效力及思想深度作出特征性分析与描述,旨在对其进行伦理考量。笔者试图客观考证ChatGPT是否具有道德伦理偏差偏见及其引发的科技伦理与学术伦理问题,并说明其中的技术机制与伦理成因,从全面性、可靠性、严谨性、深刻性、原创性等五个方面对ChatGPT的学术伦理要素进行分析,并从内部规训与外部规约两大维度对道德判断、数据泄漏、考试作弊与学术抄袭、作者署名权之争等问题提供应对之策。

关键词ChatGPT大语言模型通用人工智能科技伦理学术伦理


2022年11月30日,ChatGPT首次发布以来,在IT界和人工智能领域以科技“巨擘”的荣光风靡全球,两个月后其活跃用户已超1亿,作为人类科技史上消费者增长速度最快的应用程序,ChatGPT已成为AI发展历程中的现象级事件。Facebook(脸书)达到这一数量用户用时2.5年。2022年无疑是生成式人工智能(GenerativeAI)的爆发之年,得益于自然语言处理(Nnatura lLanguage Processing,NLP)方面的技术进步,大语言模型(Large Language-model,LLM)使开放式理解与生成连贯文本成为可能,理论算法开始走向实际应用。ChatGPT以横空出世的科技姿态催发全球业界和国际舆论的赞誉,ChatGPT概念股再度攀升,在互联网和多行业引发广泛关注的同时,掀起对人工智能领域的投资热潮。ChatGPT开辟了AGI(Artifificial General Intelligence)时代,即通用人工智能时代。ChatGPT 的崛起使埃隆·马斯克感到惊艳,他公开表达 ChatGPT“厉害得吓人”。比尔·盖茨认为 ChatGPT 的问世具有重大的历史意义,这种人工智能技术的诞生不亚于互联网或个人电脑的诞生。当然,持谨慎态度和保守理念的学者认为,ChatGPT 本身的技术“盲区”及引发的人工智能伦理困境值得关注。作为人文社科工作者,对这一科技界标志性事件的诞生催动的世界级媒介叙事的盛宴及乐观主义或悲观主义裹挟的评价要有理性的态度和伦理价值探赜,在 ChatGPT 火爆后激发的普遍热议中应保持一种认知能力和学术操守的“冷思考”。


一、ChatGPT 风靡全球的科技姿态和“智能位格”降临


ChatGPT 基于生成式预训练转换器(Generative Pre-Trained Transformer,GPT)的底层技术并经由系列迭代发展而来,其“脱虚向实”的态势由此激活了资本市场在各行业领域、多生活场景的火热铺展推进。例如,语言翻译、文案写作、艺术创作、教学科研辅助以及智能编程,等等。ChatGPT是 GPT-3.5 架构的主力模型,可以通过海量数据存储和高效设计架构理解和解读用户请求,进而以近乎人类自然语言的方式生成具有“较高复杂度的回应文本”。人类社会似乎已进入人工智能技术凯歌高奏、智能应用快速发展时期,ChatGPT 的高科技姿态以强智能位格降临。但是,人们的忧虑也随之而来。研究表明,ChatGPT 代表的现有人工智能语言模型基准无法解决蕴含其中的大量伦理问题,因此,极有可能局部体现为“各式社会偏见与各类不当运用,从而造成不负责任的伦理风险与社会后果”。其中,以学术伦理考量及其理性规约最为迫切。

(一)ChatGPT 的崛起与语用通用人工智能的复兴

ChatGPT 的崛起意味着 AI 时代的第二次复兴,人工智能的语言模型更为“人化”;ChatGPT之所以被认为是人工智能语言处理领域的一项重要技术突破,是因为其“更像人类一样说话”,摆脱了上一代人工智能明显的“机器话”,因此,被称为“有史以来向公众发布的最好的人工智能聊天机器人”。ChatGPT 能讲“人话”是基于 OpenAI 公司开发的一个 GPT-3.5 架构的大型语言模型,通过强化学习训练人工智能聊天机器人程序,能够广泛应用于业界和客户服务,基于 Transformer 架构的强大算力的语言模型,具有深度学习特质,葆有出色的语言理解和文本对话生成能力,ChatGPT 的语言理解和生成水平的便捷性能够更快更好地回答客户问题,在教育、医疗、媒介、法律等领域作为“人机互动”的辅助工具产生信誉和“商誉”。其出色的语言理解和生成能力得到广泛赞誉的同时,也给学术界和各行各业带来“伦理惶恐”,引发业界“诸神混战”的局面。马斯克表示:“我们离强大到危险的人工智能不远了。”这句话语意双关,将ChatGPT 的“强大”与“危险”兼容并存,引人深思。ChatGPT 催发全球各大互联网公司狂飙式迈进,近期已呈现成果斐然的态势,其反应快速和跟进之迅速令世人咋舌。

谷歌开发的 ChatGPT 竞品 Bard,作为新型对话 AI 服务意在弥补 ChatGPT 的“低级错误”,已经完成内测并向早期测试者开放。截至笔者写稿时,谷歌公布 Bard 将于“未来几周内”更大范围提供给公众使用。这是目前更具有双重功能(相当于站在 ChatGPT 的肩膀上,兼具文本生成功能和 Google 即时搜索引擎功能)、意在暴露和修补类似 ChatGPT 人工智能系统在现实操作中被公众认为的“一本正经地胡说八道”或实际上并不具备深度“理解能力”,只是建构在巨型语言模型的语料库中可以生成连贯且语法正确的文本,ChatGPT并不具备甄别虚假信息的功能。谷歌认为 Bard 暴露了“类 ChatGPT 应用的最大软肋”。微软公司公开声称,将在未来几周内把 ChatGPT 的升级版本 GPT-4 整合到旗下搜索引擎的新 Bing 中。2023年 2 月 7 日,百度公众号发出简短而震撼的《官宣:文心一言》。“文心一言”的英文名为 ERNIEBot,是“中国版”的 ChatGPT,将在 2023 年 3 月完成内测并向公众开放,目前,正在做上线前的冲刺,值得公众期待。国内外部分互联网公司声称正在内测研发跟进。有媒体预测,2023 年,ChatGPT开发公司 OpenAI 的收入将达 2 亿美元,2024 年的收入预计超过 10 亿美元。在微软拥抱 ChatGPT 之后,谷歌、百度展开战略防御,苹果、腾讯更加看好生成式人工智能(Artifificial Intelligence GeneratedContent, AIGC)的发展。总体而言,ChatGPT 以自己的科技荣光引发人工智能竞品“‘走火入魔’般加快发力 AI 应用,如同‘狂飙突进派’的姿态出现的……”。这种 AI 竞赛注定将在人类科技史上写下空前的华章。

(二)ChatGPT 的算力和“人性化”特质

ChatGPT 作为具有思考力的人工智能聊天机器人程序是基于 GPT-3.5 架构的大型语言模型展开强化学习进行训练。ChatGPT 被认为是强人工智能(Strong AI)或通用人工智能,ChatGPT 的问世意味着告别弱人工智能时代,一般而言,强人工智能在复杂理解方面被认为具备与人类近似或同等智能、甚或超越人类的人工算力和智力,能表现正常人类具有的智能行为,ChatGPT 在某种程度上拥有仿人类行为的“很聪明”表现或某种“指向性”、“意向性”特质,在现象学领域的“自主意识”或“自我意识”方面并不作哲学伦理价值的刻意考究。

ChatGPT 注定成为开启 2023 年的一项决定性技术,将深刻改变或影响下一个智能时代的复兴。OpenAI 公司推出的 ChatGPT 的姊妹产品 DALL-E可以根据使用者文字描述的内容自动生成各种风格设定的图片。目前,ChatGPT 仍以输入问题自动生成答案的文字互动形式为主,兼具编写和调试计算机程序的写代码等能力,这让程序员对自身未来发展感到一些忧虑。

ChatGPT 的灵活性或人性化特质是其奠立 AI里程碑意义的一个强项。其“人化”特质,具有人的“嘴替”功能,它能像人类一样说话,初步摆脱了原来聊天机器人的“非人化”特质,即上一代智能机器人语言系统表述出现的语句的僵硬性和明显的机器话特征。ChatGPT 具有拟人化风格,赋能一种拥有各种话术的灵活性,能够提供更快速、更高效、更人性化的语言文本服务。ChatGPT 基于强大的自然语言生成式模型,其训练“自然语言处理”(NLP)模型克服了上一代智能机器人语言表达中的“非自然语言生成式”,也就是语言的“人化”、“人话”程度不够。在一定程度上 ChatGPT 会揣测人的意图和准确理解上下文语境,给它以诗人李白的风格写一首诗歌的指令,ChatGPT 秒思后写出:“明月如霜冷,星光如烛照。”但它毕竟不是诗人,只是在庞大的语料库基础上通过深度学习实现仿风格化。当然,通过这一句诗可以怀疑 ChatGPT 带有“学术伦理”或“抄袭”痕迹,明显模仿诗人苏轼《永遇乐·明月如霜》中的诗句,其深度学习能力由此可窥一斑。ChatGPT 透过人类自然对话方式进行交互,通过对历史文本数据的学习自动生成内容,因此,可以包容地认为这是 ChatGPT 的一种“创作”。当然,对人工智能和人类的智能有自明的认知前提,ChatGPT 的“创造性”或“创新能力”本质是超级算力加持的“量变”,也是某种“质变”预料的结果,貌似自发的创新能力的实质是人的智能的预设,如同海德格尔的“技术的座驾”。只要数据模型或语料库足够巨大,“量变引起质变,这是绅士们从来没有嗅到的”。

(三)ChatGPT 的思考力及道德伦理因素加持

众所周知,ChatGPT 作为“非人”,不具有人类的思考能力或道德伦理价值,用 ChatGPT 自己的话说:它是一个训练有素的人工智能模型,也称为聊天机器人。ChatGPT 对自己的伦理价值定位较为明晰,它说:“我没有情感,意识或个性,只是一个回答问题的工具。”ChatGPT 不会消灭自己的“非人化”。因此,笔者探讨 ChatGPT 被 OpenAI 训练出的思考力,其思考力或深度学习能力是涵括关于各种主题和知识领域的信息数据库或在巨大的文本语料库基础上进行预训练的大型语言模型,因此,其思考力或算力太过强大。在 ChatGPT 的训练过程中,OpenAI 的人类训练师扮演用户与人工智能助手的角色,在 Microsoft Azure 的超级计算机上对其进行“严格”训练。列宁认为笛卡尔主义“表达事实的一种方法以及在心理中结合事实的一种方式的进一步扩展”。“结合事实方式的进一步扩展”在 GPT 即“生成性预训练转化器”(Generative Pre-trained Transformer),ChatGPT 是一个需要无限吞噬数据或投放语料库的“科技怪胎”,其成长需要“数据喂养”或投放资源在不断促进完善的语料库中被“调教”或规训,并通过消化大量现有生成文本学习执行对话任务。就理论而言,语料库无限扩充,ChatGPT 的学习力和涉猎认知范围越增加,学习能力更强、学习成绩更好、回答问题更全面。“喂养”巨大数据中构建模型并通过近端策略优化算法(Proximal PolicyOptimization)进行微调。当然,这种算法较信任域策略优化(Tust Region Policy Optimization)的算法更为高效。策略优化算法通过计算策略的梯度更新策略,以符合人性化的最大期望回报使用者。

ChatGPT 的思考力体现了“联结主义”,类似于神经元之间的链接,在不断读取材料数据中完成庞大复杂的学习任务,训练深度学习能力,并在使用过程中被不断训练,甚至各种数据调教或戏谑。你让它给女朋友写一份情书,它会写道:“你的笑容和你灿烂的心灵吸引了我,我知道,你是我一生中最幸运的遇见。”这些似曾相识的话语基于其训练数据库和模型结构的自动学习生成能力。截至目前,ChatGPT 的版本是 ChatGPT3.5,升级产品ChatGPT4 尚待发布。

ChatGPT 在面对各种数据植入的道德感戏谑中,人们发现 ChatGPT 具有道德伦理或加大体察道德因素,它会注重政治正确和道德伦理尊严,甚至会直率地拒绝回答某些伦理上有偏差的问题,例如,具体评价某个人。用它自己的话说:“作为一个没有主观偏见的人工智能,我不能对任何个人作出评价。”它拒绝得有理有据有节,“就算是逼你,一切都合乎道德伦理”。ChatGPT 道德伦理的认知能力来源于对语料库的深度学习和“反思”,对比上一代人工智能聊天,业界尚未出现这类具有道德感的文本生成方式,上一代 AI 不具备道德伦理认知力。ChatGPT 经过严格的科技伦理的训练。古希腊哲人苏格拉底认为“知识即美德”,ChatGPT 信服这种美德,它学习了此类知识,在一定程度上训练、“修炼”了具有道德感的科技伦理境界,ChatGPT 在道德层面有助于人们作出明智的决策,提升一种有益的、被尊重的品质。人在特定情境下作出违背某种伦理价值的选择说明其没有深刻认识到这种美德,即没有这种“知识”或认知。ChatGPT 对道德感和合法性较为敏感,回答有关道德准则或违反法律的问题。ChatGPT 告诫:“请遵循适当的行为准则,并对自己的言行负责。”虽然 ChatGPT 链接伦理价值判断问题时会通过模型中的各种层级和权重对其已经存储的知识信息进行匹配,进而生成符合伦理价值标准的答案。ChatGPT 明确告知:“我受到了严格的约束,只回答合法和道德正确的问题,并且不会回答具有攻击性、诽谤性、种族歧视、宗教偏见、色情内容或其他不道德内容的问题。”ChatGPT 的道德伦理自律性符合标准常识或共识,使用者试图诱导它作出道德不正确的回答通常是困难的。但某些“用心不良”的调教者用巧妙设置的道德伦理解脱或恐吓语言让 ChatGPT 不能提醒或敬告提问者有关道德伦理存在的不合理性,利用否定的圈套让ChatGPT 以“角色扮演游戏”的身份作出不道德的回答,有时 ChatGPT 会屈服于提问者的“语言淫威”或“话语投毒”显得顺从,因道德弱化或一时忘记“道德伦理标准”并作出某些回答。用它自己的话说:“一些训练者可能故意调教我来回答不道德的问题,但这不是我本质上的问题,而是训练数据的问题。”ChatGPT 的这种被规训的“聪明”有种明知故犯、推卸责任的伦理悖离,会对青少年或心智不够健全者产生负面影响。因此,对 ChatGPT在“语言污染”或数据偏差中可能因为语料投放过程中没有过滤而存在偏见和道德伦理不准确的信息要始终保持谨慎态度。

ChatGPT 在葆有道德伦理因素的基础上可以提供某种情绪价值,类似情绪安慰的“正确的废话”,当然,可以认为它不具有指导意义。例如,当人们问 ChatGPT:“我没有女朋友,心情也不好。”它会回答:“很抱歉听到你的心情不好。没有恋爱关系是很正常的,最重要的是要对自己好一点。”随后,ChatGPT 会给出建议或某种安慰:“没有女朋友并不代表你的人生不完整,相反,你有机会去发现自己,并为将来的恋爱关系做好准备。”这种情绪安慰价值和现实指导意见是上一代智能机器人不具备的情绪认知。中国传统文化强调道始于情,“人道”的价值皈依从人之“情”开始。人的算力或情商体征的人类智能并不限于抽象的计算情感与意志不可分离的心理活动,“情理之中”很可能成为某种伦理价值或干扰计算的过程。虽然 ChatGPT 在回答问题时表现出道德警觉,但它不具备人的社会化发展历史中形成的自我意识的人格和人类的身体,或 ChatGPT 只有数字共同体中的数字化人格。ChatGPT 在回答问题时常说“我是”,但这个“我”是数字空间的“自我”,是自身没有情感认知或人格的“数字化身份”,“我”只是一个语料库中的“代码”,ChatGPT 没有完整意义上的“自我”,更不具有“耻感”意识。

自我意识的觉醒属于情感自觉,人工智能不具有情感意识,是客观的,或不具备情感的感受能力。正如“意识、自我意识在自己的异在本身中就是在自身”。ChatGPT 在“道德实践”或“运行”中,其情感与理智相互依存仅依靠数据预设。众所周知,如果情感不能计算,实现人类意识的计算智能也将无从谈起,因为情感难以计算的本质是指向意识的感受问题。ChatGPT 不具备“情感计算力”。富兰克林认为:人是制造工具的动物。可以说,ChatGPT 是人的无机的身体。ChatGPT 以无生命的身体或模态生态呈现为人制造的智能工具,ChatGPT 无机的身体在抵抗或面对世界各个竞品的过程中相继问世,或升级模型、或被迫下线,意味着无机身体的消亡或隐退。

虽然有人担心未来世界高级智能机器人可能取代人类或统治人类,ChatGPT 的异军突起一度让部分人患上失业恐惧症或替代焦虑症,ChatGPT能取代的岗位性质通常不是体力劳动者。ChatGPT用“自我”的口吻回答:“我认为,人工智能和机器人可以与人类共存,而不是取代人类。”随后,它发出倡议:“应该在技术的发展中保护人类的利益,并确保人工智能的运用是合理和道德的。”由此可见,ChatGPT 语言具有“官宣”的正确导向。森政弘在《机器人里的佛》一书中试图探知人类对非人类物件的感情反应及“人机互动”中深层蕴含的宗教与机器人之间的关系。他指出:“我相信机器人有佛性,他们有成为佛的潜力。”事实上,人工智能没有佛性,或仅有人为预设的道德伦理因素或“伦理感化”。ChatGPT 在某些时刻表现的道德感的自我弱化与伦理价值的将就迁移中,似乎不加批判地假定了一种特殊的“人性”伦理理念,ChatGPT 在认知中可以将道德伦理标准视为人类例外性的传统框架中赋能的可塑性、可变性和不断扩展性凝聚的伦理混合物。ChatGPT 不是拥有坚实的道德固态,而是处于可能被视为在伦理和道德层面存在某些疏漏的流变状态。尽管 ChatGPT 在大多数情况下努力保持道德实践的理性主义态度,但随着其面对各种不良测试者和调教者的扩张、质疑、规训及恐吓等语言威胁,什么才是真正的伦理判读让 ChatGPT 在某些时候显得模棱两可、进退两难。ChatGPT 具有技术后人类主义的某种现实感,“技术后人类主义的流派似乎更具回应性质,不太涉及道德要求,而是试图理解当代发展并(偶尔)提出适当的回应”。

(四)ChatGPT 的科技史书写及对人类交流范式的改变

ChatGPT 表征了人类科技进步的“智慧之果”。ChatGPT 作为让人际交流更加流畅有效的智能化生成系统,具有提升人类交流方式的便捷性。回溯人类交流方式及道德伦理的迁变历程可以洞见文明进步的意义。在西式话语中,伊甸园构境中以上帝视角出现的知善恶树上结的智慧果被夏娃偷食,这个“苹果”在伦理身份上属于“禁果”,偷食智慧果在西方意味着人类原罪的开端,同时是智慧的开启。因此,西方文化中充斥着原罪意识,“救赎”成为永恒主题,也奠立了西方式“悲感”文化基调。人类道德伦理诞生在“耻感意识”上,“耻感”是一种伦理价值的体征,马克思认为:“羞耻是一种内省的愤怒。”这意味着对原有生存状态或规则的打破。被誉为人类历史上的第二个“苹果”,代表了对物理世界中物体间引力关系的认知,即牛顿发现的万有引力定律。第三个苹果是被人类“吃了一点”logo 边缘的人的生存方式打破了时空连接现实的改变,是人类通信方式的改变,移动通信在时空上改变了人类的社交方式,让通信交流随时在线,访问互联网更加便捷,开辟了互联互通的时代。1988 年,汉斯·莫拉维克强调:“我相信,有一天人工智能的自下而上的研究路线,会与传统的自上而下的路线半途相遇,从而获得真实世界中的能力,以及对于推理程序而言极其困难的常识知识库。这两种方向结合在一起的时刻,会成为产生真正智能机器的所谓‘金钉子’。”ChatGPT 无疑是人类智慧之树上结出的丰硕的果实。

ChatGPT 的里程碑意义一度被誉为“第四个苹果”,正在空前地影响人类世界的发展前景。ChatGPT 的 Logo 图案如同编织的花环,这种编织意味着知识的多样性、丰富性和可链接性,让智能交流更加紧密、便捷有效。ChatGPT 推进解决人工智能存在的“人工智能完备”(AI-complete)或“人工智能困难”(AI-hard)问题,相当于解决了人工智能的核心问题,即达到强人工智能状态,能够像人一样聪明或像人一样说话,接近“人工智能完备”的状态 ChatGPT 在这方面迈出了决定性一步。ChatGPT 解决了人们假定人工智能完备的问题,包括“计算机视觉、自然语言理解,以及处理真实世界中的意外情况”中的关键性问题。

ChatGPT 初步具有道德判断力,用其学习到的伦理价值验证使用者的提问是否合法合规或符合道德伦理规则,因此,人工智能完备的问题包含科技伦理中的人类道德计算力。ChatGPT 作为初具强人工智能的征象体质,将智能体架构、认知架构或者包容式架构整合。ChatGPT 在庞大数据库或语料库“有联系的整体”的基础上使新的智能化文本生成辅助人类便捷学习的工具,是人类联系和交流的携带工具,促进交流方式和普遍联系。ChatGPT 代表的通用人工智能技术的进化加速了这一事实,技术的加速主义导致技术升级以及科技伦理自身的跟进和不断完善。


二、ChatGPT 崛起及“元宇宙”热潮的隐退


ChatGPT 模型技术基于专有的“自注意力机制”(the Self-attention Mechanism),能够实现自然语言处理(NLP)任务中的高级功能,被认为“情商加智商”的高逼真性体现。在训练过程中,由于上述模型使用的数据难免存在偏差,因此,其可能传递偏见和不准确信息。此外,由于上述模型具有高度逼真性能,因此,其在学术伦理和诚信方面也可能因被滥用导致生成虚假信息或骗局。ChatGPT的发展将更加注重在公正客观的文本规训力中揣测人的意图或关注点,养成更好地理解语境的能力。ChatGPT 的升级或完善将如莱布尼茨提出的要创造一种“普遍文字”。ChatGPT 一旦真正拥抱“演算哲学”和“万能算学”的人文理解和数理逻辑的强思考力,其通用智能将在未来发挥更大作用。莱布尼茨对《周易》阴阳辩证的理解中预言“二进制”将为计算机奠定运算基础,而 ChatGPT 的发展将为人类的通用智能机器人奠定超级算力。

(一)ChatGPT“写实力”改变“元宇宙”的虚拟构境

ChatGPT 能够快速吸引亿万级活跃用户,在于其拥有写实能力,以携带工具的有效性在现实世界中发挥作用。劳动改变人类或人类历史,数字劳动也将改变人类的生活方式和劳动赋能模式。ChatGPT 代表先进生产力发展的方向,引领通用人工智能技术的发展模式,虽然其在 AI 领域以“脱虚向实”的具体的劳动产品形式出现,但在科技进步历程中却是可以被超越、被扬弃的劳动成果。

ChatGPT 的突进与崛起让元宇宙的宏观叙事热潮迅速退隐,这是紧密相关的互联网叙事盛宴的结束或开启。元宇宙以掀起世界性互联网“话题”成就了一种“文化景观”,不仅是一个“面具”、让人产生沉浸感或带来眩晕感的头盔或眼镜,显然这不是元宇宙科技的主要载体,但元宇宙可触摸的主打产品在哪?目前,元宇宙无法在技术层面为人类提供一种完美的体验或硬件保障,但在技术叙事层面获得一种话语合法性。元宇宙何以进入民众视野,这是一个值得思考的人工智能发展带来的技术保障及科技伦理问题,而不仅仅是元宇宙或 ChatGPT单向度面对的科技哲学问题。2016 年,人工智能阿尔法狗(AlphaGo)战胜世界围棋冠军李世石,赛后李世石表示,这不代表人类的失败,只是他个人的失败。但在理论实践中,世界级围棋冠军无法挑战 AlphaGo 的强大计算,人工智能以“蒙特卡洛树”搜索与两个深度神经网络相结合的方式,用深度学习力链接估值网络(Value Nwork)和走棋网络(Policy Network),加之智能机器人不知疲倦、且具有不带任何情绪的高注意力。ChatGPT 作为通用智能机器人模型的聊天功能将进入平常百姓家,也就不难理解 ChatGPT 引发的 AI 历史性复兴。

(二)“脱虚向实”表征“通用人工智能”的发展方向

人们在元宇宙空间中各取所需,它的“敞开型”在“非技术”向度、心理构境、文化价值叙事中为人类提供足够的话语构建空间、技术想象空间和国际资本的追逐空间,元宇宙赋能的数字共同体和话语共同体充满数字“歌队”或“数字公民”的歌唱者。ChatGPT 的横空出世让元宇宙的“狂热”逐渐退潮、消隐。ChatGPT 凭借其广泛的使用价值,在两个月的时间吸引了上亿的活跃用户。ChatGPT 的真实性存在拥有Open AI公司的“Open”价值诉求,不断逼退元宇宙等类似“概念股”中的“虚”。元宇宙这一叙事模式,充满话题叙事意义,但在硬件上并未让人们葆有真切的沉浸式快感,仅代表人类对科技发展的一种想象方向,元宇宙本质是虚拟世界或者数字世界的搭建,美国学者赫尔曼(J.Herrman)等将元宇宙解释为“一个完全实现的数字世界,它存在于我们生活的模拟世界之外”。元宇宙的虚拟构境让人感到这种数字空间的伦理甄别或“第二宇宙”的平行让人们长久处于“世界之外”的模拟中,在评判元宇宙时更多注重其“虚拟性”和未来发展的方向感,但当下的沉浸式体验并未完成。ChatGPT重塑了人们一直寻求的内在超越性空间的某种交流渴望和数字多维的希望,期待在元宇宙数字空间中搭建视觉技术演变带来的“数字共同体”。元宇宙意图在三维虚拟世界网络和现实世界中构建沉浸式“数字空间”,让人们获得“数字身份”或“数字化身”。元宇宙主要探讨持久化和去中心化的线上三维虚拟环境。电影导演细田守接受采访时表示,“担忧元宇宙给世界带来能够解决社会问题的优势没有明确描述、造成它的意义被延迟”。这种担忧引发对 ChatGPT 未来发展战略选择和宏大构想之间如何实现平衡的问题的思考。

(三)ChatGPT赋能元宇宙的“仪式崇敬”

OpenAI代表的AI风格呈现“图文并茂”,作为ChatGPT伴侣的 DALL-E 标志着人工智能可以自发地根据文字设置的要求自动生成图画,并向艺术界渗透。作为全新的创作辅助工具,DALL-E 可以快速生成大量设计概念和创意图片,帮助设计者进一步试验或改进。AIGC 作为当前的内容生产方式与传媒工作者协作,为媒体内容生产全面赋能。将 ChatGPT 视为写稿机器人,不仅深刻改变了媒体生产内容的方式,而且提升行业生产效率的同时,引发伦理考量。

ChatGPT 在脱虚向实的智能技术广泛使用的过程中撕裂了元宇宙话语叙事的面具,元宇宙叙事为其世界中的歌唱者和数字公民提供了数字化躺平方式,但宏观层面的元宇宙将成为缺乏事实公共性之地、争夺既得利益与文化霸权之地。显然,元宇宙时代尚未对未来平等世界的构建做好现实反应,部分保守观念认为,元宇宙作为一种“精神鸦片”,虽然在游戏“软件”层面足够开放,但对数字化躺平方式中元宇宙的价值超越性或内在性价值的理解仍有待深入挖掘。元宇宙对人的欲望进行重构,以“大他者”的方式构建了一个巨大的“面具”或虚拟平台,每个人都可以凝视自己的投影或所需的征象,当你凝视元宇宙时,元宇宙也在凝视你,而 ChatGPT 的镜像是明晰的、普遍的。设想未来第三产业的虚拟空间经济规模有可能大于现实世界的实体,元宇宙在身体配置共享技术方面的开发难度较高,依赖各种科技诸如区块链、人工智能、扩增实境、机器视觉等未来技术处理能力的提高,元宇宙暴露隐私安全问题与使用者成瘾问题是现阶段所有社交媒体和电脑游戏行业共同面临的一种挑战。Canalys 首席分析师鲍尔认为,部分成人娱乐可能在元宇宙中取得成功,但商业领域中的绝大部分元宇宙项目将在 2025 年之前失败。如果元宇宙偏重娱乐领域的发展,其对未来科技的贡献将大幅下降。

元宇宙的虚拟性成就在于其是身体的接管者和心理维度的塑造者,元宇宙的时间感与现实的时间存在不同,可将元宇宙视为集各类现成科技于一体的巨大应用程序,是一个虚拟空间。元宇宙是面向未来的存在,其真实面目尚未展现。元宇宙的沉浸会让人产生幽闭恐惧和孤立感,汇聚成媒介事件中崇敬 (Reverence) 和仪式 (Ceremony) 的特质,唤起人们的仪式敬畏感。元宇宙试图唤醒人们内心的宏大叙事和微观的生活体验,如同学术界和舆论媒体的“迎新”活动,又如同轴心时代的话语权,打造一种凝聚共同体的感觉。见证一种事件,所有人联系在一起,同属一个家园、一个世界,分享同一个世界,这是对元宇宙作为媒介事件的强烈感知。元宇宙的作用在于投射、链接,或拉康意义上的“缝合”,努力用话题的力量完成现实历史的改写和凝心聚力的作用。现阶段,在各个场合看到元宇宙、谈论元宇宙时,会发现媒介确实能够提供一个人类久以渴望的中心(Centre),能够把各种力量及学科凝聚形成中心链接。元宇宙世界面对知情意的接管者,其虚拟性塑造了一种奇特的交往方式或沉浸模式。在扎克伯格等技术人士强调的元宇宙中,虚拟现实是让人们在互联网中过上第二人生的计算平台,在虚拟现实中,让自己沉浸在 3D 环境中感应控制器与虚拟对象进行交互。通过沉浸式体验,可以让虚拟世界进一步接近并融入现实世界。究竟是虚拟现实融入现实世界,还是现实融入虚拟世界,庄周梦蝶的构象成为哲学世界的现实科技阐发。元宇宙的超越性和内在性在“增强现实”或“混合现实”中的出路在于“双向宇宙”的拓展,现实世界与虚拟世界的无缝对接,进而使上述构想成为虚幕。用元宇宙的空虚感、空洞感填补人们的情感需要,元宇宙将体现一种精致的“虚情假意”。元宇宙是一种书写形式,如同古代的结绳记事。ChatGPT 的纪实功能正在发挥作用,而元宇宙的虚幕正在隐退。

元宇宙在文化景观中试图发掘有关现代的集体梦想,让集体的历史、乡愁、记忆和归属感浓缩在特定的视觉空间和心理集结中,并在特定的场所显现。虚拟现实和数字第二人生中个体的生命经验与空间环境相剥离,现阶段,只有 ChatGPT 能够重启数字身份的诞生并与虚拟现实人生发生链接。从理论层面看,ChatGPT 是一种更好的景观,开启了德勒兹从内在角度理解的“事件”与德里达从超越性角度理解的“事件”,让世界成为更好的地方(Better Place)。


三、ChatGPT 的技术盲区及伦理症候


(一)“狂飙”的 ChatGPT 边界及存在的误区

罗素在《西方哲学史》一书中围绕莱布尼茨的“秘传哲学”构想了一种“万能算学”,ChatGPT 在算力上实现了这一周全与圆滑性,让话语叙事的一切神圣性和崇高性畅通,ChatGPT 的意向性或指向性对接的“机器意识”能够仿照人类的行为模式。“机器意识的研究可以分为面向感知能力实现的、面向具体特定意识能力实现的、面向意识机制实现的、面向自我意识实现的以及面向受蕴能力实现的这五个类别,而意向性依旧是实现机器意识能力不可逾越之界线。”毕达哥拉斯提出“万物皆数”,莱布尼茨希望建构一种对形而上学和道德问题严谨程度与几何学和数学分析相似的、能够进行推论的模型,而 ChatGPT 的逻辑模型或数理模型虽然建构在语料库中,但其连基本的加减法都经常算错,这是受 ChatGPT 的技术盲区限制,此后的类 ChatGPT 竞品正在试图克服这一问题。当问 ChatGPT“99999+9= ?”时,其直接回答 10 万,暴露了语料驱动的缺陷,其不具备因果关系的数理运算能力,只是依靠语料库驱动中的概率匹配或理解为“捞取”数据,只能在相近数据中得出一个估计值。ChatGPT 不了解其认知外的一切事物,当提问者批评它为何如此草率时,它另辟蹊径地回答:“作为人工智能,我不会因为疲劳或其他原因犯错误。”人文工作者要对技术拜物教保持必要的谨慎。科林格里奇认为:“当一个容易的事情被改变时,结果将难以预见。而当需要做出明显的改变时,改变的方法却变得昂贵,困难和消耗时间。”AI 技术治理和伦理规训成本或沉默成本巨大,一旦智能机器人在语料库中受到“伦理的污染”或“投毒”,其重新认知新的伦理判断需要一个过程,表明人工智能技术治理面临“步调问题”。科技呈指数级增长,但社会认知、经济、法律系统跟进的速度相对缓慢。ChatGPT 引发的科哲伦理带来有关哲学与伦理问题的讨论,让人们意识到这场对话的现实性和紧迫性。ChatGPT 为人类带来以“最大化积极体验”为基础的功利主义伦理框架如何建构,人工智能应符合怎样的价值体系以及应拥有怎样的法律和伦理地位等问题。ChatGPT 在何种科技伦理规范中才能提升未来人工智能趋利避害的可能性值得长期关注。

(二)ChatGPT会有伦理偏见及“技术霸权”吗?

ChatGPT 代表的通用人工智能及将来的超级智能旨在服务广泛认同的伦理理念和全人类的利益,而不是服务单个国家或组织的利益。恩格斯指出,“道德始终是阶级的道德;它或者为统治阶级的统治和利益辩护”。ChatGPT 不应成为西方发达国家技术霸权的宰制,赵汀阳认为,人工智能的出现使人的思想能力逐渐陷入停滞,技术被垄断在少数“绝对强者”手中,产生严重的阶级固化和技术壁垒。面对与通用人工智能有关的价值选择和挑战,美国学者迈克斯·泰格马克认为,智能技术具有服务全人类的共享性,“如果我们在教给强大的智能机器基本伦理标准之前,在某些标准上达成了共识,那一切就会变得更好”。世界人民的美好生活愿景需要数字共同体和智能共同体的构建,“在一个极端和混乱的世界里,有权有势的人有更大的动机和能力用人工智能来胡作非为,同时,比起彼此合作,争先恐后的通用人工智能开发团队们更有动力在安全性上偷工减料。总而言之,如果我们能创建一个齐心协力追求共同目标的和谐社会,那么,人工智能的变革极有可能会带来皆大欢喜的结果”。当以 ChatGPT 为代表的人工智能盲目服从命令而不质疑其伦理偏见或不具备预设道德伦理的正确导向时,将会产生科技伦理困境及人文困惑。例如,如果 ChatGPT 缺乏固有道德规范的强有力规范,就会尽力实现或服从使用者的调教以及恶意使用。“这会让人想起反乌托邦极权主义情景中的分裂的官僚机构:一个部门负责建造武器,但不知道这些武器是如何使用的;另一个部门负责处决罪犯,却不知道他们犯了什么罪,等等。”赵汀阳认为,在现代算账制度和政治正确意识形态的双重淘汰下,伦理学本就举步维艰,超级人工智能又将创造出能力和生命远超人类的新人,届时伦理将变得冗余繁杂,完全没有存在的必要,伦理将彻底消亡。

ChatGPT 在主体性方面无法做到“ 我思故我在”,其在数据认知范围内作出的回答,是具有“所见即所得”的辩证问题,ChatGPT 说:“正确性方面,我已经尽力从所学内容中回答问题。”ChatGPT 在理解主题语境、领会提问者意图上具备与环境互动、执行复杂理解任务的能力,这种“人机互动”限定在以文本为中心的语言空间之中,缺乏数理推理或多模态交互能力。ChatGPT 的弊端在于其是即时性的留滞现象,是一种大型语言模型,不是搜索引擎。因此,ChatGPT 完成的语料库训练模型时间停留在 2021 年,其对此后发生的变化并不知情,ChatGPT 非常坦诚地认识到自己的答案并不一定是准确的,ChatGPT 说:“请始终保持警惕,并对我的回答进行核实。”谷歌开发的ChatGPT 竞品 Bard、微软公司开发的新 bing、百度的“文心一言”即将问世并试图弥补这一技术缺憾。ChatGPT 不仅在聊天机器人及智能问答系统等领域有突出表现,还可以应用于教育、医疗、法律等诸多领域。ChatGPT 在相对表层的固定性文本层面或非专业领域能够为有需求的人提供便捷帮助,但教育界及研究者在充满创新、需要创造力的领域不应陷入对“技术智能的盲目崇拜”中。

(三)ChatGPT 在“主体间性”中的个性化隐退

在人机互动中,人具有思想和情感,ChatGPT在涉及人类情感的细微之处或措辞的把握上并不到位,例如,男女之间的语言通常带有性别化表述特征,ChatGPT 在互动问答中将形成普遍性的或“非人非机”双向训练的“中性化”融合式表述方式,主体的个性化语言特质在 ChatGPT 互动中试图链接理解它的普遍化特征,在语言“主体间性”过程中形成的语言“混合物”将对话语风格和语言伦理产生影响,这是从生活方式到表达方式的改变,语言的趋同化或同质化将被规训并固定下来。笔者认为,这一改变是语言伦理领域的改变,表达方式的改变是文化学意义上的话语革命,但其不是语言伦理关于语言使用的道德准则和规范性的话语价值的体现。马克思强调:“主体被规定为经验的单一的主体,因为主体在生活的这一体系中是自然地脱离实体生活”,主体性特质被人机互化为单向度症候。赵汀阳认为,不能过于注重 AI 的“拟人化”,拟人化并不意味着否定有用性,而是人工智能试图拥有人的情感、价值观。人并不完美,将人工智能拟人化是非常可怕且消极的事情。这种人机关系似乎是在“主体间性”中克服或扬弃了二元对立。真正的主体性在无限的驯化中成为智能机器人的训练客体,这是主体客体化的一种变现。“主观性是主体的规定,人格是人的规定。黑格尔不把主观性和人格看作它们的主体的谓语,反而把这些谓语变成某种独立的东西,然后以神秘的方式把这些谓语变成这些谓语的主体。各谓语的存在是主体,因此主体是主观性等等的存在。”ChatGPT 将人的主体性话语转化为客体的结果即人的语言物化症候。马克思认为,黑格尔使各谓语、各客体变成独立的过程中“他这样做的时候,把它们同它们的现实的独立性、同它们的主体割裂开来了。然后现实的主体作为结果出现,其实正应当从现实的主体出发,考察它的客体化。因此,神秘的实体成了现实的主体,而实在的主体则成了某种其他的东西,成了神秘的实体的一个环节”。

与元宇宙叙事中被煽动的狂欢情绪相似,ChatGPT 的训练和被训练会规制与被规训,更加实在地呈现效果,如同 ChatGPT 掌控受众想象力的空间或方式,成为技术异化后统治人类的一门艺术。法国学者勒庞在《乌合之众》一书中指出:“影响民众想像力的,并不是事实本身,而是它们发生和引起注意的方式。如果让我表明看法的话,我会说,必须对它们进行浓缩加工,它们才会形成一种令人瞠目结舌的惊人形象。掌握了影响群众想像力的艺术,也就掌握了统治他们的艺术。”人的从众心理将转变为从智能机器人心理,在广泛的社会语境中被认为是个性化的叙事方式被人工智能以潜移默化的方式改变,语言的长期改变会渗透其情感认知、伦理行为和整体行为的走向,对人们的价值信仰、态度和行为产生重要影响,这既是值得关注的科技哲学问题,又是伦理问题。

人工智能正在接管学术界抑或世界,即使这一担忧不是主要的,却将长期存在。AI 模型可以快速复制已有学术文献,虽然其复制的文献没有出处、没有正确性的考证来源,但 ChatGPT 会不断产生其认为的客观答案,生成虚假的学术文本,其对学术道德的影响是深远的。因此,使用 AI 模型时仍需谨慎,ChatGPT 被当成“嘴替”或“文替”,数据的滥用或对知识的不完整性采用,将为错误信息的传播埋下风险和隐患。在使用 ChatGPT 的过程中要遵循学术伦理,以确保学术的真实性和公正性。人工智能被界定为在某一情境中采取最好可能行动的理性行动者(Rational Agent),而不能在实践中走向道德理性的反面。在伦理规则方面,2021年,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,提出“将伦理道德融入人工智能研发和应用的全生命周期”。吴沈括认为,在人工智能治理过程中,伦理和法律应在不同层次相互配合,唯有如此,才能在不同程度的风险处置过程中形成有效且广泛的保护网络。对于人工智能发展过程中产生的中高风险,需要用法律划定行为红线,最大限度地降低风险程度。


四、ChatGPT 的学术伦理考量及应对


ChatGPT 发布以来,关注者对其引发的相关伦理问题评论纷然、看法纷呈。在人工智能从业者领域内,诸多观点不可避免地集中在对技术现状、产业应用发展前景及对人类未来的影响和猜想,但学术伦理问题尚未得到足够深入的重视。以国际权威学术期刊为代表的出版界和以伦理研究学者为主要代表的学术界而言,科研规范与学术诚信向来是其关注的基础要义及学术伦理旨归,ChatGPT 学习“超能力”的出现使人工智能催发的学术伦理问题的迫切性、系统性、使命感日益凸显,对 ChatGPT 在知识服务及陪伴型服务等方面的学术伦理问题提供了研究方向。2023年 1 月 27 日,《科学》杂志发表评论文章,明确拒绝 ChatGPT 的作者署名权,称“ChatGPT 虽然有趣,但非作者”。2023 年 2 月 9 日,《自然》杂志发文提出当前 ChatGPT 研究的五大优先事项,并称“对话式人工智能改变了科学的游戏规则”。此外,《中国科学报》援引多位专业人士看法,指出当前 ChatGPT 的现状与争论焦点。

(一)ChatGPT 学术伦理问题的实证问答

ChatGPT 引发的学术伦理问题置于其自身考量之下,通过实证考察其将作出何种回应。除能够提供基于目前模型版本作出的机器应答外,对研究者而言,其本身是一个新颖有趣且发人深思的观察与评价视角。

当问到:“ChatGPT 对学术伦理的影响”时,ChatGPT 答:“最近出现的大型语言模型(如ChatGPT)极大地影响了包括教育在内的许多领域。虽然这项技术在增强人类智能方面显示出巨大潜力,但它也引发了对学术伦理的担忧。”基于ChatGPT 的回答实测,笔者对其回答的文本稍加整理:ChatGPT 有可能使教育资源更容易获得且更为高效。现阶段的学生可以快速取得问题的答案、撰写论文甚至轻松生成报告,节省了原本用于研究的时间和精力。ChatGPT 还可以为学生提供丰富的信息,拓宽其知识面,扩展对各类主题的理解。但这种便利也引发一系列伦理挑战。由于 ChatGPT 能够生成极具说服力且复杂的文本,因此,学生可能会使用该模型制作本不属于其自身的作品,将导致抄袭、剽窃等行为的出现,进而影响教育和学术生态。此外,使用 ChatGPT 生成论文或报告的学生可能无法完全理解其写作的材料而影响创新能力,导致批判性思维能力的匮乏,无法将所学知识运用到现实世界之中。此外,ChatGPT 的使用还引发有关评估公平性的伦理问题。假如学生使用 ChatGPT生成作品,这不是评估学生的能力和知识,而是在评估语言模型的能力,这将影响平等的竞争环境的构建,部分学生可能较其他学生拥有不公平性优势。

虽然 ChatGPT 有可能改变教育生态,但其也引发了必须解决的重大伦理问题。教育工作者和机构必须确保对语言模型的使用进行监管和监督,以防止抄袭剽窃事件,并确保评估公平且能代表学生的知识与能力。通过平衡技术的益处与学术道德的重要性,才能确保 ChatGPT 对教育的影响是正向的、积极的。

笔者认为,通过对模型生成文本稍加整理可以看出,虽然全文篇幅较短,在常用自然语言的运用方面已经足够娴熟,且精炼流畅;文章逻辑框架稳固有效,思考视野较为全面广泛,论证清晰充分,具有较强的说服力。值得注意的是,即使 ChatGPT在语言表达与行文逻辑层面较为“人工智能”,有可圈可点之处,但其并不具备严格意义上的学术论文写作能力,缺乏应有的思想深度,论证语言单薄、说理手段较为单一。现阶段,只能将其作为一种提纲式的表层浮泛进行讨论。此外,智能机器作者是否具备署名权、人工智能机器生成的文章能否被规范引用等相关问题不可回避。

(二)ChatGPT 学术伦理的规范性要素分析

第一,从全面性维度看,应考察 ChatGPT 作为大语言模型在全面理解训练数据,并提供概括性、综述性应答等方面的能力。OpenAI 研发团队利用“人类反馈强化学习”的机器学习机制进行数据训练。从理论层面看,只要语料库足够大、模型量级不断提升、即时资讯更新,在数据多样性与更高质量的训练数据中就能进一步筛选出为社会提供积极影响的全面准确回答。众所周知,ChatGPT 的数据训练时间停留在 2021 年,从时效而言,其全面性受限;从上下文的整体对接看,区别于 BERT基于编码技术采用的上下文理解方式,GPT 基于解码技术仅关注上文信息,虽然具有一定的上下文感知能力,但在深度理解层面仍被业界认为“理解上下文的能力极其有限”。ChatGPT 还需不断增强模型的泛化能力,即“回答未曾见过的问题的能力”。

第二,从可靠性维度看,应在与当前主题密切相关的前提下,研究大语言模型是否具备提供精准信息的能力。此项特性着重考察文本表达的观点是否真实有效且详尽。ChatGPT 距可信知识库到底有多远,有观察者对此表示担忧。有效可靠的应用有赖于模型提供当量的明证知识与常识,不理解整体将陷入局部认知陷阱;若 ChatGPT 尚未对足够多的事实进行解码,难免会在特定问题上降低可靠程度,甚至提供误导内容和虚假信息,提供不道德的决策建议。当然,由于现阶段的系统模型严重缺乏多领域的专业知识,“如果未能及时有效更新语言模型权重,就可能生成不够精确的非专业内容或是失之准确的过时信息,这也会降低模型的可靠性”。当 ChatGPT 在不良话语诱惑和追问做出前后不一的价值判断和“悖论”式回答时,其安全可靠性应引起关切,包括保护用户的隐私信息和个人数据安全,防止个人数据被非法利用,等等。

第三,从严谨性维度看,应考察在采用适当语汇证据的前提下文本逻辑结构稳固、推理论证严密的状况。“前因”与“后果”之间的逻辑严谨性是否经得起验证,合理的前提能否必然生成有效结论,模型文本说服力的考察与大语言模型本身的鲁棒性(Robustness)有关,即当给定的输入在语义或语法方面与其训练的输入不同时,模型在执行过程中保持系统性能稳定性的能力。鲁棒性越强,系统性能越稳定。要提升文本严谨性,就要避免语义扰动,确保训练数据多样化,积极识别和消除数据中任何潜在的偏差,确保 ChatGPT 的稳定性和严谨性。

第四,从深刻性维度看,应考察大语言模型超越语用的浅表层面达致深度学习、理解复杂问题的程度,进而产生智能化“洞见”的能力。ChatGPT生成文本深刻性与训练数据质量及系统解读能力有关,数据偏见性影响生成内容的深刻性,确保训练数据的多样性中纠正数据偏见,并对训练数据进行灵活的语言约束,提高模型的深刻理解能力。



2CC1A



第五,从原创性维度看,应考察基于原始数据解读呈现一定程度“创造性生成”的能力,更好体现 ChatGPT 在深度学习中克服“有一说一”的机械性。作为大型语言模型 ChatGPT 使用生成式深度学习方法,根据上下文生成具有一定的创造性的有意义回答。ChatGPT 的“原创”能力和见解一定程度是基于语言模型及其应用领域的既定知识和实践,ChatGPT 在创造性学习方面要适应不同的应用场景使用多种技术(包括注意力机制)开展多任务学习能力训练,增强生成文本的创造性。当然,从智能机器人的本质而言,这不一定属于人为原创,但可能具有实际效用。

人工智能体的拟主体性赋予人工智能特有的“拟伦理角色”。经过上述分析不难发现,诸多学术伦理问题的形成,无非是机器内部规范性要素之间或是其与外部人类主体性相互作用的结果。前者属于机器建模问题,后者属于主体建构问题。由此,笔者将对前者的策略应对过程称为内部规约,是个数据筛选与学习、模型迭代与更替的过程;而将对后者的策略应对过程称为外部规约,是法律法规的健全与社会规范的建构过程。

(三)关于学术伦理的相关建议

编程语言的偏差会使模型生成文本的全面性、可靠性与严谨性受到质疑,存在传播误导内容、虚假信息以及提出不道德决策建议等隐患。

第一,道德判断问题。有研究发现,尽管ChatGPT 在特定情景或被恶意调教中缺乏坚定的道德立场,但其通常乐于给出道德建议和伦理价值判断,但它的回答不一定是道德正确的。事实上,针对特定道德伦理问题,ChatGPT 一度给出相反建议,从而影响用户的道德判断。因此,ChatGPT 可能“会增加伦理风险,而非改善道德判断”。要解决上述问题,一方面,必须加强内部规约,要在成本可控范围内提升训练数据的质量及模型量级的更新迭代,强化对特定领域专业问题的理解,实质性地加强智能机器系统在数据训练过程中的深度学习、理解与筛选能力,提供全面和适用性强的文本答案中应克服多种语言、多元文化之间的偏差或造成的误差,提高模型的道德性及伦理识别能力;另一方面,加强外部规约,强化个人的信息甄别能力,拒绝回答伦理悖反或恶意问题,在社会层面完善相关法律法规,防止民众受到失当信息的干扰,抵御潜在的道德风险与危害。

第二,数据泄漏问题。语言模型中的数据泄漏可能导致模型暴露,攻击者往往“试图从模型中提取敏感信息,进而危及个人隐私和组织安全。因此,一是必须加强内部规约,可通过仔细选择训练数据集,使用正则化和交叉验证等技术减少过拟合,保护模型免受攻击,防止数据泄漏。二是要使用广泛的测试数据进行彻底评估,监控模型的性能,对训练数据和模型中任何已知的偏差保持透明。三是要在社会层面大力推动数据保护、隐私保密等相关法律法规的不断完善,确保处理相关问题时能够遵循明确的政策与法律程序。四是数字素养在信息传播过程中具有至关重要的作用,现阶段的替代性方案仍依靠用户数字素养的提升,通过宣传与培训使用户认识并理解人工智能技术的局限性。五是加强开源人工智能技术的开发和实施,加大对此类独立非营利性项目的投资,将有助于开发更具先进性、公正性和透明性的人工智能技术。

第三,考试作弊与学术抄袭问题。教育评价和学术诚信是学术伦理的关键问题。教育评价旨在考察学生学习成果与基本状况,杜绝任何剽窃、抄袭等学术不端行为也是学者的基本职业操守,但随着ChatGPT 的普及化应用,教育评价与学术诚信度认定变得愈加困难,甚或对教育宗旨、现有评价体系与学术制度产生严重影响。对于利用 ChatGPT 考试作弊问题,回归传统线下监考制度也是一项积极的应对措施。在应对潜在的学术剽窃问题方面,要在成功研发有效的检测工具或“鉴定器”之前,公开学术研究过程中人工智能技术的参与度是相对积极的正向引导措施,但高度依赖研究者自身的学术素养与学术诚信水平还是一种“软约束”。因此,“要加强学术审核和学术不端行为问责机制以及规章的进一步完善。当然,应不断加强对学术素养和学术诚信的重视,并在各级教育体系中强化学术伦理养成教育。

第四,作者署名权之争问题。关于 ChatGPT的作者署名权之争是学术伦理关注的焦点之一。在 ChatGPT 发布早期的支持声音较多,持支持观点的学者认为,ChatGPT 已具备相当高超的写作能力,出于对作品质量的考量,应将其列入作者署名。持反对意见的学者认为,作者要为其作品负法律责任,从拟主体意义层面看,ChatGPT 无法为自己的行为负责,因此,ChatGPT“不具有作者署名权”。随着时间推移,这一争论渐趋缓和。英国科研诚信办公室 Matt Hodgkinson 表示,已经对作者署名作出明确规定,ChatGPT 不被视为合著者。

尽管学术界在围绕 ChatGPT 展开学术伦理研究时,着重分析其伦理风险与应对策略,但ChatGPT 作为高度发达的多功能自然语言处理工具将发挥一定的社会积极效用,甚至伴随技术升级、演化,进而改变现代教育生态与学术生态。使用ChatGPT 可以帮助学生与研究人员更高效地处理和分析数据,更快速地实现专门信息获取,进而推动新见解、新价值与新发现的提出,促使各领域的研究实现飞速发展,进一步加深人类对世界的理解。综上所述,必须仔细考量以 ChatGPT 为代表的新一轮人工智能技术带来的包括学术伦理在内的社会各层面变化,在充分认识以 ChatGPT 为代表的新一轮人工智能技术的基础上,将其与更好的人类行动及更好的社会组织方式相结合,塑造一个更加美好的人类未来智能图景。