人-机对齐问题的实质,就是如何让人工智能产品的行为输出符合人类的预期。布莱恩·克里斯汀的著作《人-机对齐》(湖南科技出版社2023年)讨论的也便是这样一个问题。全书资料详实,可读性强,为一般读者了解西方的科技伦理界讨论人-机对齐的前沿问题提供了不少有用的信息。不过,仔细读一下这本书,我们就会发现全书对于“公平”问题的讨论占据了非常大的篇幅,可见作者非常忧心人工智能系统的运用会强化人类社团的某种既有偏见,特别是种族歧视与性别歧视。
《人机对齐》
作者:布莱恩·克里斯汀
译者:唐璐
出版社:湖南科学技术出版社
出版时间:2023年6月
很多人都会认为对于此类问题的关涉乃是正常的,因为既然人类的普世价值显然是反对种族歧视以及类似的偏见的,人工智能产品的输出就需要与该价值观“对齐”。然而,更仔细的考察会立即让我们发现这种观点自身所包含的矛盾。
矛盾的一面是:反对特定形式的歧视固然是被普遍承认的价值;但矛盾的另一面却是:目前主流机器学习技术所得到的“偏见”其实就是来自于从互联网上找来的大量人类实际输出的内容——换言之,这些“偏见”已经反映了一部分人类的价值。
现在,新的问题就冒出来了:“价值对齐”这个概念所涉及的,很可能是某种特定的价值(如罗尔斯的自由主义价值)以及某些地方性价值观(如保守派价值)之间的冲突。因此,所谓人与机器之间的价值冲突,可能涉及的便是具有不同价值观的人群之间的意见冲突。
这里需要注意的是,英语中“偏见”(prejudice)一词本身是带有贬义的,其所指涉的乃是缺乏事实依据的主观意见。但从认知科学的角度看,智能体往往需要在巨大的时间压力与稀缺的情报环境下进行决策,因此,智能体对于未来形势进行的判断往往难以避免主观性与武断性的嫌疑。就好比对于老鼠来说,如果它们发现自己的亲戚吃了某种气味的食品死了,整个族群都不会去碰这种食物——而这种基于小样本的决断显然是既主观而又武断的。但它们显然无法承担因为轻信此类食物而死去的风险,
因此,规避此类食物就完全符合吉仁泽(Gerd Gigerenzer)基于生态学考虑而提出的“理性之节俭性”(the frugality of rationality)标准。从达尔文主义的立场上看,人脑虽然比老鼠的神经系统复杂很多,但依然会根据“理性之节俭性”的标准节省运作能量。
譬如,有女子若在恋爱中曾被戴眼镜的男子欺骗,她以后就会一直规避此类男子。不难看出,其判断得以产生的运作逻辑其实与老鼠躲避某类食物的逻辑并无不同。很显然,我们对世界的理解基本都基于此类“偏见”之中。有鉴于这些“偏见”对于节省人类认知成本的重要性,将其一股脑地贴上负面标签可能是不合适的。一个更适合的提法可能是来自德语单词“Vorsichit” 的“前见”——这词显然听上去比“偏见”显得更为中立。
一种基于“前见”的文本解释策略是基于德国哲学家伽德默尔(Hans-Georg Gadamer,1900~2002)的诠释学的,而他的相关观点却又是与当下流行的人-机价值对齐学说的哲学预设是彼此不同的。按照目下的人-机对齐叙事模式,人类的目标乃是一个客观的存在,而人工智能系统运作的目标就是抵达该目标,就好像球员的目标是要将球踢进球门那样。
而在伽德默尔看来,诠释文本的目标并不是一种客观的存在,而是解读者、文本自身与时代环境相互作用后形成的一种“视域融合”的产物。也就是说,怎样的文本解读答案算是客观答案,得看具体的历史语境。一个答案此时算是客观的,在彼刻就会被认为是不再客观。因此,来自解读者的主观性因素就会像渗入鸡尾酒的果汁一样,无法再被消除了。从这个角度看,那种将目标与手段加以截然二分的人机对齐理论的基本方法论前提就可能是成疑的。
那么,我们难道就可以凭借“容纳主观性”的名义而去容纳种族歧视与性别歧视了?
对于这样的一个问题,一种伽德默尔式的回答是:我们当然要反对种族歧视与性别歧视,但这不是因为这是一个需要被预先肯定的价值目标,而是因为人类历史发展的现行阶段已经无法容纳种族歧视与性别歧视。换言之,如果我们需要去同情性地理解古希腊时代的历史背景的话,我们也就需要同样具有同情心地去理解亚里士多德对奴隶制的容忍。这也就是说,不存在一种脱离时代背景与特定人群属性的抽象的“人的价值”——因此,也不存在着针对这一抽象的“人的价值”的人-机对齐运作。
上述抽象的讨论的具体技术意义是什么呢?假设你需要制造某种具有“紧急避险”功能的人工智能自动驾驶软件,那么设计者就需要思考在“紧急避险”状况真的发生的情况下,汽车应当保护哪类对象(比如,在左边的行人与右边的行人之间二选一,其情形类似所谓的“电车难题”)。按照主流的人-机价值对齐理论,此类软件的输出便需要与全人类的道德直觉相互符合。
但麻烦的是:很可能没有这样的全人类相通的道德直觉。有些文化主张优先保护儿童,有些文化主张优先保护妇女,有些文化则认为那些自己违背交通法则的个体应该被牺牲,而有些文化甚至主张应当优先去照顾那些具有特殊宗教意义的动物(如正在穿越马路的一头圣牛)。其中,哪一种文化提出的意见是正确的呢?以“反对歧视”为特色的自由主义理论在此已经陷入了僵局:紧急避险场景本身就意味着对于某类需要被牺牲的对象的“偏见”。
因此,假若一切偏见都需要被牺牲的话,那么这就意味着紧急避险这一类行为自身也需要被取消。但假若是这样的话,我们也就谈不上对于灾难后果的任何控制努力了——但这一点本身却又是不符合大多数人的价值的。因此,人机对齐蕴含的自由主义意蕴将使得人机对齐活动本身变得不可能。而要让这一悖论得以消除,唯一的解决方案便是在哲学上转向诠释学,即承认特定的人工智能系统的运行目标是与特定的文化风土相互联系的。
对于笔者的上述意见,一种反驳意见是:紧急避险只是我们希望人工智能系统所具有的某项功能之一,而在这个问题上遇到的“对齐目标模糊”问题其实也只是特例。而在别的问题上,我们还是可以澄清“人机对齐”的目标究竟是什么的。
比如,大语言模型的运作现在已普遍产生了所谓的“机器幻觉”问题,其表现便是模型会向用户提供大量貌似很真实但却并不真实的信息(比如编造完全不存在却完全可以唬住外行的科学论文)。因为关于此类信息是否真实,其实是存在着一种跨文化的评价标准的,因此,在这个语境中,关于何为人机对齐的目标,应该是没有什么差异的。
一个与之平行的例子则是这样的:有些人工智能软件可以通过恶意理解游戏规则,而在游戏中得高分(比如在战争游戏中将“多撞击敌舰”这一奖励规则误解为“多次撞击同一条敌舰”)——但人类用户显然不希望这样的机器被投入应用。因此,消除程序对于规则的恶意误解,也显然是人机对齐工作的题中应有之义。在这些场景中,此类工作的目标的客观性都是确定无疑的。
但从诠释学的角度看,事情未必如此。究竟什么是“机器幻觉”,什么是“恶意解读规则”,这本身是特定历史条件下进行诠释的产物,并不是纯然客观的事情。举个例子:在1891年发表的《新学伪经考》中,康有为认为《古文尚书》《左传》《毛诗》等经典都是西汉末年刘歆伪造的,因此,它们都属于“一本正经的胡说八道”。换言之,如果将刘歆代表的古文经学派的儒家学者都视为一台碳基大语言模型的话,这些经典的文本本身就是“机器幻觉”正在发作的明证。
但康有为的判断是否正确呢?按照钱穆等学者的考证,康有为对古文经的判断是错误的,而且,目前学界接受的便是钱穆的观点。这也就是说明,对于信息真假的判断,本身也是依赖特定的学术共同体的。拓展到自然科学领域去,我们之所以现在认为地心说是错的,也并不是因为存在着某种客观真理的标准规定我们必须这么看——毋宁说,这是因为托勒密的天文学体系早就被放弃了。而怎样的学术规范与学术范式需要被接受或放弃,这本身也是历史发展的后果。
再来看恶意解读规则的案例。其实,怎样的解读是恶意的,本身也是社会约定的产物。在军事游戏中反复攻击一条靶舰来获得积分被认为是作弊,但在足球比赛中反复攻击一个球门得分却被视为是正常的。怎样的规则解读才是合理的,取决于游戏设计者的目的与当地文化所起到的各种潜移默化的作用。换言之,不存在着放之四海而皆准的“恶意”评判标准。
我上文的讨论试图得出两个结论。第一,人机对齐问题必须被改写为“特定的人类文化与机器的对齐问题”,因为不存在着脱离历史特殊性与地域特殊性的“人类价值”。第二,假若我们硬是要强化机器需要与之看齐的人类价值标准的齐一性的话,这只会导致某种特殊价值观对于别的价值观的压制。对于人类文化发展的多样性与可持续性来说,这可不是一个好消息。从这个角度看,英语世界的主流人机对齐叙事方式,需要某种彻底的哲学反思加以澄清其前提。
本文来自微信公众号:返朴 (ID:fanpu2019),作者:徐英瑾(复旦大学哲学学院教授、上海人工智能实验室顾问)