[返回哲学世界首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

机器伦理的哲学基础、基本特征与实现方法(下)

送交者: wangguotong[★★★声望勋衔13★★★] 于 2024-04-17 1:02 已读 3008 次 1赞  

wangguotong的个人频道

+关注

廖备水:机器伦理的哲学基础、基本特征与实现方法(下)


一般地,我们把应当p”应当非p”看作一个伦理困境。例如,把夏天应该劳动夏天应该不劳动看成一个伦理困境。由于规范是一种可废止规则,可以从规则的结论中分离出义务命题。例如,对于规范当用药时间到的时候,(为了保护病人的健康)应该给病人服药当病人正在处理紧急事件的时候,(为了保护病人的安全)应该不给病人服药,当前提用药时间到病人正在忙同时成立时,可以分离出两个义务命题应该给病人服药应该不给病人服药。这种从规范中分离出义务命题,并由此判断是否存在伦理困境的方法,可以由不同的逻辑工具来实现,如缺省推理、结构化论辩等。给定一个规范系统,对于每个伦理敏感事件,是否存在伦理困境取决于在推理结果中是否存在两个不相容的义务命题。例如,如果依据缺省推理,得到两个外延(通常把每个可接受的命题集合称为一个外延),其中一个外延包含命题应该给病人服药,另一个外延包含命题应该不给病人服药,那么就存在一个伦理困境。


在这种推理中,机器伦理的社会平衡性体现在来自不同利益相关方的规范及价值的相互作用。如果综合了不同利益相关方的规范和价值的知识导致伦理困境,那么就需要采取适当机制来解决该困境。目前的常用机制有两种。第一,通过对相关规范进行排序的方式处理伦理困境。这种方法在如下情况下有效:可以获得特定背景下规范之间的排序,同时在排序之后,所推出的结论不存在伦理困境。第二,通过社会聚合,找到社会层面可接受的方案。当第一种方法不能满足要求时,可以通过判断聚合的形式,进一步获取社会层面的一致意见。例如,把每个利益相关方的观点表达为一个基于规范系统的抽象论辩框架,通过基于论辩框架的聚合,获得社会层面的一致结果。目前,对这种社会聚合方法的评价基于一些特定的原则,而关于这些原则的合理性还有待进一步研究。此外,一些价值对齐系统假定有一个价值系统,但在多数情况下由于价值的多元性,需要从多个不同的个体价值系统出发,得到一个一致的价值系统,以决定一个人工智能系统应该跟什么道德价值对齐。


值得注意的是,上述基于规范/价值排序或判断聚合的形式来处理伦理困境存在一定的局限性:(1)在许多情况下,一个行动或事件的好坏往往涉及多个因素,这些因素又依赖于情境及相关主体的价值观,因此在一些实际应用中关于规范/价值排序的处理往往比较复杂;(2)有些伦理困境无法仅仅通过运用利益相关方给出的规范及价值排序进行推理就可消解;(3)在处理冲突过程中如何定义和实现公平性存在困难。


为了克服上述第一个局限性,一种可能的途径是在有些应用中,通过发挥数据驱动方法的优势,利用有监督的数据来反映人类个体对特定情境中某个事件的综合判断。这时,相关主体对某个行动或事件的好坏有个综合判断,而不需要明确指出相关规范、价值及其排序。


对于上述第二个局限性,一种可能的解决途径是对伦理困境的处理过程进行分级,以适应不同的情境。例如,在初始级,可以由各个利益相关方分别依据自己的规范和价值进行推理,给出结果。如果所有利益相关方的结果综合在一起时不存在伦理困境,则指示机器按照利益相关方给出的综合方法行动。否则,进入下一级,把各个利益相关方的规范和价值综合起来,并在此基础上进行推理,看是否可以解决伦理困境。如果困境仍未解决,则进入第三级,通过引入情境相关的元规范,对利益相关方进行排序。这样处理的优点是可以在计算时间和伦理困境处理质量方面取得一定平衡。不过,关于如何处理伦理困境消解带来的公平性问题,仍有待于进一步研究。


此外,在知识驱动方法中,文化差异性表现在利益相关方所提供的规范和价值。例如,对于病人拒绝在规定时间服药,在西方文化背景下,可能偏向于尊重病人的自主权,而在东方背景下,可能偏向于强调监护人的监护责任,把相关情况通知监护人。


知识驱动方法可以直接表达人类水平的知识,推理过程和结果均有良好的可解释性。不过,对于知识的获取,尤其对于不同文化背景下的知识获取,单独运用知识驱动方法难以实现。


(二)数据驱动方法


数据驱动方法通过学习人类决策或偏好,在一定程度上实现伦理对齐。对于有监督的机器学习,人类专家或公众对每个训练案例进行标识,指出什么选项是好的,什么选项是不好的。依据机器学习方法的不同,可以得到用于伦理对齐的规则或者符合特定伦理要求的模型。前者基于案例和归纳逻辑编程,具有良好的可解释性;后者基于一般的机器学习方法,尤其是深度神经网络,需要进一步建立可解释方法来提高模型的可解释性。


下面以基于归纳逻辑编程的方法为例,说明数据驱动方法的特点。这种方法的输入是一组案例集合。每个案例由一个情境和两个动作组成。每个动作的结果表示为一个特征向量,用于反映特定情境中执行该动作所带来的伦理后果。人类专家或用户依据特定情境从两个动作中选择一个伦理上比较好的动作并加以标记。在获得一组包含标记的案例集合之后,机器学习算法通过学习获得可以反映人类专家或用户伦理选择的原则,使得所有正例都被该原则所覆盖,而没有负例被该原则覆盖。在这里,每个原则表示为一个特征向量,反映的是执行某个动作而不执行另一个动作所带来的伦理后果的差异。我们说一个案例被一条原则覆盖,意指该案例的特征向量的每个元素的值都不低于该原则中相应的伦理差异的下界。


由上述分析可知,与知识驱动方法不同,数据或案例驱动的方法通过使用机器学习方法来训练与具体道德问题有关的人类描述以预测人类的道德判断。这种方法有点像儿童学习道德,预设机器在接收到足够多的带标记的数据后,可以学会如何决策和行动。由于深度神经网络的输出结果具有不确定性,在一些情况下可能出现凸现性质。这种凸现原则上是无法预知和被控制的。为了避免造成意外伤害的可能,一种可能的途径是把数据驱动与知识驱动方法相结合,由显式表达的规范性知识来引导机器的决策和行为。


对于数据驱动方法,也需要聚合来自不同个体的社会价值,以得到统一的意见,实现社会平衡性。与知识驱动方法不同的是,数据驱动方法需要聚合的不是多个利益相关方的规范和价值排序,而是多个个体对某一行动或事件在伦理上的不同看法。在数据驱动方法中,人类专家或用户对特定案例的伦理判断基于个人直觉,反映的是其综合的价值观。因此,在数据驱动方法中,既不需要也无法事先预设某种伦理理论。这将导致两个相互联系的结果。一方面,由于不同的主体有不同的价值取向而且伦理事件具有很强的背景相关性,通过数据或案例的形式可以解决在各种伦理敏感情境中难以套用某种单一伦理理论的困难。另一方面,由于主体所坚持的价值观隐含于其伦理选择中,因此缺乏对伦理考量的显式表达和可解释途径。关于社会平衡性中的冲突消解和公平性问题,数据驱动方法也存在局限性。其一,由于人类专家或用户的规范和价值没有得到显式表达,因此缺乏细粒度的规范及价值冲突处理机制。其二,基于多数专家或用户观点的数据统计方法容易引起多数暴力问题,如何确保合理性和公平性,是值得进一步研究的问题。


此外,数据驱动方法,尤其是基于大语言模型的方法,对于处理机器伦理的文化差异性有独特优势。我们知道,语言作为文化的最重要组成部分之一,是人们相互交流、建立关系和形成社群的基本途径。近年来,随着大语言模型的快速发展,把大语言模型用于捕捉文化背景的差异成为一个重要研究方向。一般来说,语言模型不应该被用于规定伦理,而是从描述性的视角处理道德规范推理问题。因此,可以通过修改提示来让语言模型产生不同文化下的道德规定。在沙姆罗夫斯基(P. Schramowski)等人的工作中,基于大语言模型,可以捕捉到有关社会规范、道德规范以及价值的知识,包括道德偏见以及道德正确和错误的行动等。在一些设定下,多语言预训练模型能够识别文化规范和偏见,包括说不同语言的文化下的道德规范。不仅如此,单一语言的预训练模型也可以编码关于道德规范的文化知识,即单一语言的预训练模型可以精确地推理出跨越多个文化的道德规范。此外,当文化背景变化时,伦理机制也跟随变化,因此基于大语言模型建立灵活的、可解释的框架来刻画这种变化是一个重要的研究方向。另外,有学者通过把用户价值编码为一组规则或一个模型,可研究情景的改变如何影响这些编码。


(三)数据知识双驱动方法


上述的知识驱动方法与数据驱动方法有各自的优缺点,且这些优缺点是互补的。一方面,知识驱动方法可以直接反映人类的规范与价值,且有良好的可解释性,但需要预设特定的伦理学理论,且无法灵活处理文化差异性和动态性。另一方面,数据驱动方法可以灵活反映各种不同情境中人类专家或用户的伦理考量,且可以通过大语言模型获取跨文化背景下的伦理知识及其差异性,但可解释性差,且无法受到人类伦理和规范的直接导向。鉴于该原因,把两种方法的优势结合起来,建立数据知识双驱动的方法,成为一个新的发展方向。


知识与数据的结合可以采取不同的途径,典型的包括组合型的和集成型的。组合型的途径把数据驱动方法和知识驱动方法串联起来,前者实现知识的获取功能,后者实现知识推理与决策功能。例如,林方真等人把大语言模型与自动推理机相结合来实现形式化知识的自动获取和自动推理。其中,大语言模型可以把用自然语言表示的知识翻译为一阶逻辑公式,而自动推理机则完成推理功能。由于自动推理机可以处理复杂的逻辑关系,大语言模型与自动推理机的结合可以提高系统的整体性能。基于这个思路,一种可能的研究途径是通过大语言模型,把由利益相关方产生的由自然语言表达的规范及价值转化为形式化的规范系统,或者挖掘出包含于自然语言文本中的论证及其关系。在此基础上,通过规范推理或论辩推理,实现自动伦理决策。这种系统的决策利用了自然语言文本中的人类知识水平,而不仅仅是自然语言文本的数据特征。因此,可以为细粒度处理和解释利益相关方的价值冲突、建立具有公平性的系统奠定基础。


集成型的途径把数据驱动方法和知识驱动方法交叉集成起来,使得前者的输出作为后者的输入,同时后者的输入作为前者在进行算法优化时的依据之一(通过损失函数)。例如,在我们的前期工作中,把基于论证的知识表示与大数据驱动的机器学习结合起来,建立可理解的决策模型。在这种方法中,对一个案例是否为诈骗案的判断,依据的是关于诈骗的法律条款和来自数据集的各种特征。首先,建立一棵基于双极论证的知识树。这棵树的节点和边都有直观的含义。然后,依据给定的数据集,通过学习这棵树的节点和边的权值来建立一个模型,使得该模型的预测精度到达最优。把这种方法应用于伦理决策,可以发挥数据驱动方法与知识驱动方法的互补性。一方面,对于每个特定伦理行动或事件,通过建立基于规范和价值的知识树来显式表达利益相关方的规范性知识。另一方面,通过大数据驱动的机器学习,来调整知识树中各个成分的权重,以反映隐藏于数据中的描述性知识。由于知识树中节点和边的内容信息都是人类可理解的,因此可以为实现人机交互性提供前提。同时,知识树中节点和边的权重可以综合反映情境信息和用户偏好信息,因此有助于克服知识驱动方法的局限性问题。


(四)人机交互方法


人机交互既要忠实反映智能系统的内在逻辑关系,又要在了解用户心理活动的情况下实现基于自然语言的对话。人机交互方法的核心主要包括如下四个方面:


一是智能系统内在逻辑关系的表达。一方面,在知识驱动的方法中,可以直接利用显性知识以及基于该知识的推理关系。在基于规范与价值的知识驱动方法中,支持一个结论的理由可以用规范的可实施性来表示。比如,结论应该给病人服药成立的理由是:前提条件用药时间到成立,并且规则当用药时间到的时候,应该给病人服药是可实施的。另一方面,由于一般的数据驱动方法不具有可解释性,无法把隐性的模型知识表达出来用于给用户提供解释。不过,通过数据与知识的结合所建立的数据知识双驱动模型具有可理解知识,因此可以被用于人机交互。


二是最简解释与用户模型。由于智能系统内在的逻辑关系可能十分复杂,通常不是将所有内容完全表达给用户。例如,加科拉(R. Jaakkola)等人依据用户模型建立充分而最简的解释。因此,解释内容的选择与被解释的用户有关。为了让用户理解推理依据和过程,通常需要了解用户的信念。对一个智能系统来说,它关于用户的信念具有不确定性。阿杜(E. Hadoux)等人通过建立概率模型来描述用户信念和关注点。这样,系统可以依据这个模型选择对话内容,更好地完成解释或说服任务。


三是对话语言与机制。自然语言是与人类进行对话的主要语言。目前,大语言模型的出现为把人工语言转化为自然语言提供了重要的技术支撑。同时,在对话机制方面,依据不同的对话目的(如说服、协商、信息获取、查询、发现因果等),建立特定的对话协议。在此基础上,依据智能系统的内在逻辑表达和用户模型,采取适当的对话策略开展人机对话,实现对话目标。


四是基于情感表达的交互机制。情感表达是人类或人机交互的重要途径。借助一些技术工具,尤其是大语言模型,机器可以检测到人类情感并模仿人类的情感表达。由于情感在机器的道德决策中起重要作用,需要有机结合由自然语言表达的知识和由情感表达的知识。因此,除了情感知识的获取与表达,如何建立可以包含情感知识的推理与决策模型,也是一个值得进一步研究的关键问题。


四、问题与展望


在新一代人工智能背景下,人工智能技术的发展日新月异,但由此带来的潜在问题也将持续且深刻地影响到人类社会的方方面面。 如果说人工智能为人类社会的发展进步提供了技术上的强大支撑,那么这种能力能否转化为人类福祉,在很大程度上取决于机器的自主决策和行动能否很好地满足人类社会的伦理要求。作为一个新的研究方向,有关机器伦理的哲学基础、特征和方法等都尚不明确。本文尝试从文理交叉的角度,系统分析机器伦理的这几个核心要素,以澄清思路,并带来进一步的思考和探索。接下来列举几个需要进一步探索的有关机器伦理的挑战性问题。


第一,即使对于人类来说,作出道德判断也是困难的。人们对什么是适当的伦理理论只有有限的理解。不仅人们在这一话题上存在不同见解,个体对伦理直觉和信念也存在冲突。同时,道德判断具有高度情境依赖性,不同的背景可能导致迥异的判断。这里的情境信息包含所关联主体的社会关系、文化背景、历史背景等。


第二,尽管大语言模型的出现为推动机器伦理的研究和实验提供了新的视角,但相比对伦理理论的不充分理解,机器对常识和世界知识的缺乏是更大挑战。比如,对于阿西莫夫三定律,如果要求机器人实现不要伤害人类,那么机器首先要能在现实世界中理解什么构成伤害。对于极小化伤害这样的规则,让机器遵守它看起来是无害的。然而,如果机器决定通过杀死所有人来实现长远的极小化伤害则是灾难性的。


第三,由于具有伦理推理能力的机器无法确保伦理对齐,可能存在道德上错误的结论。对于个体人来说,一些错误是个例,因此是可接受的,但对于机器来说,由于大范围应用,类似错误有可能变成系统性的和不可接受的。同时,机器的犯错可能与人类不同,在缺乏可解释性的条件下,许多错误难以预测和管理。此外,机器的伦理推理能力可能易受攻击,由此引发新的严重问题。


第四,知识(数据)驱动方法依赖于人类提供的知识或数据,由此可能会引起机器的数据茧房问题。而当它面对现实世界中复杂的决策情况时,在其不具备自我意识理解的条件下,没有举一反三能力的机器在知识残缺的不利情况下如何具备社会平衡性,仍然是有待进一步研究的挑战性问题。


第五,机器伦理与人类伦理存在区别,其原因在于机器与人类在主体性和体验方面存在差异。在涉及生命和死亡的情形下,对人和机器的道德规范(人们对主体应该做什么的期望或偏好)和道德判断(主体实际决策后人们的道德评价)存在差异。当面对驾驶、法律、医疗和军事等事件中的生命和死亡问题,人类喜欢由人作决策,而不是机器。一些学者的研究表明,人们要求自动驾驶汽车比他们自己驾驶安全得多,而同时过分高估他们自己驾驶的安全性。对于机器失误,人的反应会更加强烈。与其他领域不同,人们对道德有很强的信念,而这些信念塑造了文化认同。与其他决策不同,道德决策深植于情感,且机器缺乏完整的心智,这使得人们不一定支持机器进行道德决策。


第六,为了评估伦理机器,需要建立领域相关的测试基准。基于领域专家的观点,需要建立数据集,以包含特定领域的典型案例,依据这些案例来评估伦理机器。领域专家所认同的典型任务以及对应答案的收集非常重要。因此,需要计算机专家、哲学专家、领域专家以及社科学科专家一起,确保伦理机器的交互和效果达到期望要求。


综上所述,目前的机器伦理还面临着一系列挑战性问题。进行伦理对齐的机器依赖于人类所提供的知识和数据,因此,在机器没有自我意识,不能理解符号的意义、不理解外部物理世界的意义、不理解人类社会行为的价值意义的前提下,伦理机器的决策也自然无法具备通用人工智能的特征。关于如何使机器具有意识,学术界已有许多探索。例如,通过建立自我升级智能体有可能使机器具有功能意识。不过,关于人工意识的可能性和实现途径,仍然是一个开放问题,而与此相关的机器伦理研究也任重而道远。鉴于此,需要从多学科角度进一步推进机器伦理这一新方向的发展:


首先,从哲学角度,进一步探索机器伦理的本质,深化对机器伦理基本特征及方法论的研究。具体来说,关于机器伦理的弱主体决策性、社会平衡性、文化差异性、人机交互性等概念和方法,需要从哲学上进行更深层次的挖掘与分析。关于新一代人工智能技术所具有的能力、局限和风险,也需要进行深入的解剖与评估。这些研究不仅可以为实现机器伦理奠定基础,而且也有助于促进哲学尤其是伦理学研究的发展。其次,从心理学和实验科学角度,研究各种文化背景下机器伦理的内在规律、机器伦理与人类伦理的关系,以及情感表达在机器伦理中的作用机制等。与西方文化不同,中华文化有自己的内在特质。如何借助大语言模型,探究东西方文化的共同点和差异性以及它们对机器伦理的影响,是一个值得研究的重要课题。这些研究不仅有助于加深对机器伦理本质和特点的认识,也可以为制定政策和法律规范提供依据。再次,从逻辑学角度,研究包含规范、价值、偏好、情感等因素的逻辑系统的形式化表达和推理机制。尽管逻辑系统的适用性有特定的范围,但在给定条件下,可以确保机器在决策时具备良好的功能和性能。例如,通过建模,让机器的行为满足特定的条件,可以防止机器在决策和行动时发生重大错误。与此同时,逻辑学方向的研究也可以把哲学层面的概念及方法与人工智能层面的算法连接起来,起到重要的桥梁作用。最后,从计算机科学和人工智能角度,研究具有可解释性、透明性和因果性的人工智能系统,建立能够与人类开展自然交互的对话系统,以及设计领域相关的机器伦理测试标准等。这些技术上的进步不仅可以提高机器为人类服务的能力,而且可以为实现机器伦理提供有效手段。值得注意的是,随着机器自主决策和行动能力的不断提高,机器与人类相互影响的程度日益加深。在此背景下,研究如何利用技术来管理技术,将是一个长期发展的重要路径。例如,借助机器的可解释能力和基于因果的责任归因能力,可在机器决策及行动带来伦理和法律问题时,提供技术上的支撑。


由于机器伦理研究具有很强的学科交叉性,上述分学科讨论只是为了论述上的方便。为了解决机器伦理所面临的挑战性问题,通常需要多学科概念和方法的交叉运用和综合集成。其中,哲学、心理学和实验科学等领域的研究可以明晰概念、发现规律、提供方法和原理;逻辑学、数学等领域的研究可以在相关概念和原理的基础上建立逻辑模型、数学模型;计算机和人工智能等领域的研究则可以基于特定的哲学原理、逻辑模型及数学模型,建立相应的算法、系统和验证工具。反过来,新的人工智能系统产生的数据、知识、社会影响等又会促进哲学社会科学以及经验科学的研究。通过这样的良性循环,相信机器伦理的研究和应用水平能够螺旋式地上升,使得人工智能的发展真正造福人类。

喜欢wangguotong朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]