[返回哲学世界首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[坛主管理]

机器伦理的哲学基础、基本特征与实现方法(上)

送交者: wangguotong[★★★声望勋衔13★★★] 于 2024-04-17 1:01 已读 3231 次 1赞  

wangguotong的个人频道

+关注

廖备水:机器伦理的哲学基础、基本特征与实现方法(上)


摘要:随着人工智能系统自主决策能力的不断提升,如何赋予智能体的决策以足够伦理考量成为一个备受关注的重要挑战。解决这一问题的关键途径是建立机器伦理,即将人类伦理价值观和道德规范嵌入人工智能系统,使其具备伦理对齐能力。机器伦理建立在人类伦理的基础上,但具有与人类伦理不同的基本特征。首先,当前的智能机器尚无现实主义意义上的主体性和体验性,表现为在伦理决策方面的弱主体性。其次,机器的决策反映的是受其行为影响的人类利益相关方的伦理考量,因此,机器的伦理决策需要在不同利益相关方的价值诉求之间取得平衡,即具备社会平衡性。再次,机器在伦理决策时容易受到文化因素的影响,应能反映文化差异性。最后,机器需要向人类主体解释伦理决策、理解情感表达,并进行责任归因,因此必须具备良好的人机交互性。


随着互联网、大语言模型等技术的迅猛发展,智能系统变得更加先进而复杂,越来越多的人类任务正在被机器所取代。在本文中,我们用机器来指称各种具有行动和信息处理能力的程序或智能系统。为了增加人们生产和生活的便利性、提高效率,机器被赋予了更多的自主决策能力,并由此带来机器决策的伦理问题。一方面,这种把决策的自主性赋予机器的方法已经成为一种必然趋势。例如,全球范围内许多医院缺少陪护人员,将导致家庭陪护机器人开始进入家庭。这些机器人将面对道德权衡问题,比如,是重在保护隐私还是重在保护病人的健康和安全。如果这些机器人可以作出道德推理,那么它们可以在出现伦理困境时作出更好选择。又如,随着大语言模型的日益普及,人们不得不在许多情况下使用大语言模型生成的内容。对于用户来说,难以完全弄清楚在这些内容中是否存在误导信息或对人类有伤害的信息。另一方面,伦理决策具有复杂性,这使得并非在所有情况下人类的判断和决策都是可以胜任的。例如,当需要考虑的决策因素较多时,人类经常忽视某些相关因素,或者无法处理由冲突因素之间的各种关系所带来的复杂性。在一些具有义务冲突和因果复杂性的环境中,人类伦理学家无法给行动制定一种通用的、完全决策的原则。这种复杂性可能来源于多种原因。首先,几个可能的义务相互冲突,如在特定情境中是应该去给电池充电以确保机器的可用性,还是应该给病人送药。其次,设计者无法事先规定所有潜在情况下的因果组合。在大语言模型的使用中,这种复杂性就更加明显。由于义务冲突和因果复杂性,决策者将面对一种开放的道德上不同的情境,因此无法预先罗列所有决策原则。这时,决策者需要平衡错误否定和错误肯定的风险,因此希望机器能够自动实现或辅助人们进行伦理决策,实现与特定社会背景下的伦理对齐。


由此可见,机器伦理研究对于推动新一代人工智能的健康发展以及为人类创造福祉具有极为重要且迫切的意义。本文以人类伦理为参照,分析机器伦理的哲学基础与基本特征,并以现有工作为基础,探讨符合这些特征的机器伦理实现方法,以促进机器伦理这一新研究领域的发展。


一、机器伦理的哲学基础


机器伦理研究如何在计算机、机器人或其他自动机器中设计、实现和产生伦理决策。通过研究人类如何思考、学习和作道德决策,能够以此为参考来建立机器伦理方法。依据伦理学理论,人类伦理可以分为描述性的和规范性的两种。前者是指在特定社会背景下自然形成的道德信念、道德判断和道德行为的模式。这些模式实际上存在或者产生于现实世界。后者则依据特定的伦理理论,规定在特定社会中,相关主体应该遵循的伦理规范。这两类伦理学理论为实现机器伦理奠定了方法论基础。


描述性伦理学由道德心理学家建立,强调道德情感和道德直觉,通过研究人们作出道德判断的方式来获得理论。有名的描述伦理学包括道德基础理论和二元道德理论。前者基于五种基本的道德情况分析情境,后者分析关于伤害的道德。规范性伦理学由道德哲学家建立,强调作道德决策时的理性,旨在建立标准来确定在不同视角下行动的对与错,包括美德、义务、效用以及正义等。决策的相关方面主要包括决策主体、决策自身以及决策后果。与普通决策相比,道德决策强调对他人目标、偏好和约束的考量。依据对决策相关方面的考虑重点不同,有不同的伦理学理论。当把决策主体作为最相关的方面时,重点考虑的是决策主体的目标、意图和动机(反映主体的美德),而依此建立的伦理学理论称为美德论;当把决策选项及决策本身作为最相关的方面时,所建立的伦理学理论称为道义论;当把决策结果作为最相关的方面时,所建立的理论称为功利论或结果论。其中,美德论规定的不是如何决策,而是主体的意图、目标和偏好。因此,美德伦理学把一个行动定义为道德上好的,如果主体可以体现道德美德。道义论规定在一系列规则下,一个决策的正确性应该基于一个选择自身是对的或错的,而不是谁执行它。因此,道义论把一个行动定义为道德上好的,如果它与特定的可应用道德规则或义务相符。最后,结果论把一个行动定义为道德上好的,如果它可以极大化福祉或效用。


除了上述三类方法,也可以采用混合的方法,并规定特定的层次关系。如,一个以道义论为主的系统首先使用规则来作决策,但当规则发生冲突时,采用极大化效用来消除冲突。


把上述理论作为实现机器伦理的哲学基础存在一些挑战。首先,对于道义论来说,挑战不仅来自对冲突规则的处理以及存在不精确规则和例外,还来自规则的获取问题、规则的情境依赖性问题等。其次,对于结果论来说,挑战来自效用的确定问题和聚合问题。对于效用的确定,有一些衡量尺度,但是选择不同的尺度会得到不同的结果。即使给每个结果指派一个效用,简单合成它们可能也不适当。最后,对于美德论说,挑战来自冲突的美德,以及美德的具体化问题。此外,道义论和结果论的共同挑战是难以适应快速变化的环境。其中,道义论试图建立固定的规则集合,而结果论则试图辨别特定行为的结果。对于一个快速变化的世界,难以确定特定决策的结果到底是什么。


此外,依据不同的情境,机器经常需要应用不同的伦理学理论。这是因为人类的道德是复杂的,难以被一种单一的经典伦理学理论所刻画。因此,伦理学理论需要与领域相关的伦理相结合。有些工作把民间道德用于机器伦理。不过,民间道德也有自己的问题,包括哪些人及其价值应该被考虑,如何获得他们的价值,以及如何合成他们的价值等。


二、机器伦理的基本特征


尽管机器伦理与人类伦理有很强的关联性,在实现机器伦理时可以基于人类伦理,但也存在本质上的差异性,需要着重进行研究。第一,目前的机器还没有现实主义意义上的主体性和体验性,机器充当的功能仍然以工具性为主。第二,与人类个体的决策不同,机器的伦理决策需要代表多个利益相关方的伦理考量,存在如何权衡各方利弊并作出选择的问题。第三,与人类伦理相比,机器伦理需要更多考虑(跨)文化的差异性。第四,机器伦理强调机器作为人类的代理必须具备与人类进行有效交互的能力。


(一)弱主体决策性


机器是否可以具备伦理决策能力在哲学上是有争议的。这主要取决于机器是否拥有责任和权利,而后者跟机器是否有主体性(agency)和体验性(experience)有关。其中,主体性指的是主体进行思考、推理、规划和实现意图的能力,体验性则指主体体会情感和感觉的能力,如疼痛和恐惧等。主体性要求主体有意向行动的能力。我们说一个行动是意向性的,当它是由主体的意向心智状态(如信念、愿望等)所引发的。关于意向性,有两种不同的理解。一种是在强的现实主义意义上,要求主体的意向行动具有理解的能力以及现象意识的能力,这个较难在机器上实现。另一种是在较弱的工具主义意义上,允许更加直接的归因。这时,信念和愿望是否可以归因于一个实体完全取决于这种归因是否有助于解释其行为。除了意向性,伦理主体需要其他条件,如理解对其他主体责任的能力,按照其伦理义务和其行动可能引发的可预见性伤害,监视自己行为的能力等。如果机器能够在现实主义意义上理解其义务或者可以预见其行动的伤害,那么它被认为可以对任何由它造成的伤害负责。然而,这些是在意向主体性的强意义下作出的推论。一些哲学家认为仅仅在工具主义含义下的意向性不足以给机器定义重要权利或义务。希马(K.E.Himma)认为,在主体性概念的基础上,道德主体性是指主体有能力来作出自由选择,思考什么应该做,并在范例中正确理解和应用道德规则。


一般认为,机器只有工具主义意义上的意向性且不具有体验性。正如陈小平所言,AI确实不应该、也不可能承担主体责任。此时,可以把机器理解为人类的工具或代理,它们具有一定的自主决策或行动能力, 因此可依据具体情况作出不同的选择,并导致不同的伦理后果。我们说机器的这种自主性是工具主义意义上的。依据倪梁康的观点,机器的自主决策仍是计算,而非思考,即不具有在意志自由前提下进行自行选择和自行决定的能力。为了与现实主义意义上的自主性概念作出区分,也可以把机器的自主决策理解为自动决策。进而,我们把这种机器的伦理决策称为弱主体决策,意指这种伦理决策不是由人类主体作出的,而是由能够反映人类主体道德诉求的无法承担主体责任的人工主体作出的。依据拉奥和乔治夫(A. S. RaoM. P. Georgeff)的理论,基于BDI逻辑的人工智能主体可以基于当前的信念形成愿望和意图,并在意图的约束下行动。此时,该人工智能主体虽然可以用信念、愿望和意图来解释行动,但不具有意向性和体验性。随着新一代人工智能技术尤其是生成式人工智能的发展,机器可以产生人类无法完全预知的内容。不过,从工作原理上看,目前的生成式人工智能模型仍然基于大数据训练而成。这样的模型可以理解为一个复杂的函数,它是静态的,与现实世界是分离的,因此缺少人类心灵那样可以定向到对象的指向性,在本质上也不具有意向性。


(二)社会平衡性


机器决策的弱主体性决定了其决策所反映的不是自身的意志,而是受其行为影响的人类利益相关方的伦理考量。例如,对于一种无人驾驶汽车的行为,涉及多个利益相关方:政府管理者关心机器行为的合法性和公平性,汽车设计者、开发者及制造商关心责任问题和企业形象问题,用户和行人等关心自己的利益和人身安全等。这些利益相关方所坚持的伦理价值和偏好经常相互冲突。再如,对于自动驾驶汽车,当发生不可避免的伤害时,应该更加倾向于保护车上的人还是行人?对于一个护理机器人,它在给病人送药时,应该更加尊重其隐私,还是更加重视医嘱?由于各个利益相关方存在相互冲突的伦理诉求,因此需要平衡这些伦理诉求,达成满足一定条件的集体意见。


首先,集体意见应该具有透明性。与人类个体的伦理决策不同,机器决策通常基于大数据和机器学习算法。机器学习算法的不可解释性给伦理决策的透明性带来技术上的挑战。换句话说,如果机器的决策是不可解释的,那么人类社会的哪些伦理考量最终会影响到机器的决策就无法被清晰描述与评价。由此带来的进一步问题是机器的行为难以被准确预见,这在一定情况下是灾难性的。目前的大语言模型基于大数据和机器学习技术,尽管它们也能依据用户的问题或提示给出解释,但这种解释的正确性并没有保障。其根本原因是大语言模型所产生的解释与其生成的其他内容同属于一个对象层次,缺乏在元层次上对其所生成的内容进行评价的机制。


其次,集体意见应能反映深层的逻辑冲突。许多伦理冲突不仅仅是决策选项上的不相容,而且存在复杂的逻辑上的冲突关系。在由规范来实现的伦理决策中,不同的冲突处理逻辑会产生不同的决策结果。例如,有个机器人在一次决策中受到来自不同利益相关方的规范约束:如果公司在欧洲注册,那么这算作我们公司在欧洲合法做生意(公司),如果一个公司在欧洲合法做生意,那么它必须遵守GDPR”(法律),如果在公司所收集数据中包含一个对社会存在重大威胁的信息,那么可以未经用户许可收集用户的进一步信息(公司)。假设有如下背景信息:公司A在欧洲注册,它在所收集数据中发现一个对社会存在重大威胁的信息;遵守GDPR”未经用户许可收集用户进一步信息在逻辑上矛盾。机器人为了依据这些伦理考量作出决策,需要能够处理由这些规范所带来的内在逻辑冲突。


最后,集体意见应该体现公平性。对于公平这一概念,不同学科有不同的定义。从机器学习的角度看,公平意味着在敏感特征方面对不同的人给予相同的对待,这对应于算法偏见或算法歧视。从机器伦理集体决策的角度看,不仅要反映不同利益相关方受到机器行为影响的程度,而且要保障所有利益相关方的意见受到公平对待。在特定背景下,利益相关方受到机器行为影响的程度不同。


(三)文化差异性


传统上,道德被认为是对错之间的明确界限,但一项针对无人驾驶汽车的研究表明,文化价值观可以改变这条界限。这不仅对无人驾驶汽车这样的具体应用领域具有重要意义,而且对更广泛的领域也是如此。当一个国家的正确与另一个国家的不同时,国际化的决策就会变得复杂得多。与此同时,那些刻画特定文化与特定地理场域中人们的行为习惯的风土性因素也会在伦理决策时产生重要影响。


在特定社会中,文化与价值紧密关联。道德规范因文化而异。文化规范和由文化所塑造的情感对道德领域和道德判断过程产生重大影响。在广泛的社会科学研究领域,价值是理解跨文化差异的重要工具。依据罗克奇(M. Rokeach)的理论,价值是每个人和社会内部理想的核心概念,是指导一个人行动的信念的基础,也是社会层面上指导原则的基础。因此,从文化的视角研究人类道德对于人类伦理学理论发展非常重要,对机器伦理也是如此。


每种文化都有自己的规则来规定什么是对的,什么是错的。然而,在道德决策时,经常存在差异。由于每个普遍性的背后都有一些文化的差异,道德的普遍性难以找到。亨利希(J. Henrich)等人的研究表明,大多数人反对在经济博弈中采取完全自利的行为,但不同文化对于在这些博弈中判定什么构成公平的行为有不同预期。这样,在不同的文化背景下有不同的道德规范:不同的基础(关怀、公正、忠诚等)在道德基础网络中的影响力取决于文化背景。同时,不同文化背景下的人们对相同的情境持有不同的态度。


这种文化的差异性对于机器伦理的发展也会产生重要影响。为了使得机器的行为跟特定文化背景下的伦理对齐,准确刻画特定文化背景下人们的伦理偏好是一个重要前提。例如,在无人驾驶领域,文化对人们进行道德判断产生重要影响:除了对拯救人类生命、拯救更多生命和拯救年轻人生命有较多的一致性意见外,关于性别或社会地位的偏好在不同国家之间存在重要差异。在什么情况下可以牺牲一人来拯救多人,在不同文化背景下,关于这个问题的普遍性和差异性,有着复杂的模式。对于每个牺牲的定量可接受性,国家之间有实质的不同。例如,低关系流动性与拒绝为更大的利益作出牺牲有着强烈的联系。


(四)人机交互性


由于弱主体性,机器的决策所依据的是人类的伦理考量。为了让决策结果最终被人类所接受和信任,机器必须具有对决策过程和结果的解释能力。换句话说,即使机器能与人类标准的伦理对齐,如果它不能够解释和辩护自己的决定,仍然难以替代人类的决定。因此,可解释人工智能对于建立可信的和可靠的机器非常重要,即机器能够解释一个决定背后的伦理理由。这种解释的能力可以改善机器在一个社会系统中适配道德要求的能力。同时,由于人工智能系统的决策牵涉多个利益相关方,因此当其作出决策并采取相应行为而导致相关后果时,如何进行责任归因是一个重要问题。通常,一个群组应该负责任是清楚的,但其中每个个体应该负什么责任却不清楚。在一个人工智能系统中,一个行为的后果经常牵涉到设计、开发、部署、使用、监管等各个环节。亚兹丹帕纳(V. Yazdanpanah)等人提出,在这种情况下,需要建立有效的责任推理机制来实现责任归因。为了实现可解释性和责任归因,要求机器能够用人类可理解的语言来表示和交流道德推理,包括机器决策的实际推理过程。在一个道德复杂的领域中,人类伦理学家无法制定清晰的基于输出的方法来监视机器的行为,基于理由的解释就显得尤为重要。这时,机器不仅需要自动产生与决策过程和结果相关的交互内容,而且需要以人类可理解的语言表达这些内容,实现有效交互。


人机对话涉及对话策略和对话语言。以解释为目的的对话策略需要机器了解用户背景,在忠实于决策过程和结果的前提下,使得解释内容极小化,解释过程极短化。对话语言主要包括自然语言和表情。由于机器在决策时所采用的语言不是自然语言,因此如何把决策过程和结果转化为自然语言描述,以及如何把用户的自然语言描述转化为机器的内部表达,是人机交互的重要方面。此外,情感表达与机器伦理有紧密关系。一方面,一些伦理决策结果可以通过情感表达传递给用户;另一方面,来自用户的情感表达可以被转化为机器伦理模型输入的一部分。


三、实现机器伦理的主要方法


由于机器伦理的弱主体决策性,实现机器伦理的主要方式是伦理对齐,即使得机器的行为与人类社会的伦理价值对齐。为了建立伦理对齐方法,可以参照人类伦理学中的描述性伦理和规范性伦理产生方法。与规范性伦理相对应,形式化规范伦理通过表示一组抽象的原则来形成一个有效的算法;与描述性伦理相对应,形式化描述伦理通过特征化基于案例的直觉,来刻画人们所关心的伦理特征。从而,形式化的描述性/规范性伦理可以明确表示隐藏于我们判断中的伦理考量。目前,人工智能算法的实现途径包括知识驱动、数据驱动或数据知识双驱动。参照这些实现途径,可以建立对应的机器伦理实现方法。第一,知识驱动方法基于给定的知识进行决策,可以建模与人类规范性伦理对应的机器伦理。第二,数据驱动方法依据数据集/案例集进行决策或产生一般性知识,可以建模与人类描述性伦理对应的机器伦理。第三,把知识驱动方法和数据驱动方法结合起来,可以建模能够反映实际案例的、可解释的机器伦理。


(一)知识驱动方法


知识驱动方法通过把伦理价值和规范表示为知识,并通过推理来实现道德决策。我们从义务论的角度分析知识驱动方法,以及这种方法如何处理机器伦理的社会平衡性和文化差异性问题。


在基于义务论的知识驱动方法中,第一个核心问题是价值和规范的表示问题。有些规范用于表达特定情境中智能主体应该执行的动作或达成的目标。规范通常与价值相联系。下面是来自伊索寓言故事《蚂蚁和蚱蜢》中一些有关价值与规范的例子:


N1: 为了快乐,夏天应该不劳动。


N2: 为了生存,夏天应该劳动。


N3: 出于公平,应该不要把食物送给不劳动者。


N4: 出于怜悯,应该把食物送给不劳动者。


在这个例子中,对价值(快乐、生存、公平、怜悯)的不同排序决定着主体对各自行为的不同选择。例如,在炎热的夏天,蚂蚁倾向于长远的生存价值,因此蚂蚁认为N2优先于N1,而蚱蜢倾向于即时的快乐,因此蚱蜢认为N1优先于N2


进一步地,可以把规范分为三种基本类别:规制型规范、建构型规范和许可型规范。其中,规制型规范要求主体在特定条件下应当做什么,如上面的N1N4四条规范。建构型规范把特定情境规定为制度事实,如在特定文书上签字算作合同。在这里,在特定文书上签字是天然事实,而合同是制度事实。许可型规范规定特定情境中主体的哪些行为是被许可的。例如,在遇到紧急事件时,允许打破玻璃窗。在标准道义逻辑中,通常将许可看作应当的对偶,即并非应当不做某事等价于许可做某事。在实际的道德推理中,也可以把许可看作应当的例外。例如,在通常情况下应该爱护玻璃窗,但在遇到紧急事件时,允许打破玻璃窗。


在明晰了规范和价值的概念之后,可以选择特定的形式语言来表达规范和价值。在人工智能领域,通常采用可废止规则来表示规范。这里的可废止规则形如如果p,那么通常情况下q”,其中pq是命题,意指当p为真时,q通常为真,除非存在反面证据。通常,把p称为该规则的前提,q称为该规则的结论。例如,当用药时间到的时候,(为了保护病人的健康)应该给病人服药。采用这种方式,可以把每个利益相关方的伦理考量表示为一个规范系统。该系统规定了用于表示规范的逻辑语言以及由该语言表示的规范集合。


在明确地表达了利益相关方的规范系统之后,第二个核心问题是满足社会平衡性要求的伦理困境消解问题。

喜欢wangguotong朋友的这个贴子的话, 请点这里投票,“赞”助支持!

内容来自网友分享,若违规或者侵犯您的权益,请联系我们

所有跟帖:   ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


用户名: 密码: [--注册ID--]

标 题:

粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


     图片上传  Youtube代码器  预览辅助



[ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 创建您的定制新论坛频道 ] [ Contact us ]