2021年1月第23卷第1期㊀东南大学学报(哲学社会科学版)
JournalofSoutheastUniversity(PhilosophyandSocialScience)㊀Jan.2021Vol 23No 1
机器人伦理学的研究进程
基于英语文献的分析
林津如
(东北大学马克思主义学院,辽宁沈阳110169)
㊀㊀[摘㊀要]英语文献中机器人伦理学研究包括三个方面:首先是机器人伦理学,关注
如何把机器人设计成符合道德规范的主体,以及如何与机器人互动,学者就此提出了实体进路㊁关系进路㊁价值敏感性进路等设计道德机器人的方法,并探讨了设计中可能面临的
价值选择与价值冲突;二是机器伦理学,探讨机器人能否成为道德代理者并承担道德责
任,以及对机器人进行道德约束的必要性等问题;三是机器人应用的伦理学,对机器人开
发和使用过程中产生的特定问题进行伦理反思,聚焦于护理机器人可能导致的诸如人的
安全㊁尊严㊁隐私和自由等问题㊂这些问题尽管尚未获得一致答案,但相关探讨明确了问
行书学习题域,为推进机器人伦理学的发展奠定了基础和框架㊂尽管当前机器人伦理学研究的整
体趋势是关注机器人使用可能造成的负面效应,但是,在人类对美好生活的追求中,机器
人与人的互动所起到的积极作用也应成为伦理思考的主题㊂
[关键词]机器人伦理学㊀道德机器人㊀道德代理人㊀护理机器人
[基金项目]国家社会科学基金项目 基于负责任创新(RRI)的大数据技术伦理规约 (17AZX004)成果之一㊂
[作者简介]林津如,东北大学马克思主义学院博士研究生,研究方向:科技哲学㊂
97年属牛的是什么命①㊀GianmarcoVeruggio, TheEuronRoboethicsRoadmap ,20066thIEEE-RASInternationalConferenceonHumanoidRobots,2006,pp.612-617 机器人伦理学 (roboethics)这一术语由意大利学者奇安马可
㊃沃卢吉欧(GianmarcoVeruggio)在2002年的机器人学第一次会议( 国际机器人伦理学研讨会 )上首次提出㊂此次会议上,沃卢吉欧和加州理工大学的基思㊃阿布尼(KeithAbney)对 roboethics 和 robotethics 做出了区分㊂他们认为, robotethics 与机器人的伦理准则和识别力的编程或信息结构有关, roboethics 则是应用伦理学的一个分支,是对开发和应用机器人过程中产生的特定问题的伦理反思,如人的安全㊁尊严㊁隐私和自由等问题㊂为了便于识别,我们把这种伦理学称为 机器人应用的伦理学 ㊂此外,参会者还把 机器人伦理学 (roboethics)细化为两种应用分支学科:第一种是 机器伦理学 (machineethics),主要关注 机器如何对人类表现出符合伦理道德的行为 ,在这个层面上,机器人被假想为在充分理解其含义和后果的基础上,具有良知和选择自己行动的自由,甚至是能够承担责任㊁拥有权利的道德代理人;第二种是 机器人伦理学 (roboethics),主要关注 人类如何在设计和使用操作阶段与这些机器进行联系交互
①,即工程师和机器人专家如何把应该遵循的行为准则实现在机器人的人工智能算法中,这被视为一种 人造 伦理,保证自主机器人在与人类的互动中表现出在伦理上可接受的行为㊂
由此可见,机器人伦理学的研究内容关涉三个方面:一是机器人的伦理学,即我们如何通过编程让机器人成为合道德的主体,以及如何在使用操作阶段与这些机器进行联系交互;二是机器伦理学,探讨机器人是否能够作为道德代理人,在使用中如何对人类表现出符合道德的行为;三是机器人应用的伦
理学,即对开发和应用智能机器人过程中产生的特定问题(如人的安全㊁尊严㊁隐私和自由等问题)进行伦理反思㊂机器人伦理学的这三个方面,前两者分别聚焦于人机关系的一极:第一,设计人如何把机器人设计成符合道德的;第二,机器人是否能够作为道德主体并承担道德责任㊂第三个方面则是关于应用机器人的过程中并非出于任何人或机器人的主观愿望而导致的伦理问题㊂自从.com. All Rights Rerved.
这次会议对机器人伦理学划分出这三个层次之后,国外对于机器人伦理的研究基本都围绕这三个方面展开㊂本文将梳理和评价这三方面的研究,并在此基础上对进一步研究的焦点和方向提出建议㊂
一㊁机器人的伦理学 设计道德机器人的三种进路
机器人伦理学主要关注人类如何设计符合道德的机器人,提出了实体进路㊁关系进路㊁价值敏感性进路等设计方法㊂开发和设计道德机器人时遭遇的价值选择与价值冲突问题也受到关注,但人类在使用阶段与机器人进行交互的伦理问题则很少被研究㊂
1 实体进路实体进路是指根据特定伦理学框架设计机器人,并让机器人在使用过程中通过学习来进一步完善道德能力㊂瓦拉赫和艾伦在其合著的‘道德机器:教导机器人分辨是非“中把道德机器人的设计进路分为 自上而下 ㊁ 自下而上 ㊁ 自上而下 与 自下而上 相混合三种进路㊂ 自上而下 进路是指依据某种特定的伦理学理论,分析其计算的必要条件,用其指导设计能够实现该伦理学理论的算法和子系
统,并创造一种环境,让机器人行为体在这种环境中学习和探索行为方式,在能够作出合乎道德的行为时受到奖励①
㊂哥伦比亚大学教授彼特㊃丹尼尔森(PeterDanielson)在其1992年的著作‘技术人工物道德:善良机器人的美德游戏“中,根据特定伦理学框架探索了计算机技术如何构造道德推理模型,该研究工作代表了当时机器人伦理学领域的最高成就②
㊂很多研究者建议将人类道德嵌入到机器人中,如安德森(Anderson)等人提出了创造道德敏感的机器的思想,认为机器执行运算是为了实现道德原则,阿库达斯(Arkoudas)等人也持同样的观点㊂帕沃斯(Powers)探索了如何将计算机编程为(或至少模拟为)康德式的道德代理人,认为如果我们根据普遍道德法则规定了机器,我们就可以在机器中实现人类的道德规范㊂跟随这个思路,阿克恩(Arkin)提出了将伦理嵌入战场机器人的观点③
㊂但是瓦拉赫指出, 自上而下 的研究进路存在局限,因为有多种不同的伦理学理论,人们对各种伦理学理论又有着各自不同的看法,把一套明确的伦理规则赋予机器人可能并不合理,而且同一种原理在不同的情况下可能会导致相互矛盾的决定④
㊂与 自上而下 的思路相反, 自下而上 进路要求人工智能体能够自我发展,而进化与学习是在经验之中反复试错的过程㊂克勒斯(PeterKroes)和维贝克(Peter-PaulVerbe
ek)论证说,技术人工物不仅仅是一种消极的工具,而且应该被视为一种行为主体㊂认知科学进路,即将认知理论应用于机器人设计的方法,也属于 自下而上 ,该进路强调在研究人类认知规律的基础上建构理论模型,实现机器人对道德的自主学习和认知㊂瓦拉赫等人就认为,LIDA(LearningIntelligentDistributionA⁃gent)认知结构模型可作为道德抉择模型,因为它拥有更强大的学习能力和更合理的认知循环结构,
并且是一个能够把感觉和感情融入认知过程的综合性的认知模型⑤礼物作文800字初中
㊂但 自下而上 缺乏可以由伦理学理论提供的指导系统,仅凭自身还不足以设计出道德机器人㊂综上所述,对人工智能体的设计者来说,这两种进路都过于简化,应该寻求两者的结合㊂瓦拉赫认为,亚里士多德的美德伦理学能够统一这两种进路,因为美德本身可以清楚地表述出来,而它们的习得又是典型的自下而上的过程,因此可以建构一种 自上而下 植入美德的计算机,同时通过计算机学习来培养美德⑥
㊂所以, 自上而下 和 自下而上 这两种进路应是互补而不是相互排斥的,将两者结合起来的进路(混合进路)更为可取㊂帕特里克㊃林(PatrickLin)等人2008年向美国海军部52第1期林津如㊀机器人伦理学的研究进程①②③④⑤⑥WendellWallach,ColinAllen,MoralMachines:TeachingRobotsRightfromWrong,OxfordUniversityPress,2009,pp 79-80
双鱼座上升星座
PeterDanielson,
ArtificialMorality:VirtuousRobotsforVirtuousGames,London:RoutledgePress,1992,p 1 PatrickChisanHew, ArtificialMoralAgentsareInfeasiblewithForeseeableTechnologies ,EthicsandInformationTechnology,2014,
16(3),p
204.WendellWallach,ColinAllen,MoralMachines:TeachingRobotsRightfromWrong,Oxford
UniversityPress,2009,p.97 WendellWallach,FranklinSian,AllenColin, AconceptualandComputationalModelofMoralDecisionMakinginHumanandAritficialAgents ,TopicsinCognitiveScience,2010,2(3),pp.454-485.WendellWallach,ColinAllen,MoralMachines:TeachingRobotsRightfromWrong,Oxfo
rdUniversityPress,2009,p.119 .com. All Rights Rerved.
提交报告‘自主军用机器人:风险㊁伦理与设计“,对军用机器人的伦理设计就采用了瓦拉赫与艾伦提出的混合进路①㊂格迪斯(AnneGerdes)等学者认为,艾伦等人提出的混合进路是建构人工道德行为体的典型进路②㊂
2 关系进路
关系进路的代表人物是马克㊃考科尔伯格(MarkCoeckelbergh),他倡导从人机互动的角度考察机器人伦理,强调机器人的外观(appearance)在机器人伦理研究中的重要作用,建议我们基于明显的类人特征,而非真实的类人特征(如智力㊁意识㊁情感等)来研究人类如何与机器人互动㊂机器人如何对待我们,取决于它在我们面前的样子,而不是取决于什么是它心中的 真实所想 ㊂现有的机器人没有知觉也缺乏感觉,但是当人类与某些类型的机器人互动时,机器人可能会像有感觉一样行动和说话㊂而机器人在这种互动时所表现出的样子和行为,对设计道德机器人来说格外重要㊂考科尔伯格认为,如果仅仅象实体进路那样,聚焦于机器人的类人特征,强调机器人真正是什么或是否真正可以成为道德主体,会面临两个困难:一是很难对机器人的类人特征给出确定标准;二是这种方法排除了对于更广泛的伦理问题的思考,比如有机器人和没机器人的生活有何不同,这个不同的伦理意义是什么,我们想过哪种生活㊂而且实体进路把道德问题限制在了关注人机互动中
可能出错的事情上,因此排除了一个非常重要的问题:如果一切顺利,与这些机器人生活在一起是善的吗?所以机器人伦理学应转向一种互动哲学,认真研究基于机器人外观的伦理问题,包括人机在社会环境中互动时蕴含着哪些伦理,我们应如何看待人和机器人的相处,我们要如何认识机器人,机器人可以对我们做什么,等等③㊂考科尔伯格认为,关系进路使我们关注人机互动如何有助于建构人类美好生活,并想象与那些有助于构成美好生活的机器人一起生活的可能性㊂
3 价值敏感性进路
价值敏感性进路由艾梅㊃凡㊃温斯伯荷(vanWynsbergheAimee)提出,是一种以护理为中心的价值敏感设计(Care-CenteredValueSensitiveDesign,简称CCVSD)㊂根据这个思路,产品设计的第一步便是要求思考机器人潜在的应用问题㊂伦理学家在此阶段应该深入医院或护理家庭,了解具体环境中的护理情况,记录环境中价值的转译与排序问题,进而向工程师解释某些护理实践的意义㊁不同护理实践之间的关系和护理的整个过程㊂接下来便是选择护理机器人设计的具体实践,伦理学家要对护理实践进行详细描述,阐明各种价值如何通过行为与互动表现出来,揭示各种护理实践之间的相互关系,识别出机器人重新引入某些护理价值的可能性等㊂在此基础上,伦理学家与机器人设计团队合作,讨论护理机器人的能力㊁特征㊁表象以及功能,由此便可把机器人的伦理能力建立在具体案例和设计研究的基础上,而不是主观决定机器人应该拥有哪些能力㊂CCVSD进路既为护理机器人需要关注的内容提供了伦理框架,也给出了把伦
理考量融入设计过程的实现方法④㊂
4 价值选择与价值冲突问题
在开发和设计道德机器人的过程中,无论遵循哪条进路,都要面对价值选择的问题㊂一方面,有多种道德理论和伦理原则可供设计者选择,但这些理论和原则所倡导的价值各有局限,且相互之间可能存在冲突㊂在缺乏普遍共识的情况下,如何寻找各方认可度最高的适用于道德机器人设计的伦理原则便成了一个问题㊂另一方面,设计道德机器人时,设计者所追求的伦理价值不是一元的而是多元的,而多种价值之间有可能存在冲突,因此,设计道德机器人也会涉及价值冲突的问题,如何解决冲突,在面对冲突时如何选择和取舍,便构成了另一个问题㊂
62东南大学学报(哲学社会科学版)第23卷
①②③④PatrickLin,GeorgeBekey,KeithAbney,AutonomousMilitaryRobotics:Risk,EthicsandDesign,SanLuisobispoCaliforniaPolytecnicStateUniversity,2008,p.11
AnneGerdes,PeterOhrstrom, IssuesinRobotEthics
SeenthroughtheLensofaMoralTuringTest ,JournalofInformation,Communi⁃cationandEthicsinSociety,2015,13(2),pp 98-109
MarkCoeckelbergh, PersonalRobots,Appearance,andHumanGood:AMethodologicalReflectiononRoboethics ,InternationalJour⁃nalofSocialRobotics,2009,1(3),pp 217-221.
vanWynsbergheAimee, AMethodforIntegratingEthicsintotheDesignofRobots ,IndustrialRobot:AnInternationalJournal,2013,40(5),pp 433-440
.com. All Rights Rerved.
在寻求最普遍的道德共识,并以此为理论框架来设计道德机器人的问题上,近十年来学者做出了诸多尝试㊂博登(Boden)㊁布赖森(Bryson)㊁考德维尔(Caldwell)等人在2011年提出了机器人设计应遵循的几大伦理原则:机器人首先要对人类无害且友善;除非国家安全需要,机器人不能执行任何伤害人的任务;机器人必须遵循法律并保护人权特别是隐私权;机器人在任
务过程中应确保其使用者的身心安全;机器人的设计不能具有欺骗性,尤其不能利用弱势群体的渴望来制造幻想进行欺骗;必须明确机器人行为的归责人①
㊂布赖森在2017年进一步提出了人工智能自动系统中伦理系统设计的七条标准,这些标准强调了普遍原则㊁价值观㊁安全性能㊁慈善㊁隐私与人权㊁军事人道主义,以及经济与法律方面的考虑②
㊂面对多元价值时,如何进行优先级排列,如何解决价值冲突,学者在近十年提出了一些思考㊂例如,设计护理机器人时应优先用户的自主性还是安全
时间的说说,汤姆㊃索雷尔(TomSorell)和希瑟㊃德雷珀(HeatherDraper)指出,护理机器人作为看护者,甚至作为真正意义上的 关怀 机器人(carebot),应该最看重被看护者的自主性,自主性高于安全考虑㊂但当尊重自主性会威胁到用户的生命或身体健康时,自主性可能会被超越㊂索雷尔和德雷珀明确提出,设计护理机器人伦理框架时,必须促进被护理者的六个价值:自主(能够在生活中设定目标并选择手段)㊁独立(能够在没有他人许可㊁援助或物质资源的情况下实现自己的目标)㊁使能(具有选择和实现目标的能力)㊁安全(容易避免痛苦或伤害)㊁隐私(能够追求和实现自己的目标㊁自己的选择)㊁社交联系(定期与朋友和亲人保持联系,安全地与陌生人见面)㊂为避免这些价值发生冲突,可以对机器人提供不同的角色分析,在此基础上构建与这些角色相匹配的伦理框架
㊂总之,设计护理机器人的统摄理念是要让设计框架能够保障被照顾者的利益③㊂希瑟㊃德雷珀和汤姆㊃索雷尔进一步强调,六种价值发生张力时,被照顾者的自主性应被视为压倒一切的价值,但也指出,安全问题可能比我们先前所设想的更为重要㊂总之,必须在机器人供应商和用户之间达成协议,可以通过用户的自主选择来解决框架内各种价值之间可能出现的张力甚至冲突④
㊂除了护理机器人,无人驾驶汽车也是道德机器人设计与应用的一个典型案例㊂博纳丰(Bonnefon)教授通过对无人驾驶汽车进行实验,测试人工智能伦理系统实现道德自主权的可能性㊂虽然机器人的系统设计突出了人们对机器人实现道德㊁实现对文化的尊重㊁对各国法律标准的遵守等期望,但实验结果表明,目前人工智能伦理系统还不能够协调不同道德价值之间㊁个人利益之间的冲突,也不能够融合不同文化间的差异⑤㊂
二、机器伦理学的研究
机器伦理学主要研究机器人是否能够作为道德代理人承担道德责任的问题,学者通过罗列成为道德代理人的必要条件并考察机器人能否符合这些条件进行判断㊂当机器人无法作为道德代理人承担道德责任,道德责任的归属便成为一个新的问题㊂
1 机器人作为道德代理者的可能性关于机器人能否被看作道德代理者,美国 机器(人)伦理学 研究的早期开拓者之一,耶鲁大学生命伦理学跨学科研究中心的温德尔㊃瓦拉赫(WendellWal
lach)和印第安纳大学认知科学工程中心的科林㊃艾伦(ColinAllen)合著的‘道德机器:如何让机器人明辨是非“一书,在哲学本体论和认识7
2第1期林津如㊀机器人伦理学的研究进程①②③④⑤MargaretBoden,JoannaBryson,DarwinCaldwell,KerstinDautenhahn, PrinciplesofRobotics:RegulatingRobotsintheRealWorld ,ConnectionScience,2017,29(2),pp.124-129 Joanna
Bryson,AlanWinfield, StandardizingEthicalDesignforArtificialIntelligenceandAutonomousSystems ,Computer,2017,50(5),pp 116
-119 TomSorell,HeatherDraper, RobotCarers,Ethics,andOlderPeople ,EthicsInfTechnol,2014,16,pp 183-195
HeatherDraper,TomSorell, EthicalValuesandSocialCareRobotsforOlderPeople:anInternationalQu
alitativeStudy ,EthicsandInformationTechnology,2017,19(3),pp 49-68.Jean-FrancoisBonnefon,AzimShariff,IyadRahwam, TheSocialdilemmaofautonomousvehicles ,Science,2016,352(6293),pp 1573-1575 .com. All Rights Rerved.
论领域对狭义机器人和广义人工物道德行为体AMAs(Artifactmoralagents)的理论和实践问题进行
了全面探讨㊂讨论包括人工物道德行为体能否获得合法道德行为体资格,技术人工物能否在根本上
被看作一种 行为主体 ,一个自治系统能否 真正地 满足和具备自治行为的需要等㊂他们把机器
人能够实现的道德程度划分为三个层级,一是 操作性道德 (由系统实现,仅能在可接受行为标准
内行动,这种道德完全掌握在工具设计者和使用者的控制中),二是 功能性道德 (在操作性道德和
可靠的道德智能体之间的道德层级),三是能够评估自身行为道德意义的可靠道德智能体实现的道
德㊂他们认为,由于缺失诸如意识和情感等人类特征,完备的人工道德智能体还很遥远,但是,人们
有可能开始建构一种 功能性道德 ,从而使人工道德智能体具有基本的道德敏感性①㊂与瓦拉赫和艾伦的观点相似,摩尔(Moor)认为,作为道德代理者的机器人可分为三种:第一种是
与伦理关涉的代理者(ethical-impactagents),这类机器行为程序的编写关涉伦理要求且分为两类,
一类是通过编程对其进行机械的伦理约束,另一类是隐性伦理代理者(implicitethicalagents),这类
机器在设计时就植入了伦理程序源,机器能够根据程序要求做出恰当的行为,而不仅仅是通过简单
手机数据恢复编程对其进行机械性的伦理约束;第二种是显性伦理代理者(explicitethicalagents),这类机器可以自
动识别周围环境的伦理信息,在不同情境下判断当前行为的合理性,并对该行为产生的后果进行预
测;第三种是完全伦理代理者(fullethicalagents),这类机器能够高度模拟人类思维与伦理意识,在特
定情境中做出判断与选择,完全可以被视为具有道德行为能力的道德主体㊂摩尔也认为,时至今日,
仍然没有明确的证据可以证明机器能够成为完全的道德主体②㊂
2 机器人是否应当履行道德责任
关于机器人是否要承担道德责任的问题,有两派不同的意见:一派认为机器人不应该承担道德
责任,另一派认为机器人应该承担道德责任㊂认为机器人不应承担道德责任的这一派论证说机器人
没有意向性,即没有精神状态和行动意图,只是根据人类设计的程序而行动,无法意识到自己所做的
选择,所以不应当承担道德责任㊂弗里德曼(Friedman)和小卡恩(KahnJr)㊁斯塔尔和辛马(Himma)
都持有相似观点,认为如果要成为道德代理人,人工系统就需要有意识③㊂没有意向性表明机器人缺乏人类意义上的意志和自由,他们的行动是被硬件或软件所决定的㊂而至今在物质和结构上可以想象到的计算机系统都不可能有意向性④㊂汤凯恩强调,人工系统将按照程序员所安装的规则进行编程,否则是不会行动的⑤㊂科克伯格(Coeckelbergh)没有直接探讨关于人工系统在道德上是否值得称赞的问题,但他认为,对道德价值的评价需要确定某台机器是不是一个自由且有意识的代理人,而这一点我们无法做到⑥㊂帕特里克(PatrickChisanHew)赞成这种观点,认为机器人符合道德需要具备一定的能力,并认为目前的人工系统无法提供这个功能⑦㊂
如果机器人不能够对它们的行为承担责任,那么,谁应当承担机器人的责任呢?大部分学者认
为,人应当承担机器人行动所导致的问题的责任㊂正如维鲁乔(Veruggio)所指出的,机器人实际上只
是一种机器,这些人类创造者的工具不知道它们所做的选择,因此人们对它们的行为负有道德责
紫色风铃任⑧㊂如鲁福(Ruffo)论证说,机器人遵循的是人类提供给它的程序㊂斯坦森(Stensson)和杨森(Jans⁃82东南大学学报(哲学社会科学版)第23卷
①②③
④
⑤⑥⑦⑧WendellWallach,ColinAllen,MoralMachines:TeachingRobotsRightfromWrong,Oxford:OxfordUniversityPress,2009,p 172.JamesHMoor, TheNature,Importance,andDifficultyofMachineEthics ,IEEEIntelligentSystems,2006,21(4),pp 18-21 KennethEinarHimma, ArtifificialAgency,Consciousne
ss,andtheCriteriaforMoralAgency:WhatPropertiesmustanArtificialAgenthavetobeaMoralAgent? ,EthicsandInformationTechnology,2009,11(1),pp 19-29
BatyaFriedman,PeterHKahn, HumanAgencyandResponsibleComputing:ImplicationsforComputerSystemDesign ,JournalofSystemsandSoftware,1992,17(1),pp 7-14.
RyanTonkens, AChallengeforMachineEthics ,MindsandMachines,2009,19(3),pp 421-438
光盘行动的画
MarkCoeckelbergh, VirtualMoralAgency,VirtualMoralResponsibility:OntheMoralSignificanceoftheAppearance,Perception,andPerformanceofArtificialAgents ,AI&SOCIETY,2009,24(2),pp 181-189.
PatrickChisanHew, ArtificialMoralAgentsareInfeasiblewithForeseeableTechnologies ,EthicsandInformationTechnology,2014,16(3),pp 197-206
AntonioEspingardeiro,ARoboethicsFrameworkfortheDevelopmentandIntroductionofSocialAssistiveRobotsinElderlyCare,UniversityofSalford,2014,p 17
.com. All Rights Rerved.