打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
机器人伦理方面的相关研究:如何进行机器人道德建构

前言

机器人伦理是与计算机伦理结合在一起的。众所周知,计算机伦理学在西方经历了萌芽、产生和发展的阶段,与新月异的计算机技术一起,计算机伦理学经历了从理论初创到最后发展成一门独立的应用伦理学学科的过程。机器人由于在技术层面起步较晚,因此,它对于伦理的诉求还没有达到计算机伦理发展的高度。

我们知道,机器人最早出现在世纪年代末,而对于机器人准则的规定最早出现在年,即美国科幻作家艾萨克阿西莫夫提出的著名的机器人三原贝(也有人称作机器人三大定律),机器人不得危害人类、必须服从人类的命令、在不违反第一条和第二条的情况下必须保护己

进入年代,第一台可编程的机器人诞生,年代末,德沃尔与美国发明家约瑟夫英格伯格联手制造出第一台工业用机器人。随后,成立了世界上第一家机器人制造厂——公司。由于英格伯格对工业机器人的研发和宣传,他也被称为工业机器人之父但此时却没有相关的伦理标准与之匹配,人们也没有意识到深层次的哲学和伦理问题。

世纪年代,美国最早发明工业机器人,并成为这个领域的领航者。年代机器人技术扩展到日本和欧洲,并进一步取代美国的位置。年末,这些国家对机器人研究的发展已然超过美国。

技术的进步往往领先于意识的发展。面对机器人技术的突飞猛进,相关的伦理道德标准却显得很苍白。早在年,日本就发生了世界上第一起机器人杀人事件。日本广岛一家工厂的切割机器人在切钢板时突然发生异常,将一名值班工人当钢板操作。年前苏联国际象棋冠军古德柯夫同机器人棋手下棋连胜局,机器人突然向金属棋盘释放强大的电流,将这位国际大师杀死。后经分析,科学家认为是电子雾使超级电脑内部程序出现了斎乱,产生强大电流。随着科技的发展,人们注定要面对这些随之而来的伦理困境。

进入世纪,机器人的道德观念与伦理标准已成为人们不得不面对的问题。尤其是在科学技术突飞猛进的当代社会,随着仿人型机器人和智能机器人的进一步发展,自动化机器人出现,人们对机器人伦理问题的研究也有了很大的进步。

日本千叶大学在其网站上说科学技术是把双刃剑,如果被恶意利用,可能危及人类自身生存,因此制定了这个宪章。其内容包括:研究者只进行与民用机器人相关的教育和研究;研究者不得将不符合伦理、违法利用的技术应用到机器人中;研究者不仅要严格遵守阿西莫夫'机器人三原则,而且要严格遵守宪章所有规定,即使离开千叶大学,也要遵守宪章精神等

在我国,人们对机器人伦理方面的相关研究却少有涉猎。这与国外机器人伦理的研究现状相比,我们还存在很大的差距。尤其是随着机器人技术的不断更新,人们对机器人伦理的诉求也在提升,我们亟需提高这方面的研究水平

对于机器人的定义,人们普遍接受的一种观点:即靠自身动力和控制能力来实现各种功能的一种机器。国际上较为统一的定义为:一种可编程和多功能的操作机;或是为了执行不同的任务而具有可用电脑改变和可编程动作的专门系统。但在此定义下我们还是无法对机器人研究对象的问题达成一个共识。例如,有的观点认为机器人只不过是带有传感器和制动器的计算机,并能与外部世界实现交互。然而,据此标准,任何连接打印机或能播放的计算机都够资格称作机器人。很显然,机器人专家不会认可这一点。因此,我们需要一个能够使机器人与计算机和其它电子设备区分开来的更精确化、更合理的定义。

在此,我们把机器人定义为一个具有感知、思考和行为的指导型机器:这样一个机器人必须有传感器,模拟认知和执行的能力。传感器体现在必须能够从环境中获取信息;模拟认知体现在具有一定认知能力的反应性行为,类似于人类的牵张反射;而执行能力体现在必要的伴随程序上,以及该程序下机器人所具有的行为力。一般来讲,这些驱动力将作用于整个机器人或其整体的某个组成部分(如手臂、腿部、或齿轮

这个定义并非意味着机器人必须是机电式的,它也可能是生物式的,以及虚拟或软件式的。但是应排除完全依赖遥控的机器,因为它不具有思考能力,例如儿童玩具。也就是说,大部分的这些玩具不具有自我决策的能力,它们仅依靠人类输入及输出的指令进行活动。所以机器人必须具有一定程度的自治能力,或能思考,并能根据环境自我决策。例如,美国空军的捕食者无人机尽管主要依赖于人类遥控,但其自身也能够做出一些导航决策,因此可以称为机器人。

我们现在可以明确的是机器人必须具有思考的涵义。即通过思考,机器能够借助传感器或其它途径,例如一组编程好的内部规则来做出自主决策。不过,该定义引出另一个问题:机器拥有的自主能力表征什么?在此我们可以把机器人的自主力阐释为:一旦机器的一部分被启动,那么该机器就能够根据现实环境进行自我反馈运作,而在一定时间内不受外部控制的一种能力。

因此,完全远程或遥控的机器不具有自生力,因为它们完全依赖于外部控制,不具备思考的能力,因此它们不能独立行为。这种状况下,它们不是机器人。具有自主决策能力的机器人是当今机器人技术的发展趋势,而随着生产力的不断发展,人类对它的需求也会越来越广泛。

机器人在道德建构方面基于不同的认识往往也会在设计方向上存在差别。工程师通常强调机器人在行动上的自主性,例如,乔治亚理工学院的计算机科学家Ronald Arkin,他认为基于程和软件设计的机器人应该在自主化系统中发挥作用,并进一步强调机器人的自动攻击或防御功能。而哲学家对此却有不同的认识,加州理工学院就此成立了一个工作组,他们认为自动系统的建立首先应该解决的是其中隐含的伦理问题。

尽管具备道德决策能力的机器人在战场上杀人也涉及到伦理方面的问题,但不管怎样,无论它是作为杀人机器还是用于护理老人,在哲学家和工程师那里都存在不同。哲学家,倾向于从抽象的角度去思考问题,而工程师则偏重于实际任务的完成。然而,哲学家还有另一层任务,也就是运用抽象的原则指导工程设计。

那么,哲学家如何能够在机器人道德建构过程中发挥作用?除了让工程师意识到智能体在道德上的重要性之外,道德原则、理论与框架对于计算机系统自主性的发展是否有利?哲学家的思维和认识是否仅仅是提升了技术上的难度,而对于工程进步却没有帮助呢?

过去的半个世纪,哲学家和人工智能工程师的关系是混合的。无论是对人工智能体道德建构的积极倡导,还是对人工智能体乐观前景的苛刻批评,哲学家都不是以一个局外人的角度进行评论的,他们在人工智能体基础理论的建构中都扮演了重要的角色。尤其是智能体在行为选择和自主能力实现过程中所设置的限制条件,都体现了伦理理论在控制系统中的重要作用。

然而,把行为置于道德的框架确实提升了技术上的复杂性,尤其是行为上的不确定性更加剧了工程师在设计上的难度。

结语

即使对于伦理学家而言,也不可能对所有行为以及各种伦理理论都保持敏感性,因此,人工智能体在道德建构过程中很难实现一个统一的设计思路和理论背景。但工程师可以做到的是遵循一个较为普遍或简单的设计思想,比如忠诚。因此,为了避免哲学上或伦理上不同观点之间的冲突,工程师在智能体道德设计过程中可以采用区别设计的思路,也就是从不同的方法中建构不同的个体。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
人工智能时代的道德:让算法遵循“善法”
让“算法”遵循“善法”
杜严勇 | 论机器人道德能力的建构
哲学中的20个价值观问题,随便挑取一个精进深入,即可得大智慧!
内森·加德尔斯 | 新“轴心时代”
NASA为何要将AI机器人送上火星?
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服