方法论原则 从一般的意义上讲,机器人伦理研究需要遵循人们普遍接受的伦理原则。针对目前的机器人伦理研究现状,我们尝试提出以下几条机器人伦理研究的方法论原则。 第一,灵活性与开放性原则。与生命伦理、核伦理等科技伦理不同的是,由于机器人应用非常广泛,希望某一种或几种伦理原则可以解决所有问题是不现实的。同时,由于文化的多元性与地域性等原因,导致对于同样一项机器人技术,不同的受众群体在不同时期可能会做出完全不同的伦理价值判断,需要具体问题具体分析。为了准确把握受众群体的伦理诉求,必须按照一定程序进行理性对话与调查研究,并建立相应的反馈机制。也就是说,机器人伦理研究需要在特定的社会情境中展开。这些都要求机器人伦理研究要遵循灵活性与开放性原则。 第二,阶段性与综合性原则。虽然机器人在某些方面远超过人类,但限于目前计算机、人工智能以及机器人学的发展水平,机器人在常识性知识、学习能力等方面还不如人类。而且,由于学者们关于在机器人中实现哪些伦理原则,以及如何实现等许多问题尚未达成一定程度的共识,所以在研究过程中需要分阶段进行。已有的研究成果表明,在对机器人进行伦理设计的研究中,可以首先让机器人成为“伦理顾问”,然后对其伦理判断进行综合评价,再对相应的伦理原则与计算机程序进行调整,如此反复进行。在已有的机器人伦理研究进路中,主要有人工智能进路、心理学或社会学进路,以及哲学进路等,在分门别类进行详细考察的基础上,最终需要将各种研究进路统一起来。 第三,安全性与预防性原则。在科技伦理当中,安全性原则的重要性尤为突出。在机器人能力越来越强大的时代背景下,安全性原则应该是首要原则。在许多关于机器人的科幻小说与影视作品中,大多折射出悲观主义的立场,认为机器人会超越甚至战胜人类,由此更加突显了安全性原则的重要地位。即使机器人技术可能对人类及其生存环境形成危害的因果关系没有得到充分证实,只要其可能性存在,我们就有理由对其开发应用保持足够的警惕。另外,机器人的研发机构对于机器人的应用可能产生的风险也必须尽到告知义务,等等。总之,从机器人的设计、开发到使用,安全与预防原则都必须一以贯之。 (本文系国家社科基金项目“机器人伦理问题研究”(15BZX036)阶段性成果) (作者单位:上海交通大学科学史与科学文化研究院) (责任编辑:admin) |