语文网-语言文学网-读书-中国古典文学、文学评论、书评、读后感、世界名著、读书笔记、名言、文摘-新都网移动版

首页 > 学术理论 > 语言学 > 圈外·视野 >

用好人工智能,关键还在人类自身(记者观察)(3)


    潜在风险引发广泛讨论
    自从谷歌的无人驾驶汽车为外界所知以来,其安全性一直被各方关注。今年2月,在美国加州发生的一起无人驾驶汽车因躲避路上障碍物而撞上公交车的交通事故,凸显出人工智能设备在应对人类社会各种场景时面临的挑战,这些社会场景是人类每天都会遇到的,但却超出了机器人的能力范围。
    不少人则担心人工智能技术成熟后的问题,比如将机器人用于战争是否会带来像核武器一样的后果等。美国特斯拉公司创始人马斯克与LinkedIn联合创始人霍夫曼等人捐资10亿美元,在2015年12月成立了非政府研究机构OpenAI,希望使一部分人工智能技术脱离各种利益的驱使,将专利与世人共享。
    韩国首尔大学哲学系教授金起显对本报记者表示,人机对弈是人类思考自身作用的契机。他注意到许多人在观看比赛时的情绪是恐怖和惊愕。人工智能的目的是帮助人类,创造出比李世石更优秀的棋手应该是人类的胜利。人们之所以产生恐惧,首先是害怕工作被人工智能抢走。日本驹泽大学经济学系讲师井上智洋预测称,未来只有一些需要创造性、社交沟通的岗位会为人类保留下来。其次,正如日本人工智能学会前会长、京都大学教授西田丰明所说,人工智能未来或再现人类情感,有可能被恶意使用。此外,在面对复杂的伦理问题时,人工智能技术可能会陷入不可预知的选择困境。
    德国美因茨大学哲学教授托马斯·梅辛革常年专注于研究人工智能等现代技术带来的道德问题。梅辛革向本报记者提出一个极端假设:如果3辆谷歌无人驾驶汽车与两辆普通车辆交错行驶,突然路面冲出一只狗。“无人驾驶汽车必须立即做出反应,让谁拥有更大的生存机会?是狗,还是自己车上的乘客,或是普通车辆里的乘客?”这对人类而言尚是一个难解的道德问题。梅辛革认为,目前人工智能的思维还像个“孩子”,有成长完善的空间。目前,它们只被要求尽快做出“正确”反应。但更重要的问题是:人类是只想让人工智能的行为自主,还是道德思考能力也能自主?一旦人工智能独立进行伦理思考,是否会产生与人类不同的价值观?人类是否该承担这一风险?因此,人工智能需要一套“价值论”规则,在这套规则下让它们拥有一定程度的思想自主和自由的权利。然而,这样一套“价值论”规则很难实现,因为人类社会尚不能形成统一的价值标准。“不过有一点是公认的,那就是我们都要尽可能最小化给有意识生物可能造成的痛苦,即为所有生命体造福的准则。” (责任编辑:admin)