EN
400 8855 135    188 1620 7868    188 6166 6881
当前位置:首页>>新闻资讯>>行业动态>>如何约束机器人道德
分享至:
联系我们contact us
全国咨询热线400-8855-135

热线:400-8855-135

固话:0510-85598686

手机:188 1620 7868 



地址:江苏省无锡市滨湖区胡埭镇农科队路26号


如何约束机器人道德

发布日期:2019/03/28

 2018年12月18日,欧盟人工智能高级别专家组发布了一份人工智能品德准则草案。在许多人担忧人工智能取代人类、破坏品德的大布景下,该草案旨在指导人们制作一种“可信赖的人工智能”。怎么才能让机器人更令人信赖?可否赋予它们品德修养呢?就此论题,作者采访了美国匹兹堡大学科学哲学和科学史系杰出教授、西安交通大学长江讲座教授科林·艾伦。


问:发展人工智能的品德应选用怎样的模式?

       艾伦:咱们曾在《道德机器》中评论了机器品德发展模式,以为“自上而下”和“自下而上”相混合的模式是相对好的答案。首先谈一谈“自上而下”和“自下而上”意味着什么。咱们以两种不同的方法使用这两个术语。一个是工程的视角,也就是一些技术和计算机科学的视角,例如机器学习和人工进化,而另一个则是品德学视角。机器学习和人工进化并不从任何准则开端,它们只是试图使机器符合特定类型的行为描述,并且在给定输入使机器以这种方法行事时,它的行为可以符合特定类型,这叫“自下而上”。与之相比,“自上而下”的方法则意味着一个清晰的、将规矩赋予决议计划过程的模式,并且试图写出规矩来指导机器学习。咱们可以说,在工程领域中,“自下向上”是从数据傍边学习经验,而“自上向下”则是用断定的规矩进行预编程。


问:怎么让人工智能具有道德?

       艾伦:首先要说的是,人类自己还不是完全有道德的,将一个人培养成有道德的人可不是一件简单的事。人类的实质都是出于利己主义做事,而不考虑别人的需求和利益。但是,一个道德的智能体必须学会抑制自己的愿望以方便别人。咱们现在构建的机器人,其实并不具有自己的愿望,也没有自己的动机,因为它们没有自私的利益。所以,训练人工智能和训练人的品德是有很大差异的。对机器的训练问题在于,咱们怎样才能赋予机器一种才能,让它敏感地察觉到哪些对人类的品德价值观而言是重要的工作。此外,机器需求认识到它的行为会对人类形成苦楚吗?我以为是需求的。咱们可以考虑通过编程,使机器按照这种方法行事,且无需考虑怎么让机器人优先考虑他者利益,究竟现在的机器还不拥有利己的天性。


问:什么是人工智能的“品德”?

       艾伦:人工智能的“品德”,或者说“道德机器”“机器品德”,有很多不同的意义。我将这些意义归为3种。第一种意义中,机器应具有与人类完全相同的品德才能。第二种意义中,机器不用完全具备人类的才能,但它们对品德相关的现实应该具有敏感性,并且能依据现实进行自主决议计划。第三种意义则是说,机器规划者会在较低层面上考虑机器的品德,可是并没有赋予机器人重视品德现实并做出决议计划的才能。

       就现在而言,第一种意义所想象的机器仍是一个科学幻想。所以,我在《道德机器》一书中略过了对它的评论,而更有兴趣评论那些介乎第二、第三种意义之间的机器。当下,咱们期望规划者在规划机器人时可以考虑品德因素。这是因为,在没有人类直接监督的情况下,机器人可能将在公共领域承担越来越多的工作。这是咱们第一次发明可以无监督地运行的机器,这也是人工智能品德问题与以往一些科技品德问题之间实质的区别。在这样的“无监督”情境中,咱们期望机器可以做出更道德的决议计划,期望对机器的规划不仅仅要着眼于安全性,更要重视人类在乎的价值问题。