纯粹已被使用(保留纯真)-9游会

8月19日,中国科学院院士、清华大学人工智能研究院院长张工在2022世界机器人大会主论坛上表示,纯粹由数据学习产生的人工智能无法解释,处于不可控状态。为了避免危险,有必要开发安全、可靠、可信的智能机器人。此外,张忠还对机器人的伦理行为提出了自己的思考。他认为,让机器人完全遵守伦理规范和机器人的智能之间存在矛盾,需要通过研究新的伦理分析工具来解决这一问题。

向数据驱动器添加知识

“目前,机器是人类的奴隶,我们让它做什么,它就做什么。但是我们希望进一步发展智能机器人,那么还有一种可能,就是机器人会成为我们的主人吗?现在,人们越来越意识到这种可能性是存在的。阿西莫夫和霍金也提出了相关观点。如果机器的智能超过我们,我们就会失去对它的控制。这样的机器人应该被限制和管理。”张伟说。

张伟表示,目前的机器人智能在还很低的时候就处于不可控状态,这让人类处于危险之中。“比如用深度学习的方法来处理事情,生成的人工智能算法是危险的,不是健壮的(健壮是指系统对异常情况的适应能力),没有可靠性保证。如果使用这种人工智能算法,必然会给人类带来伤害,这已经成为一个现实问题。参考目前人工智能的发展,这种担忧似乎是近忧,而不是远忧。”

在他看来,(人工智能)的数据驱动方法必然是不稳健、不可解释和不可靠的。人在从事人工智能时,必须考虑相关的可能性。要解决这样的问题,唯一的可能就是添加知识和模型。方法简单,但实现起来很难,因为在数据驱动中加入知识时,方法会有很多变化。

张伟说,我们提出的第三代人工智能,就是为了解决第二代人工智能算法的不安全、不可靠、不可信、不可控的状态。第一代人工智能主要由知识驱动,第二代人工智能主要由数据驱动。这两种方法都是片面的,只有将这两种方法结合起来,才有可能开发出安全、可靠、可信的智能机器人。

机器人如何遵守伦理道德?

张伟说,提出著名的“机器人三定律”的阿西莫夫曾经说过,如果机器人是有意识的,如何让它们按照伦理规范行事是一个问题。但实际上,什么是道德,什么是不道德,本身就有很大的争议,比如电车之谜,需要对机器进行道德和伦理的形式化,这需要法律、道德和伦理的共同研究。

他认为,假设给机器一个道德准则,也涉及到机器人可控和不可控的行为。“给机器添加人工智能是不可控的,因为它不是一个完全按照一个规则执行的智能机器人。只有赋予它一定的灵活性,机器人才能有创造力,才能独立解决问题,这是要付出的必然代价。”

“而且,有些技术本身我们无法预测,也不知道怎么制造。比如利用深度学习进行模式识别,大大提高了识别率(记者注:深度学习的输入输出部分很容易理解,但中间的运算部分结构却是一个极其复杂、难以理解的‘黑箱’)。大家都没想到,这种方法的鲁棒性很差。目前,机器人被滥用的现象非常严重。在设计机器人的过程中,有必要做好评估和预测。不能随便制定一个方案,要对智能机器人进行非常严格的评价。”张伟说。

在他看来,我们可以通过研究新的伦理分析工具来更好地预测伦理分析结果,利用深度学习方法给出不道德和道德行为的样本,通过模拟大量实验来解决安全问题和伦理问题。

2022世界机器人大会中国科学院院士张忠供图

新京报壳牌财经记者罗一丹

编辑王雨辰

校对茜茜

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文链接:https://www.andon8.com/306208.html

网站地图