姚期智院士:人工智能存在三大技术瓶颈

2020-10-23 09:38:06来源: 中国科技网 作者: 赵卫华 李忠明 何沛苁

人工智能目前存在哪些技术瓶颈?未来是否可能对人类带来威胁?10月22日举行的2020浦江创新论坛全体大会上,图灵奖获得者、中国科学院院士姚期智做了题为《人工智能面对的一些挑战》的演讲。在他看来,人工智能有三大技术瓶颈亟待突破,需要科学家“从0到1”的原创研究。

以下是演讲全文:

感谢主持人,各位领导各位来宾,非常荣幸能够在浦江创新论坛和大家见面。大家都知道人工智能在过去这些年当中对于科技界和整个人类社会发生了非常重大的改变。但是这些人工智能是不是就能够解决我们所有的难题呢?今天我们在这里讨论一下。

从三个方面着手,第一,当今的人工智能技术有什么弱点。第二,人工智能下一步的突破会在什么方向。第三,人工智能对社会越来越大的影响,它会引起什么样的问题,我们应该怎么解决这些问题。在这三个方面举一些例子和大家分享,这些例子有一些特点,他们和应用、科学原理两方面都有深厚的关系,而且两方面都很重要。另外一点,我提出的这些问题在人工智能行业里都觉得这是很重要的问题,所以对于我们国家来说,它是一个重要的标杆类的问题,我们过几年看一看中国人工智能队伍在这些方面是不是作出了重大的突破,是不是能够赶得上国际的水准,对我们是很好的标杆方向。

我先谈第一个方向,现在这些人工智能看起来非常亮丽,他们有没有一些缺点呢?第一个举的例子,现在的人工智能所能够产生的一些算法有相当大的脆弱和不稳定性,我同样看一张图片,如果中间稍微改变一点,对于人来说几乎完全没有改变,人工智能做出来的算法是不是也能够像人类的眼睛一样有非常大的稳定性。我现在给大家看一个非常著名的例子,有一个小猪的相片,对于这个相片如果给它一个非常小的杂音,稍微改变一点它的图像,对于人眼来看一个小猪的形象仍然是一个小猪,但是有些人工智能产生的算法里就会突然之间不认识它了,小猪就变成了飞机。像这种现象变得特别严重,有很多研究发现很多人工智能产生的这种图像识别的算法,特别是对于那种如果有人攻击它,有人把图像做一点改变,会造成非常严重的结果。另外这个方面大家常常听到的一个例子,街道上一辆车停的标志,如果特意攻击它,可以找到一个形象让它变成通行无阻。在自动驾驶上可能是非常严重的安全问题,鲁棒性是当今人工智能的一个弱点。

人工智能的算法应用不仅在图像识别、电影推荐这种东西上,现在已经渗透到了社会和产业非常多的方面,包括治理、环境、医药、伦理、教育等等,所以人工智能效率并不是最重要的标准,当然我们希望它的精确度高、效率非常好,但是我们还希望它有一些别的性质,对于社会的标准或者法律上能够接受的。我给大家看一个例子,现在的人工智能所产生的一些算法常常是缺乏可解释性,我用人工智能的方法看到很多数据,我产生了一个算法,我就拿出来用,和商业公司说这个东西效果非常好,这个公司想用这个产品,但是我不能给这个公司提供一个很好的解释,这个产品如果是一个公众产品,不太容易被大家所接受,甚至会有一些法律上的问题。给大家举个例子,如果用人工智能想要产生对于房地产估价的系统,用人工智能的方法,比如说上海哪一个区很多买卖房子的数据和房子的情况,经过机器学习的演算以后,它产生了一个系统,这个系统就能够拿出来给这个房子非常好的估价,不用那些做房地产的人人力去做。这个算法产生,如果拿出来用,有一个人想卖房子,他先从这个系统得到一个估价,这个估价给他一个结果,比如说200万人民币,卖方的人心里就有一点怀疑,这个价钱会不会低估了,这个系统是不是可信,会不会开发这个系统的人跟我过不去。现在机器学习的算法产生了一个效果很好的算法以后,没有办法解释这个算法到底怎么设计的。可解释性也是现在很多研究的人在努力的方向。我们现在人工智能的算法有很大的优势,但是另一方面有一些缺陷,像一个黑盒子一样,做出来的东西非常神秘,比如说你的产品里有没有一些不符合法律的地方,这个他讲不清楚,有没有歧视哪一类人,也讲不清楚。这种问题很重要,如果用在安全性需要很高要求的时候,这种顾虑会使得大家不能广泛地采用这种系统。这是大家现在非常有兴趣的方向。

第二方面,现在有很多应用,这些是我们以前经营出来的算法,对于将来的应用,5、10年以后的应用,什么地方会有突破口呢?下一代的人工智能技术要怎么样产生呢?我举一个方向,强化学习这种技术,这是现在看起来最可能以后三五年会产生非常惊人发展的。我拿无人机飞行为例,一堆无人机拿来做灯光秀或者农业观测和作业,是非常好的方法。像这类问题虽然也是相当复杂,但是这是传统计算机科学知道怎么做的,我们做分布式计算已经做了几十年了,所以我们有很多经验处理这些事情。但是下一步,比如说无人机群在一个对抗的情况下,甚至是有军事对抗或者打电子游戏,我们怎么能够设计出一个最好的方法。刚才我们说无人机群飞行在灯光秀当中,和很多计算机的问题一样,基本上是一个人类和自然界竞争的一类问题。自然界不是特别恶意想要阻止你跟你对抗,这类问题是比较容易解决的,就像以前控制论里面有一些对于环境比较随机的,并不是恶意的对抗,这种东西我们有很多经验。但是如果我们想要做出无人机对抗这种,这是人和人、单位和单位的较量,这个时候你想要找到一个最优的策略的空间就变得无限大了,这个时候传统的计算机大家所熟悉的数学角度严格地做事情,这种方法就没有办法前进了。这个时候就是人工智能表现的地方,强化学习能够让你学习的算法和对抗性的情况做研究。这是现在发展最迅速的方向,而且这是和普通的比如说人脸识别把精度增加1、2%不一样,这个是0和1的较量。

第三方面,人工智能大家想要用在各个地方,需要人工智能和其他方面综合考虑,不仅是人工智能的能力,而且你需要和其他一些深奥的技术彼此之间的互动,常常是必要地解决一些问题。我举两个例子,一个是关于隐私保护的问题。人工智能有很强的能力能够产生一些算法,但是它中间需要用到很多不同的数据,如果说人工智能需要好几方面合作共同产生一个好的结果,就会涉及到大家都想对于某一些数据有保密的需要。非常幸运的是这个问题在40年前计算机学家就已经作出了研究,我本人也对怎么样保护隐私也就是多方计算的观念有研究,这种密码学的观念,一个数据加密了以后,你可以在上面做计算,这样别人就不知道你本来的数据是什么样的了。通过使用这种多方计算,多个数据库可以联合做计算,但是又不泄漏彼此的数据。从人工智能、机器学习的角度来说,多方计算可以允许一些不同的队伍,他们各有各的数据,大家一起合作,一方面实现高质量的学习,另一方面又保障各方的数据安全。这种对于金融科技、药物开发、AI应用都非常有用。

我现在对于智能制药这件事情做一个介绍。做一个新的药非常贵,需要很多数据,通常各个药厂各有各的重要数据,每一个人用人工智能来单独做药,这个成功率比较小,需要的时间比较长。但是如果大家把各种生物数据、医药数据都结合起来,可以节省成本、节省时间。这就是一个很理想的情况,如果把人工智能的算法用一种多方安全计算的方法来做,这样就可以保证大家在不违反他们知识产权的情况下得到效果。过去两三年已经有一些高校队伍作出了相当大的进展,比如说三年以前在MIT一个队伍,他们就报道了一篇使得几个不同队伍能够合作的例子。在人工智能和社会治理的关系上的第二个例子,这不是单独技术的问题,它涉及到人工智能最理想的目标。人工智能从最开始的时候目的就是希望人工智能能够真正地取代智能,做得比智能更好。过去这几年人工智能的高速发展使得大家又燃起了希望,也许在可见的未来我们真正能够到达通用人工智能或者超级人工智能。有一些有识之士过去几年开始讨论这个问题,他们担心的问题不是我们达不到这个超级智能,而是万一我们到达了超级智能,它比人类的智能超过很多,我们怎么样控制它。超级人工智能的问题从1950年开始大家都对这个有兴趣,有一个人工智能的大先驱叫John McCarthy,他说我们想要达到超级人工智能,我们需要观念上的突破,可能需要5—500年时间,非常不可预知。过去几年有很多名人讨论这个问题,一般大家讨论的是一个比较哲学性的问题,但是这两年大家感觉到超级人工智能必须要能够可控和有益,像原子能和基因编辑一样。伯克利有一个教授,他特别冷静地提出了一个方案,他感觉这个问题是可以做到的,他提出了三个原则。第一,利他,人的利益凌驾于机器利益。第二,谦卑的。第三,尽心尽力。机器能够学习人的偏好。和别人不一样的重点就是他提出了一个相对可行的方案,他觉得中间的每一个原则都必须要而且可以用严格的算法和数学来实现,并且贯穿在设计之中。

这就是我想提出的几个方向。谢谢大家。

加载更多>>
责任编辑:赵卫华