今天的人工智能,距离真正像人一样理解世界还有多远?

AI1年前 (2023)发布 aixure
65 0 0
导读:4月17日下午,湛庐特别邀请圣塔菲研究所客座教授、《AI3.0》一书作者梅拉妮米歇尔,中国科学院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃,驭势科技联合创始人、董事长兼CEO吴甘沙,清华大学计算机系副教授、智源青年科学家刘知远等国内外知名…

4月17日下午,湛庐特别邀请圣塔菲研究所客座教授、《AI3.0》一书作者梅拉妮米歇尔,中国科学院自动化研究所复杂系统管理与控制国家重点实验室主任王飞跃,驭势科技联合创始人、董事长兼CEO吴甘沙,清华大学计算机系副教授、智源青年科学家刘知远等国内外知名科学家和创业者,以及特别嘉宾达闼云端机器人小姜,一起探讨AI3.0时代的新商机和新生态。

这次全智能场景发布会第一次采用了演播室和户外智能场景双现场形式,在无人驾驶汽车和云端智能机器人的烘托下,全面展示了中国人工智能领域的创新实力和前沿进展。几位科学家、企业家跨界深度交流,共同探讨了人工智能发展现状,以及透视当下AI发展的关键问题,并对产业布局和政策提出了可供参考的建议,助力未来的想象与开创。

以下为梅拉妮米歇尔教授演讲精华内容

梅拉妮米歇尔(Melanie Mitchell)

圣塔菲研究所客座教授

畅销书《复杂》作者

广大读者朋友们,大家好,我是梅拉妮米歇尔,是圣达菲研究所的教授,也是这本刚刚被翻译成中文的《AI3.0》一书的作者,我写这本书的原因是为了与非专业人士探讨人工智能的现状。

有些读者可能读过我以前出版的一本书的中文版《复杂》,并且可能会想知道两本书之间的关系。我对此先做一个简要的说明:

《复杂》这本书是对复杂系统科学的一个概述,复杂系统科学研究的是复杂行为如何从相对简单的组成部分之间的相互作用中产生;而《AI 3.0》则是深度聚焦于复杂系统科学中的一些最难的问题,比如智能的本质是什么?研究者是如何创建智能机器的?我们如何评判这一领域目前所取得的成就?今天的机器距离真正像人一样来理解世界还有多远?

推荐阅读

如今,我们都听说了许多关于人工智能(AI)的应用,以及人工智能(AI)将如何改变我们生活的方方面面。人工智能系统在我们的日常生活中随处可见,人工智能系统会为我们找出最佳的行驶路线,它还可以识别人脸、转录语音、回答人类的问题,把文本翻译成不同的语言,它们可以在复杂的游戏中打败人类,甚至可以自主驾驶。

但这些系统到底有多智能呢?要过多久它们才能真正达到人类智能的水平,甚至超越人类?人类智能创造AI程序最大的挑战是什么?如何解决这些挑战?我们真的想要创造这样的东西吗?以上这些都是我今天想涵盖的主题。我会以一种非专业人士可以理解的以及从事AI研究的人们同样也感兴趣的方式去讲述。

首先我会简单地谈谈人工智能的发展历史,以及我们是如何到达AI3.0(第三代人工智能)的。

AI1.0 是大约始于20世纪50年代的第一代人工智能,那是人类工程知识的时代。

也就是说人类会结合自己的知识编写程序,例如对鸟类进行分类。如果一只鸟很大,但不会飞,那它可能是鸵鸟;如果它很大还会飞,而且又硬又秃,那它可能就是一只鹰。

这些所谓的专家系统有许多复杂的案例,但不幸的是这个系统很难整合所有的人类知识。例如,如果有一只翅膀折断的鸟该怎么分类?这样的例子不在整个专家库里,因此该系统就会出错。

AI2.0是大约始于20世纪90年代的机器学习时代,在过去的10年左右被称为深度学习革命。

在这个时代,人工智能系统从数据而非人类专家库编制的程序中进行学习。在最新一轮的深度学习革命中,这些系统是基于人脑如何学习,以及人脑如何由多层相互反馈的神经元构成来进行建模的。

其中神经元层的数量被称为网络的深度,由多层模拟神经元组成的网络是一个通过深度学习进行学习的深度网络,深度学习带来了我之前提到的人工智能领域最近取得的所有重大成就,但它有很多局限性。

一方面,深度神经网络需要从人类标记的大规模数据集进行学习。例如,ImageNet数据集是一组从互联网上爬取的超过100万张图片的庞大集合,人类已标记出了其中每个图片里的目标类别,ImageNet使计算机视觉、人脸识别等其他应用产生了巨大的进步,但总的来说,为了使神经网络不出任何错误,要标记出充分训练一个神经网络所需的所有图片是不可能的。

深度神经网络的另一个问题是其复杂性,还有其决策的不可解释性。举个发生在我自己实验室里的例子,一个学生正在训练判断一张图片是否包含动物的神经网络,你可以看到,它对像这样包含动物的图片,与其他像这样不包含动物的图片的分类是正确的。

但该网络无法解释它做决策的原因,我的学生在做了大量的工作后发现该网络实际上利用的是这样的线索有动物图像的背景是模糊的,没有动物的图像背景是清晰的,这是由于在这里摄影师正聚焦于前景中的这只动物,因此不需要把焦点放在前景上。该神经网络使用的线索并非我们想让它成功完成这项任务的线索,这种情况在机器学习中随处可见。

由于神经网络从数据中学到的是这些表面的线索,因此它们经常会犯一些不像人类的错误。例如,深度神经网络以非常高的可信度正确地将这张照片分类为消防车,但如果那辆消防车通过Photoshop改为不同的形态,神经网络会非常自信地认为现在它是一辆校车、一艘消防船或一辆雪橇。

所以在某种程度上神经网络感知到的东西与我们人类在这些图像中感知到的东西非常不同,而且我们很难理解它为什么会犯这些错误。

深度神经网络也很难将它们学到的知识迁移到新场景中,比如,一个神经网络学着玩电子游戏《打砖块》(Breakout),在这个游戏中,需要移动一个球拍来击球,击碎这些彩色的部分(即砖块)。这台计算机使用深度学习的方法来学习如何比人类玩得更好,但如果当球拍向上移动了几个像素,游戏就会发生一些微小的变化,尽管人类可以很容易地调整自己的知识来玩这个新游戏,但神经网络却无法调整自己的知识来玩好这个新游戏。

最后,深度神经网络容易受到对抗性攻击。例如,研究人员能够开发出一些有趣的眼镜,他们可以戴它来愚弄深度神经网络和人脸识别系统,让它们误判自己是其他人。比如,神经网络被这款眼镜欺骗,认为这个男人是女演员米拉乔沃维奇(Milla Jovovitch)。这款眼镜上精心设计的特殊图案能够骗过神经网络,这意味着它们看到的东西或捕捉到的线索,与我们人类在这些图像中所感知到的信息是非常不同的。

AI3.0是人工智能的下一个时代。

在这个时代里,我们期望人工智能系统更加鲁棒,更易于解释,适应性更强。

我们开发类似系统的方式是,发现如何让系统像人类一样以一种主动的无监督的方式学习,类似孩子们学习或掌握常识的方式。比如,如果一个球跑到街上,它可能会被一个孩子尾随,我们希望自动驾驶汽车理解这种情况。还存在有许许多多这样类似的情况,但我们很难写下所有的规则,因此我们希望计算机能发展出人类所拥有的感知能力。我们希望系统能够通过类比泛化它们的知识,比如,如果系统在一个简单的情况下学会了识别桥梁,它就能更普遍地识别其他类型的桥梁,而且我们也希望系统能解释它们的决策。所有这些都是人工智能尚未解决的基本挑战,但它们构成了该领域取得进展的基本问题。

我们如何才能创造出具有类似人类能力的机器呢?这些是目前人工智能研究中最困难和最具挑战性的领域,如果你觉得这一切很有趣,我希望你能读一下我的书《AI3.0》。

AI 3.0是人工智能历史上最激动人心、最关键的时刻,每个人都应该了解人工智能的发展方向,我的书将帮助你理解这些问题和主张、存在的局限性以及危险,特别是智能机器的未来前景。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...