关于人工智能的4个关键误区,看看你有没有中招?

AI1年前 (2023)发布 aixure
63 0 0
导读:提到人工智能(Artificial Intelligence,AI)你会想到什么? 一直以来,普通大众和真正的科研工作者在同一项技术的认知上都存在巨大的鸿沟。以时下火热的AI技术为例,研究人员想到的是算法、模型和数据处理,但普通人就往往联想到机器人管家和自动驾驶汽车…

提到人工智能(Artificial Intelligence,AI)你会想到什么?

一直以来,普通大众和真正的科研工作者在同一项技术的认知上都存在巨大的鸿沟。以时下火热的AI技术为例,研究人员想到的是算法、模型和数据处理,但普通人就往往联想到机器人管家和自动驾驶汽车。

而这种理解差距也使人工智能技术的发展在“极度乐观悲观失望”两极状态中不断反复。

对此,圣达菲研究所(Santa Fe Institute)的戴维斯复杂性教授、《人工智能:人类思考指南》(Artificial Intelligence: A Guide For Thinking Humans)一书的作者梅兰妮米切尔(Melanie Mitchell)表示,导致这种现象出现的原因在于人们对人工智能和自然智能的错误预期。

梅兰妮米切尔

在一篇题为“为什么人工智能比我们想象的更难”(Why AI is Harder Than We Think)的新论文中,米切尔阐述了关于人工智能的四个常见谬误,这些谬误不仅存在公众和媒体中,即便一些专家也会中招。下面我们就来了解一下:

一、弱人工智能和通用人工智能不可相提并论

首先,我们要清楚如今所有的人工智能技术都是所谓的“弱人工智能”或“狭义人工智能”(Narrow AI)

它们可以在围棋和国际象棋方面胜过人类,也可以在X射线图像中非常准确地发现癌变模式,并将音频数据转换为文本。但是,这种能够解决单一问题的系统并不一定意味着也可以解决更复杂的问题。

所以,这也就引出了第一个谬误“人们往往认为狭义的智能与通用的智能是一个连续体。”

米切尔在她的论文中写道:“如果人们看到一台机器在一个细分领域做了一些惊人的事情,他们就会认为这个领域是朝着通用人工智能的方向发展的。”

例如,今天的自然语言处理(NLP)系统已经在解决许多不同的问题上取得了长足的进步,如翻译、文本生成和具体问题的解答。同时,我们还有深度学习系统,可以将语音数据实时转换为文本。

语音实时转换为文本

在这些成就的背后,是数千小时的研究和开发(以及花费在计算和数据上的数百万美元)。但是,人工智能界仍然没能开发出能够参与开放式对话(且不会丧失连贯性)的“语音机器人”。

其原因就在于这样一个系统需要的不仅仅是解决较小的问题,它还需要常识,这是人工智能未解决的关键挑战之一。

二、简单的事很难实现自动化

谈到人类,我们通常认为一个聪明的人之所以聪明,就是因为他们可以在较短的时间内就完成常人需要多年学习和训练才能做到的难事。这方面的例子可能包括解决微积分和物理问题的任务,在大师级水平上下棋,或背诵大量的诗歌。

但数十年的人工智能研究已经证明,困难的任务,尤其是那些需要有意识注意的任务,更容易实现自动化。反而是那些我们认为理所当然的容易的任务才难以实现自动化。

对此,米切尔将第二个谬论称为“易者固易,难者衡难。”

米切尔写道:“我们人类轻而易举就可以做的事情,如看一看外面的世界,了解我们所看到的东西,进行一次谈话,走在拥挤的人行道上而不撞到任何人,这些对机器来说却是最难的挑战。”

相反,让机器做对人类来说非常困难的事情往往更容易,例如,解决复杂的数学问题,掌握国际象棋和围棋等游戏,以及在数百种语言之间翻译句子,这些对机器来说都变得相对容易。

举一个最明显的例子视觉。几十亿年来,生物体已经发展出处理光信号的复杂结构。动物用它们的眼睛来评估它们周围的物体,使其在周围环境中穿梭,寻找食物,探测威胁,以及完成对它们的生存至关重要的许多其他任务。

AI的“视觉”

同样的,我们人类也是从我们的祖先那里继承了所有这些能力,并在没有意识到的情况下使用它们。但其背后的机制确实比那些我们在高中和大学期间搞不定的大型数学公式更复杂。

换句话说,我们仍然没有像人类视觉那样多功能的计算机视觉系统。尽管我们已经设法创建了人工神经网络,大致上模仿了动物和人类视觉系统的一部分,如检测物体和分割图像。但它们很脆弱,对许多不同类型的扰动很敏感,而且它们不能模仿生物视觉所能完成的全部任务。

这就是为什么自动驾驶汽车中使用的计算机视觉系统需要得到其它先进技术的补充,如激光雷达和高精地图。

另一个被证明非常困难的领域是人类无需明确训练就能掌握的感觉运动技能。想想你平常是如何进行走路、跑步和跳跃的,发没发现这些都是你无需有意识思考就能完成的任务。

事实上,在行走时,你可以做其他事情,如听歌曲或打电话。但对于目前的人工智能系统来说,这类技能仍然是一个艰巨而费力的挑战。

“人工智能比我们想象的要难,因为我们在很大程度上没有意识到我们自己思维过程的复杂性。”米切尔写道。

三、将AI拟人化并没有什么用

现阶段,人工智能领域充斥着将软件与人类智能等同起来的词汇,如“学习”、“理解”、“阅读”和“思考”等术语常被用来描述人工智能算法的工作方式。

虽然这种拟人化的术语便于大众理解,且利于帮助专家解释复杂的软件机制,但它们会误导我们,让我们以为目前的人工智能系统真的就像人类的大脑一样工作。

对此,米切尔称这种谬误为“贪图省事的套用概念!”

“这种速记法可能会误导试图理解这些结果的公众(以及报道这些结果的媒体),而且还可能无意识地影响人工智能专家对自己系统的看法,以及这些系统与人类智能的相似程度。”米切尔写道。

千万不要忽视这种问题的严重性,贪图省事的速记法谬误还会导致人工智能界以误导的方式命名算法评估基准。

以通用语言理解评估(GLUE)基准为例,该基准由人工智能领域一些最受尊敬的组织和学术机构开发。GLUE提供了一组任务,帮助评估一个语言模型如何在它被训练的任务之外概括其能力。但与媒体所描述的相反,如果一个人工智能系统获得比人类更高的GLUE分数,并不意味着它在语言理解方面比人类更好。

“虽然机器可以在这些特定的基准上超过人类,但人工智能系统仍然远远不能与普通的人类能力相匹配。”米切尔写道。

这其中最典型的一个案例就是Facebook人工智能研究中心2017年的一个项目,在这个项目中,科学家们训练了两个人工智能系统,根据人类的对话进行任务谈判。在他们的博客帖子中,研究人员指出,“更新两个系统的参数导致了与人类语言的分歧,因为机器人系统开发了它们自己的谈判语言。”

但经过媒体这么一报道,事情就变了味儿!一系列高阅读量文章都将其报道为“人工智能正在用秘密方言进行交流,警告AI系统正在变得比人类更聪明!!!”

但实际上,即便是四年后的今天,全世界最先进的语言模型仍然无法在理解基本概念方面做到尽善尽美,而大多数人类在很小的时候就已经在没有人指导的情况下学会了这些概念。

四、没有“身体”的人工智能

智能可以脱离对世界的丰富物理经验而存在吗?这是科学家和哲学家们几个世纪以来一直困惑的问题。

有一个学派认为,智慧都在大脑中,可以从身体中分离出来,他们的代表性理论就是“缸中之脑”。

缸中之脑

这种想法认为,只要有正确的算法和数据,我们就能创造出生活在服务器中并与人类智能相匹配的人工智能。

对此,米切尔称其为“智能全在大脑”的谬论。

对于这种思维方式的支持者来说,特别是那些支持纯粹的基于深度学习的方法的人来说,达到通用人工智能取决于收集适当数量的数据和创建越来越大的神经网络。

但与此同时,有越来越多的证据表明,这种方法注定要失败。“越来越多的研究人员正在质疑‘智能全在大脑’的信息处理模式对于理解智能和创造人工智能是否有益。”米切尔写道。

究其原因,人类和动物的大脑与所有其他身体器官一起进化,最终目的是提高生存的机会。我们的智能与我们身体的极限和能力紧密相连。

米切尔指出,神经科学研究表明,“控制认知的神经结构与控制感觉和运动系统的神经结构有着丰富的联系,抽象思维利用了基于身体的神经‘地图’。”事实上,有越来越多的证据和研究证明,来自大脑不同感觉区域的反馈会影响我们有意识和无意识的思想。

米切尔支持这样的观点,即情绪、感觉、潜意识的偏见和身体经验与智力是不可分割的。

“在我们的心理学或神经科学知识中,没有任何证据支持‘纯理性’可以与塑造我们认知和目标的情感或文化偏见相分离。相反,我们从具身认知的研究中所了解到的是,人类的智慧似乎是一个强有力的综合系统,具有紧密相连的属性,包括情感、欲望、强烈的自我意识和自主性,以及对世界的常识性理解。这些属性是否可以分开目前完全不清楚。”她写道。

人工智能中的常识

发展通用人工智能需要调整我们对智能本身的理解。现阶段,我们仍然在努力定义什么是智能,以及如何在人工和自然生物中衡量它。

“很明显,为了更有效地创造和评估人工智能的进展,我们将需要开发一个更好的词汇来谈论机器能做什么,”米切尔写道。“而且更广泛地说,我们将需要对智能有更好的科学理解,因为它在自然界的不同系统中都可以表现出来。”

米切尔在她的论文中讨论的另一个挑战是“常识”,她把常识描述为“一种保护伞,保护当今最先进的人工智能系统所缺少的东西。”

常识包括我们获得的关于世界的知识,并且每天不费吹灰之力就能应用这些知识。在我们还是孩子的时候,通过对世界的探索,我们在没有明确指示的情况下学到了很多东西,包括诸如空间、时间、重力和物体的物理属性等概念。

例如,孩子在很小的时候就知道,当一个物体被另一个物体挡住时,它并没有消失,而是依然存在。或者当一个小球滚过桌子并到达边缘时,它应该掉下来。

我们利用这些知识来建立世界的心理模型,进行因果推理,并以相当高的精确度预测未来的状态。

但这种知识在今天的人工智能系统中是缺失的,这使它们缺乏预测能力,反而只是不断要求被“喂入”大量的数据。以文章开头提到的两个人工智能应用做家务和驾驶为例,大多数人类通过常识和一点点实践就可以轻松学会。

另外,常识还包括关于人性和生活的基本事实。例如,我们知道,如果两个人在“打电话”,这意味着他们不在同一个房间里。我们还知道,如果“小明伸手去拿糖”,这意味着在小明附近有一个里面装着糖的容器,等等。这种知识对自然语言处理等领域至关重要。

“还没有人知道如何让机器自主获取这种知识或能力。这是目前人工智能研究的前沿,一个可能的方向就是挖掘人类幼儿的学习能力。”米切尔写道。

虽然我们仍然不知道这些问题的答案,但是找到解决方案的第一步就是意识到我们自己的错误想法。米切尔写道:“理解这些谬误及其微妙的影响,可以为创造更强大、更值得信赖,甚至可能是更智能的人工智能系统指明方向。”

参考资料:

https://bdtechtalks.com/2021/05/03/artificial-intelligence-fallacies/

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...