为何除了马斯克,没人愿意猜通用人工智能何时出现?

AI1年前 (2023)发布 aixure
74 0 0
导读:我们今天熟知的通用人工智能概念,始于纽约百老汇大道上一个失败的互联网公司。 这家公司名为 Webmind。20 年前,现任 DeepMind 首席科学家肖恩莱格曾在此工作,公司老板是 AI 专家本戈策尔。后来,莱格与德米斯哈萨比斯、穆斯塔法苏莱曼一起创立 DeepMind。…

我们今天熟知的通用人工智能概念,始于纽约百老汇大道上一个失败的互联网公司。

这家公司名为 Webmind。20 年前,现任 DeepMind 首席科学家肖恩·莱格曾在此工作,公司老板是 AI 专家本·戈策尔。后来,莱格与德米斯·哈萨比斯、穆斯塔法·苏莱曼一起创立 DeepMind。四年以后,谷歌以 5 亿多美元买下这家公司。现在,就人工智能的未来而言,莱格与戈策尔分别代表两个分支,但这两个分支同宗同源。

图 | 本·戈策尔

即便当时互联网公司都风头正盛,Webmind 置身其中,依然称得上是野心勃勃。戈策尔希望开发出相当于婴儿认知水平的数字大脑,将其放到互联网上。他相信这一数字大脑将变得完全具有自我意识,并且超出人类水平。他在 1998 年对《基督教科学箴言报》表示:“我们正处于过渡阶段,从规模上讲相当于新智能诞生、或新语言出现。”

Webmind 试图开发一个可以预测金融市场行为的工具,来为自己筹集资金,但这个梦想没有实现。在花光了 2000 万美元之后,Webmind 关闭了办公室,停止给员工发薪,并于 2001 年申请破产。

不过,莱格和戈策尔一直保持着联系。几年后,戈策尔编撰了一本有关超级 AI 的论文集,正是莱格帮他取了书名。据莱格回忆,当时他告诉戈策尔,“如果这是关于 AI 尚不具备的普遍功能,我们应该称其为通用人工智能(下文简称 AGI)。”

AGI 一词从此诞生,并沿用至今。

后来人们经常用 AGI 指代和人类相似的 AI 或者超级 AI。但人们最常抱怨的也是 AGI 这个词。Facebook 的 AI 负责人杰罗姆·佩森蒂就说过:“我不喜欢这个词,我不懂这个名字到底代表什么。”

人们往往以为,AGI 代表着机器意识或者会思考的机器人。虽然许多支持 AGI 的人确实抱有如此梦想,但其实 AGI 更多是关于拓宽思考维度。如果我们研究出思维水平和人类相当甚至优于人类的机器,而且这些机器思考速度很快、从不疲倦的话,那么解决现有问题会更有胜算。在 1965 年,计算机科学家古德便说:“只要发明出来第一台超智能机器,人类便能一劳永逸。”

埃隆·马斯克早期曾投资 DeepMind。他的预测总令人瞠目结舌,但是成千上万的人都在关注他说了什么。几个月前,他告诉《纽约时报》,五年内,我们就能研发出超级 AI。

5 月,佩森蒂对此作出回击。他发推文称:“马斯克就是在瞎扯。没有 AGI 这样的东西,我们要过很久才能开发出比得上人类的智能。” 马斯克回复:“Facebook 垃圾。”

如此针锋相对并不罕见。百度前 AI 负责人、Google Brain 联合创始人吴恩达说:“别在 AGI 上浪费口舌了,还是先处理好紧急问题吧。”

纽约大学 AI 研究人员朱利安·托格里乌斯说:“相信 AGI 就像相信魔术一样。这是在放弃理性思考,这是在对无法理解的事物表达希望或者恐惧。” 在推特上搜索 “#noAGI” 话题,会发现许多 AI 权威人士都参与了讨论。其中便有 Facebook 首席 AI 科学家扬·勒昆,他于 2018 年获得了图灵奖。

但随着 AlphaZero 取得棋盘游戏冠军,GPT-3 生成的文本让人们相信它们出自人类之手,这些进步又激起有关 AGI 的热议。即便 AlphaZero 不会编写故事,GPT-3 不会下棋,它们更无法论证写故事和下棋为何重要,这些工具离 “通用人工智能” 依旧差得很远,但是研发 AGI 的目标再次变得可以接受,即使它们看起来依然很疯狂。

一些大规模 AI 实验室非常看重这个目标。OpenAI 表示,希望首先开发出具有人类推理能力的机器。DeepMind 虽然没有公开承认,但一直在重复自己的使命为 “攻克智能”。两家公司的高层人士都愿意从 AGI 角度出发讨论这些目标。

莱格说:“在 21 世纪头几年讲 AGI,大家会觉得你疯了。甚至在 2010 年我们创立 DeepMind 的时候,去开会时还特别多人一脸不屑。” 但现在变了,“有些人还是不喜欢它,但 AGI 势不可挡。”

那么,为什么 AGI 会引起争议?为什么 AGI 如此重要?它是一个不顾后果的误导方向?还是人工智能的最终目标?

什么是 AGI?

这个词已经流行了十多年了,但是它所概括的想法已经跨越了一代人的时间。

1956 年夏天,十几位科学家在美国新罕布什尔州的达特茅斯学院相聚,一起做了个 “小” 研究项目。人工智能先驱约翰·麦卡锡、马文·明斯基、纳特·罗切斯特和克劳德·香农率先宣传了这个项目,并写道:“该研究基于下列推测:原则上,我们可以精确描述学习的各个方面或智能的任何特征,并且能够制造一台机器来模拟。该研究将尝试教会机器使用语言、有抽象能力、形成概念,能解决现在人类所面临的各种问题,并且机器会自我改进。”科学家们认为,如有 10 人参与,两个月便能完成项目。

到 1970 年,明斯基又大胆表示:“在三到八年内,我们将拥有一台与普通人类智慧相当的机器。也就是说,这台机器可以阅读莎士比亚的戏剧,给汽车加油,谙熟办公室规则,讲笑话,打架。那时,机器将开始以惊人的速度进行自我改进。再过几个月,它将达到天才的水平。再过几个月,它的力量将不可估量。”

在这些关于 AI 的愿景中,有三点引人注目:接近人类水平的归纳能力、超快的自我改进能力(呈指数级增长)、极强的想象能力。但半个世纪以来,我们仍然无法创造出具有人类多任务处理能力的 AI,现在 AI 的多任务处理能力甚至都比不上昆虫。

但也并非没有傲人成就。现在的机器可以使用语言、有视觉、能解决许多问题,已经实现了当初不少目标。但如今的 AI 并不是先驱者想象的那样接近人类水平。深度学习推动了 AI 蓬勃发展,能训练机器掌握写故事、下棋等能力,但 AI 无法同时做多件事。

有时,莱格将 AGI 视为多功能工具,认为 AGI 可以解决许多不同问题,可以不必为每一项挑战都设计一个新的 AI。按照这种观点,AGI 不会比 AlphaGo 或 GPT-3 更智能,而是会掌握更多功能。AGI 将是通用 AI,而不是高度发展的智能。但是莱格还认为,人类可以与 AGI 交际,就好像它也是人类。

他所描述的机器像是玩伴:如果可以与机器互动,给机器展示新的纸牌游戏,教机器玩,机器会问问题,然后一起玩游戏,那可太美了。“我的梦想成真了。” 他说。

当人们谈论通用人工智能时,通常会想到的是这些类似于人的能力。但称其 “类似于人类”,既含糊又过于具体。人类是我们所拥有的通用智能的最佳典范,但人类也高度专业化。想一下动物智能的领域:从蚂蚁的集体认知到乌鸦或章鱼解决问题的技能,到更容易识别但仍不可知的黑猩猩的智能,这些都显示出建立通用智能的方法有很多。

即便我们的确构建了通用人工智能,可能也无法完全理解它。当今的机器学习模型通常是 “黑匣子”,这意味着它们获取准确结果的计算方式没人可以理解。再加上能够自我改进的超级智能,所以这就是为什么科幻小说经常提供最简单的类比。

有些人也会将意识或感知带入通用人工智能的要求中。但如果智能就很难下定义,意识就更难了。哲学家和科学家尚不清楚人类到底是什么,更不用说计算机中的内容了。智能可能需要某种程度的自我意识,能够反思你对于世界的看法,但这并不一定与意识是同一回事,意识是体验世界的感觉或是反思自己对世界看法的感觉。即使 AGI 最忠实的信徒也不能了解机器意识。

如何才能研发出通用人工智能?

莱格在整个职业生涯中一直在追求智能。

在离开 Webmind 之后,他与瑞士卢加诺大学的马库斯·哈特合作了一篇博士学位论文 “机器超级智能”。哈特目前也在 DeepMind 工作。

两人发布了通用智能的方程式,莱格将其描述为衡量在大多数情况下实现目标的能力。他们表示,他们的数学定义与心理学中发现的许多智能理论相似,后者也从通用的角度定义了智能。

在 DeepMind,莱格将其理论变为实际演示,从在特定环境中实现特定目标(从游戏到蛋白质折叠)的 AI 开始。

接下来是棘手的部分:让 AI 同时掌握多种能力。深度学习是我们拥有的最通用的方法,因为一种深度学习算法可用于学习多个任务。AlphaZero 使用相同的算法来学习围棋、将棋(日本的象棋游戏)和象棋。DeepMind 的雅达利 57 系统使用相同的算法来掌握每个雅达利电子游戏。但人工智能一次仍然只能学习一件事。掌握了象棋之后,AlphaZero 必须擦除其记忆,并从头开始学习将棋。

莱格将这种通用性称为 “只学一件事算法”,它与人类具有的 “唯一大脑” 不同。他认为,总体来说,“只学一件事算法” 非常有用,但是却不如 “唯一大脑” 那么有趣。因为人类不需要切换大脑,我们在玩象棋的时候不需要换上负责象棋的大脑。

把 “只学一件事算法” 转变为 “唯一大脑”,这是人工智能面临的最大挑战之一。而且,拥有 “唯一大脑” 的人工智能仍然不是真正的智能,只是一个更好的 AGI 莱格的多功能工具而已。但无论是否要以 AGI 为目标,研究人员都认为当今的系统需要变得更加通用,对于那些以 AGI 为目标的人来说,一个有着更普遍目标的人工智能是必不可少的第一步。有很多方法可能会有所帮助。从已经出现的新兴技术到更激进的实验都有。按技术的成熟程度排序,它们是:

无监督或自主监督学习。标记数据集(例如,用 “猫” 来标记所有猫的图片),以告诉人工智能在训练过程中它们看的是什么,这就是所谓监督学习的关键。但大部分工作仍需人工完成,这成了主要瓶颈。人工智能需要能够在没有人类指导的情况下进行自我学习,例如,看着猫和狗的图片,并学会在没有人类帮助的情况下将它们区分开,或者不借助之前案例的标签就能发现金融交易中的异常情况。这就是所谓的无监督学习,现在正在变得越来越常见。

转移学习,包括少量样本学习。如今,大多数深度学习模型训练一次只能做一件事情。转移学习的目的是让人工智能将一个任务的部分训练内容(如下象棋)转移到另一项任务(如下围棋)中。这就是人类的学习方式。

常识和因果推理。如果人工智能具有常识性的基础,那么在任务之间转移训练内容会比较容易。常识的关键部分是理解因果关系。目前,给人工智能赋予常识是一个热门研究课题,其方法包括将简单规则编码到神经网络中,以及限制人工智能可能做出的预测。但是该研究工作仍处于初期阶段。

学习优化器。这些工具可用于塑造人工智能的学习方式,指导它们更有效地进行训练。最近的工作表明,这些工具本身可以自我训练 实际上,这意味着一个人工智能可以用于训练其他人工智能。这可能是迈向自我完善人工智能,以及通用人工智能目标的一小步。

所有这些研究领域都建立在深度学习之上,而这仍然是目前构建人工智能的最有前途的方法。深度学习依赖于神经网络,神经网络通常被描述为类似于大脑的结构,因为它们的数字神经元受到生物神经元的启发。人类的智能是我们拥有的通用智能的最好案例,因此,从人类自身寻找灵感是很有意义的。

但是,大脑不仅仅是一个庞大的神经元链接网络。它们拥有可以相互协作的独立组件。

例如,哈萨比斯和莱格见面时,他正在研究处理记忆的海马体。哈萨比斯认为,人脑的通用智能部分来自于海马体与皮质之间的交互作用。这个想法造就了 DeepMind 的雅达利游戏人工智能机器,它使用了海马体启发式算法,称为 DNC(差分神经计算机),该算法将神经网络与专用内存组件结合在一起。

像 DNC 之类的人造大脑组件有时被称为认知架构。它们也在其他 DeepMind 的人工智能中发挥作用,例如 AlphaGo 和 AlphaZero,它们将两个独立的专用神经网络与搜索树(一种较老的算法形式)结合在一起,有点像决策流程图。像 GPT-3 这样的语言模型将神经网络与更专业的神经网络(变压器)结合在一起,后者能处理诸如文本之类的数据序列。

最终,所有可以建立通用人工智能的方法都归结为两个广泛的思想流派。一种是,如果算法正确,你可以随意选择喜欢的认知架构来开发它们。像 OpenAI 这样的实验室似乎支持这种方法,它们建立了越来越大的机器学习模型,这些模型可以通过简单粗暴的手段实现通用人工智能。

另一个流派认为,对深度学习的关注在拖后腿。如果通用人工智能的关键是弄清楚人造大脑的各个组件应该如何协同工作,那么过多地关注组件本身(即深度学习算法)就等于见树不见林。正确构建认知架构,会让研究人员几乎可以在之后再考虑插入算法。这是戈策尔所喜欢的方法,他的 OpenCog 项目试图构建一个开放源代码平台,将不同部分整合到通用人工智能整体中。DeepMind 为了 AlphaGo 结合神经网络和搜索树时,也探索了这一方法。

“我个人的感觉介于两者之间。” 莱格说,“我怀疑只有非常少量的精心设计的算法才可以组合在一起,使 AGI 真正强大。”

戈策尔并不同意。他说:“谷歌和 DeepMind 对通用人工智能的深入思考给我留下了深刻的印象(两家公司现在都归 Alphabet 所有),如果有任何一家大公司会创造出通用人工智能,那肯定就是他们。”

但是也不要抱太大希望。由于几十年来低估了这一挑战,除了马斯克之外,几乎没有其他人愿意猜测通用人工智能何时会出现。即使戈策尔也不会冒险为他的目标设定一个特定的时间,他只是会说快了。毫无疑问,快速发展的深度学习(尤其是 GPT-3)因为模仿了某些人类的能力而提高了大家的期望。但是模仿不是智能。AGI 未来的发展道路上仍然有很大的障碍,研究人员仍然没有深入了解它们,更不用说解决这些问题了。

“但是,如果我们继续快速前进,谁知道未来会发生什么呢?” 莱格认为,在未来几十年内,可能会出现一些非常强大的系统。

为什么 AGI 备受争议?

没人知道如何开发 AGI 的部分原因是,几乎没有人对它的定义能达成一致。不同的方法反映了研究人员的不同目标,有些人希望能研发出多功能工具,有些人则希望能制造出一个超人。在让人工智能更通用的方向上,我们迈出了一小步,但一个能够解决不同问题的通用工具,和一个能够解决人类无法解决的问题的工具之间存在着巨大的鸿沟。“人工智能领域取得了巨大进步,但这并不意味着 AGI 领域也有进步,” 吴恩达表示。

由于所有人都没有证据表明 AGI 是否可以实现,这就变成了一个信仰问题。托格里乌斯说:“这些争论毫无意义。”

戈策尔不觉得争议是什么大问题。“两边都有极端的人,” 他说,“但也有很多温和派,而温和派往往不会喋喋不休。”

戈策尔把像吴恩达这样的 AGI 怀疑论者放在一端,把他自己放在另一端。从他在 Webmind 开始工作时,就以 AGI 边缘组织的名义向媒体示好。2014 年至 2018 年,他还担任了香港汉森机器人技术公司的首席科学家。2016 年,这家公司推出了会说话的人形机器人索菲亚。比起前沿研究,索菲亚更像是主题公园的人体模特,它为戈策尔赢得了世界各地的新闻头条。但就连他自己也承认,索菲亚只是一个 “展示类机器人”,而不是人工智能。戈策尔独特的作秀风格让许多认真的人工智能研究人员与他保持距离。

他把蒙特利尔大学的人工智能研究员约舒亚·本乔这样的人算成温和派。本乔与扬·勒昆和杰弗里·辛顿在 2018 年共同获得了图灵奖。在 2014 年 AGI 会议的一场主题演讲中,本乔表示,构建一个具有人类水平的人工智能是可能的,因为人脑也是一个机器,我们只需要弄清楚关于这个机器的谜题。但是他并不相信超级智能 一种超越人类思维的机器。不管怎样,他认为,除非我们找到一种方法让计算机有常识和因果推理能力,否则 AGI 是无法实现的。

然而,吴恩达坚称他并不反对 AGI。“我认为 AGI 非常有吸引力,我很想去探究这个领域,” 他说,“如果我有很多空闲时间,我就会自己做。” 他在 Google Brain 工作期间,深度学习也发展得越来越强大,吴恩达和 OpenAI 一样,也想知道单凭简单地扩大神经网络是否可以成为通往 AGI 的道路。“但这些都只是问题,不是陈述,” 他表示,“人们现在开始对 AGI 提出具体主张,所以 AGI 就引起了争议。”

比起 AGI 何时能实现的狂妄看法,一个更有争议的问题是,如果我们任其发展,它能做些什么?对于这个问题,人们的猜测就跟科幻小说一样。马斯克说 AGI 将比核武器更危险。目前在武汉大学工作的人工智能研究员雨果·德加里斯曾在本世纪初预测,AGI 将导致一场世界大战,并在本世纪末导致 “数十亿人死亡”。被他称为 “artilects” 的神一样的机器,将与人类支持者 Cosmists 结盟,对抗人类反对者 Terrans。

德加里斯的文章与哈特和尤尔根·施米德胡贝(有时被称为 “现代人工智能之父”)等严肃研究人员的文章一起,发表在戈策尔的 AGI 书中,这对支持人工智能的阵营没有丝毫帮助。如果说 AGI 阵营中的许多人把自己看作是人工智能的火炬手,那么在 AGI 阵营之外的许多人则把他们看作疯子,他们把对人工智能的想法搅合在一起,其中包含了 “奇点”(当能够自我改进的机器超越人类时,一切就无法后退了),人类意识上传到计算机,超人类主义和世界末日。

为什么 AGI 很重要?

几十年前,当人工智能并没有像明斯基等人大肆宣传的那样发展时,这个领域曾崩溃过许多次。资金链断裂,但研究人员继续前行。他们花了许多年才让这项技术脱离 “人工智能的冬天”,并重新得到发展。然而,炒作仍然存在。

吴恩达说:“所有的人工智能冬天都是由不切实际的期望造成的,所以我们需要在每一个转折点上与之斗争。” 佩森蒂对此表示赞同,“我们需要控制这些炒作”。

更大的担忧是,这些不切实际的期望会影响决策者。柏林赫尔蒂行政学院的 AI 研究人员乔安娜·布莱森表示,她目睹了董事会和政府中许多愚蠢的想法,因为那里的人对人工智能有着科幻般的看法。这会让他们产生诸如机器人接管之类的荒诞担忧,而忽略了尚未解决的真正问题,比如通过扭曲的训练数据将种族偏见编码到人工智能中,算法如何工作能够降低透明度,或者当人工智能做出错误决定时谁应该承担责任。

这种炒作也让投资者非常感兴趣。马斯克的资金帮助了真正的创新,但当他表示想资助存在风险的工作时,所有的研究人员都把他们的工作比作遥远未来的威胁。布莱森说:“有些人真的相信可以研究出 AGI,但有些人只是为了钱、声望和其他的东西。我不知道他们是否都对自己完全诚实。”

AGI 的吸引力并不令人惊讶。自我反省和创造是人类最重要的两种活动。按照我们的形象建造一台机器的欲望是不可抗拒的。许多现在对 AGI 持批评态度的人在早期职业生涯中都用过它。像戈策尔一样,布莱森花了几年时间试图制造一个人造婴儿。2005 年,吴恩达在世界主要的人工智能大会 NeurIPS(后来被称为 NIPS)组织了一个研讨会,题目是 “走向人类水平的人工智能?” 但现在他说:“这简直是疯了。” 而现在经常批评 AGI 争论的勒昆,还给 AGI 做过主题演讲。

后来,这些研究人员继续研究了更实际的问题。但由于他们和其他人取得的进展,人们对 AGI 的期望再次高涨。莱格说:“这个领域的很多人都没有期望过我们在过去几年能取得这么大的进步。这是一个推力,使 AGI 变得更加可信。”

即使是 AGI 怀疑论者也承认,这场争论至少迫使研究人员开始思考这个领域的整体方向,而不是专注于下一个神经网络攻击。托格里乌斯表示:“认真考虑 AGI 将我们带到了真正迷人的地方。也许这个领域最大的进步是细化我们的愿景,试图弄清楚我们想要的到底是什么。”

-End-

编译:柯曼琪 顾岛 潘瑾

参考:

https://www.technologyreview.com/2020/10/15/1010461/artificial-general-intelligence-robots-ai-agi-deepmind-google-openai/

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...