吴恩达、杨立坤反击AI威胁论,称其为大公司进行垄断的阴谋

人物报道1年前 (2023)发布 aixure
74 0 0
导读:文 |金鹿 郝博阳 近日,AI教父本吉奥、辛顿刚刚发布和姚期智(Andrew Yao)、张亚勤等刚刚联名签署了新一轮关于AI威胁的联名信。认为如果不够谨慎,我们可能不可逆转地失去对自主AI系统的控制,导致人类干预无效。大规模网络犯罪、社会操纵和其他突出的危害…

文 |金鹿 郝博阳

近日,AI教父本吉奥、辛顿刚刚发布和姚期智(Andrew Yao)、张亚勤等刚刚联名签署了新一轮关于AI威胁的联名信。认为“如果不够谨慎,我们可能不可逆转地失去对自主AI系统的控制,导致人类干预无效。大规模网络犯罪、社会操纵和其他突出的危害可能会迅速升级。这种不受控制的AI进步可能最终导致大规模生命和生物圈损失,以及人类边缘化甚至灭绝。”这封信引发了相当的关注。尤其是在美国国会开始筹备对AI的相关新的监督法案的时候,如此重量级的业内声音毫无疑问可能影响到最终立法的结果。(当然,据雅虎报道,对拜登的AI威胁认知产生最大影响可能的是电影《碟中谍:死亡清算》)

为制衡这个公告的影响,一周后,重量级丝毫不弱于前面几位专家的Google Brain联合创始人吴恩达、Meta首席人工智能科学家杨立昆就开始着手反击。作为“AI威胁论纯粹耸人听闻派“。他们先后接受采访,谴责大型科技公司和目前在人工智能领域占据优势的初创企业散布人工智能威胁论,目的是在牟利的同时引来更严格的监管,从而中断蓬勃发展的竞争格局。

但他们的针对目标多少有些脱靶,因为文件联名签署人中最开始的两位AI教父本吉奥, 辛顿目前都未在大公司就职。辛顿在很大程度上就是为了独立发声,才从Google辞职而出。而Bengio则一直专注研究,很少参与公司事务。

而在之前的访谈中,本吉奥提到,“(拒绝承认AI威胁)也许是一些心理因素在起作用。也许取决于你从哪里来。如果你所在公司的理念是推销‘人工智能会变好’,可能很难像我一样扭转看法。”。这种暗指几近点名,杨立昆作为Meta AI的负责人,推销这个理念可以说就是他的工作职责。

最终,拜登签署首份关于AI的行政令的行政令颇为摇摆,左右逢源,AI威胁派和开放派都没有占到绝对优势。台面上没赢到的,网络上怎可以落了下风。因此这场赛博大战在行政令签署的当夜达到了高潮。AI界最大的巨头们在X(原推特)上各站擂台一角,使出浑身解数唇枪舌剑,场面比国会辩论不逞多让。

反方一号选手吴恩达:为争夺市场主导权 大型科技公司在“AI能否毁灭人类”上撒谎

开启这场混战的头号种子选手是吴恩达。他在最近接受采访时表示,大型科技公司希望通过“人工智能可能导致人类灭绝的糟糕想法”引来严格的监管,这将让其他规模较小的竞争对手陷入困境。

他解释称:“肯定有些大型科技公司不愿意与开源竞争,所以他们编造了人工智能可能导致人类灭绝以引发人们恐惧的谎言。这些谎言也始终是说客说服立法者争取相关立法的武器,而这将对开源社区造成极大的损害。”

吴恩达表示,人工智能可能会消灭人类的想法可能会导致需要人工智能许可的政策提案,这可能会扼杀创新。他补充说,任何必要的人工智能监管措施都应该经过深思熟虑后制定。

他还提到了奥特曼,他曾教授后者在机器学习方面的知识。吴恩达说:“奥特曼是我在斯坦福大学的学生之一,他随同我实习。我不想专门谈论他,因为我读不懂他的心思。但是,我觉得有很多大公司会发现,不必与开源的大语言模型竞争有很多好处。有一个标准的监管捕获策略已经在其他行业上演,我不愿看到它在人工智能领域成功执行。”

吴恩达拒绝就英国工党政府提出的基于风险的人工智能监管发表评论,但他同意人工智能应该受到适当的监管。他说:“我不认为没有监管是正确的答案,但从很多国家监管的方向来看,我认为没有监管比我们现在得到的要好。但深思熟虑的监管总比没有监管好得多!”

他补充说:“需要明确的是,人工智能已经造成了伤害。无人驾驶汽车曾造成人员伤亡。2010年,一种自动交易算法导致股市崩盘。监管是有作用的。但仅仅因为监管可能有帮助,并不意味着我们想要糟糕的监管。在合适监管的清单上,最重要的是科技公司需要提高透明度,这将有助于避免大型科技公司在21世纪造成的社交媒体灾难,也将有助于避免未来大型科技公司造成的人工智能灾难。”

反方二号选手AI教父杨立昆:AI领域被少数人控制才会带来真正的世界末日

紧随其后,Meta首席人工智能科学家杨立昆又把问题更深入的推进到垄断企业的设曾威胁上了,他希望我们忘记那些听起来比较牵强的世界末日假设。因为他看到了AI带来的真正威胁:当AI领域少数掌权者崛起后,他们可能夺走其他人从人工智能中获得的财富。

不久前,杨立昆对多位当下风头正劲的人工智能公司创始人发出点名批评,称他们在“制造恐慌”,并开展“大规模的企业游说”,以为他们自己牟利。

杨立昆在X上发表了一篇长文,提到了OpenAI首席执行官萨姆奥特曼、DeepMind首席执行官德米斯哈萨比斯以及Anthropic首席执行官达里奥阿莫代伊。

他写道:“奥特曼、哈萨比斯和阿莫代伊等创始人在塑造有关人工智能安全的监管对话方面扮演着关键角色,他们目前正在进行大规模的企业游说,试图说服立法者对人工智能行业实施更严格的监管。”

他补充说,如果这些努力取得成功,结果将是一场“灾难”,因为“少数公司将控制人工智能领域”。这一点意义重大,因为几乎所有科技界的重要人士都认为,人工智能是自微芯片或互联网出现以来科技领域最大的突破。

杨立昆的评论是对物理学家马克斯泰格马克(Max.Tegmark)在X上发表的一篇文章的回应,后者认为杨立昆等人没有足够认真地对待人工智能可能导致世界末日的论点。

泰格马克写道:“感谢苏纳克和乌尔苏拉冯德莱恩(欧盟委员会主席)意识到,图灵、辛顿、本吉奥、罗素、奥特曼、哈萨比斯和阿莫代伊的人工智能风险论点,单靠讽刺和企业游说是无法反驳这些危险的。”

自聊天机器人ChatGPT推出以来,人工智能领域的知名人物几乎都成为了重要的公众人物。当杨立昆说,像奥特曼和哈萨比斯这样的创始人花了很多时间让人们对他们正在销售的技术产生恐惧。

杨立昆等人表示,这些登上头条的警告只是这些人为了巩固权力的措施,却忽视了人工智能真正迫在眉睫的风险。分布式人工智能研究所(DAIR)表示,这些风险包括工人剥削和数据盗窃,它们为“少数实体”创造了利润。对假想危险的关注,也转移了人们对人工智能发展实际如何形成这个枯燥但重要问题的注意力。

杨立昆认为,人们“对人工智能带来的风险感到过度紧张”,因为他们已经陷入了他所说的“硬起飞”神话。这种观点认为,“一旦你开启了一个超级智能系统,人类就完蛋了!”但他认为,即将到来的末日不太可能发生,因为事实上,每项新技术在广泛发布之前都要经历一个非常有序的开发过程。

所以我们要关注的是人工智能现在是如何发展的。对于杨立昆来说,真正的危险在于,人工智能的发展被锁定在私人、营利性实体的手中,这些实体永远不会公布他们的发现,而人工智能的开源社区则会被扼杀。

他随之而来的担忧是,监管机构放任这种情况发生,因为他们被机器人杀手的论点分散了注意力。

像杨立昆这样的行业领袖始终在支持开源开发者,因为他们的工作可以与OpenAI的ChatpGPT竞争,将人工智能开发的透明度提高到全新的水平。

杨立昆的雇主Meta也制作了自己的开源大语言模型LLaMa 2竞争。其想法是,更广泛的科技界可以审视这一模型的背后。没有其他大型科技公司做过类似的开源模型,尽管有传言说OpenAI正在考虑。

对于杨立昆来说,秘密开发人工智能才真正值得警惕。他写道:“这可能导致一小部分公司控制人工智能平台,从而控制人们的整个数字生活。如果开源人工智能因为受到监管而不复存在,那么上述假设将不可避免地成为现实。”

正方一号选手辛顿:我算过了,没有监管,人类有10%的几率在未来30年内被灭绝

万圣节之夜的辩论场始于辛顿对吴恩达的反击:他看出了那个逻辑漏洞。

吴恩达的回应果断回避了核心问题,用自己的逻辑继续。他认为:1)年轻学生会因为AI威胁论不愿意进入人工智能领域。2)AI威胁论会导致监管过严,扼杀开源创新。

在反击过后,辛顿还不太过瘾,又在吴恩达的另一个帖子下发布了他这次辩论的最主要的论点:他用贝叶斯算法算过了,没有监管,人类有10%的几率在未来30年内被灭绝。顺便还带上了杨立昆,说不知道他不到1%的几率是怎么算出来的。

杨立昆也虚晃一枪,用曲线的方式给出了他的观点:人类面临的灭绝危机多了。AI可能能解决其中很多危机。因此发展AI比不发展AI更有可能使人类远离灭绝风险。

在吴恩达没有回应之后,辛顿显然还没解气。他马上又对杨立昆在一天前发的一个帖子进行了反攻。

辩论以正反方辩手都没有实际回应对方的观点,而一直在绕圈子,或者对着过去反击而结束。只有辛顿提出了一个相对明确的AI威胁论值不值得注意的正面论点:10%的几率,这个风险概率人类确实难以承受。

看完整场辩论和双方的论据,其实吴恩达和杨立昆的关注核心在于开源模型后续的发展。因为开源模型的易得性和难以追踪,相关AI监管一旦收紧,受到影响的首当其中就是开源模型。而当下杨立昆所在的Meta AI,虽然在综合能力上与OpenAI模型仍有部分差距,但因其开源特性成功的占据了相当一部分中小开发者和用户的市常一旦被迫闭源,两者不得不进入同一跑道,前有OpenAI,后有Google,在这个赢者通吃的市场里,Meta很难再有杀翻盘的希望了。而非常关注Ai创业赛道,近期在各方大佬中最热衷预测AI后续产业发展的吴恩达,肯定明白监管的影响也可能会堵住小公司的创新可能,增大其入场成本。为小公司发声,把大公司放在对立也是题中之义。

而辛顿和本奥吉,从背景上看基本上很难有什么相关利益因素值得解析。他们的判断可能更符合他们观点,而非利益。但仅从论点看,其实双方都有其合理性。论心不论迹的动机猜测,AI复杂的可能影响,这些都是很难被驳倒。因此这种争论也许会持续很久。也许最终只有AI才有足够的算力去处理这样复杂的可能性问题。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...