《时代》封面文章谈AI军备竞赛:当下如此震颤人心,也如此危险

AI1年前 (2023)发布 aixure
29 0 0
导读:虽然技术是实打实的,但围绕它的金融泡沫正在迅速扩大。投资者大肆押注,认为生成式AI可能会像微软Windows 95或第一部iPhone一样撼动市…

虽然技术是实打实的,但围绕它的金融泡沫正在迅速扩大。投资者大肆押注,认为生成式AI可能会像微软Windows 95或第一部iPhone一样撼动市常但这种疯狂的淘金热也可能演变成灾难。在一场赢家通吃的权力争夺战中,大型科技公司及为其提供风险资本的支持方有可能重蹈覆辙,引发像社交媒体一样的问题。

不同的地方在于,AI背后的技术对消费者来说已经有实际用处,并且其技术能力正以惊人的速度优化。正是这种巨大的力量,让当下时刻如此震颤人心,也如此危险。

【编者按】“支持者认为这仅仅是个开始:生成式AI将再次改变我们工作的方式、我们与世界交互的方式,激发创造力和科学发现,并让人类实现以前无法想象的壮举。”2月16日,《时代》周刊发表封面文章,关注由ChatGPT带火的AI领域生成式人工智能。

这篇标题为“人工智能军备竞赛正在改变一切”的文章,尽管强调了生成式AI的重要意义:标志着自社交媒体产生以来最重要的技术突破,但也指出了它带来的危险。

文章作者之一安德鲁R周(Andrew R. Chow)在该媒体的Newsletter中写道,他和另一位文章作者比利佩里戈 (Billy Perrigo) 非常担心,微软和谷歌等大型科技公司推出人工智能技术的速度令人眼花缭乱,陷入了人工智能霸权的争夺战。“在优先考虑增长和速度的过程中,大型科技公司冒着在AI中犯下与社交媒体兴起时相同错误的风险。”他写道,当时本应带来受欢迎的、前所未有的人与人之间联系的平台们,变成了为广告进行优化的地狱景观。

值得一提的是,《时代》周刊特别在封面注明这两位作者是“人类”。

以下为这篇文章的内容,由澎湃科技(www.thepaper.cn)编译:

最新一期封面里《时代》与ChatGPT对话的文字:

ChatGPT:你好啊!今天我能帮到你什么忙?

《时代》:你觉得给《时代》周刊的封面文章起一个“AI军备赛正在改变一切”的标题,怎么样?

ChatGPT:作为一个AI语言模型,我不持有个人观点或信仰,但关于这个问题我可以提供一些背景和信息。

“AI军备赛正在改变一切”作为一个关于AI的封面文章的标题,可能可以吸引读者的关注,引人思考。《时代》周刊这样被广泛阅读的出版物上的封面文章,可以帮助加强公众对这一趋势潜在风险和好处的认识,并引发大众讨论如何以负责任和道德的方式开发、部署AI。

需要注意的是,文章的标题也可能被解读为耸人听闻或危言耸听,可能无法准确反应复杂的情况。

创造是人类的天性。在过去30万年间,我们在创造艺术、美食、宣言、社会的能力方面一直是独一无二的:我们在前所未有的领域设想和创造新东西。

现在我们有伴了。当你在读这句话的时候,人工智能(AI)程序正在绘制宇宙画像,回复电子邮件,做报税准备,录制金属摇滚。它们正在写演讲稿,调试代码,勾画建筑蓝图,并提供健康建议。

人工智能已经对我们的生活产生了无处不在的影响。AI被用来为药品和房屋定价,组装汽车,决定我们在社交媒体上看到什么广告。但是,生成式AI,是一类可以通过指令创造全新内容的系统,它的出现要新得多。

这一转变标志着自社交媒体产生以来最重要的技术突破。近几个月来,好奇、震惊的公众如饥似渴地使用生成式AI工具。这要归功于ChatGPT和Dall-E这样的程序。前者对几乎任何查询都能做出连贯的回应(但不一定总是准确),后者则能呈现出任何你想象出的图像。今年1月,ChatGPT的月用户数达到1亿,比Instagram或TikTok的用户增长速度更快。数百个同样惊人的生成式AI正在争抢用户,包括Midjourney、Stable Diffusion和GitHub的Copilot,用户可以使用这些AI工具将简单的指令变成计算机代码。

支持者认为这仅仅是个开始:生成式AI将再次改变我们工作的方式、我们与世界交互的方式,激发创造力和科学发现,并让人类实现以前无法想象的壮举。普华永道的预测者预测,到2030年,AI可促进全球经济增长超过15万亿美元。

这股热潮似乎把那些在AI领域投资了数十亿美元的科技公司都打了个措手不及并在硅谷引发了一场激烈的军备竞赛。在短短几周内,微软和Alphabet旗下的谷歌已经改变了公司的整体战略,以夺取他们认为将成为经济新基础设施的控制权。微软向ChatGPT和Dall-E的创造者OpenAI投资100亿美元,并宣布计划将生成式AI整合于其办公软件和搜索引擎必应。为了与ChatGPT竞争,谷歌宣布了一个企业级紧急预警,并推出自己的搜索型聊天机器人巴德(Bard)。微软首席执行官萨蒂亚纳德拉(Satya Nadella)2月7日说,“比赛从今天开始”,向谷歌抛出了挑战。“我们要行动,而且要迅速行动。”

华尔街也做出了类似的热烈反应。分析师们提升了那些在计划中提到AI的公司的股价,并惩罚了那些发布不可靠AI产品的公司。虽然技术是实打实的,但围绕它的金融泡沫正在迅速扩大。投资者大肆押注,认为生成式AI可能会像微软Windows 95或第一部iPhone一样撼动市常

但这种疯狂的淘金热也可能演变成灾难。公司急于改进技术并从增长中获利,却搁置了关于这些工具的安全性研究。在一场赢家通吃的权力争夺战中,大型科技公司及为其提供风险资本的支持方有可能重蹈覆辙,比如社交媒体的重罪:把增长的优先级置于安全之上。虽然这些新技术有许多潜在的乌托邦式特点,但即使是出于善意设计的工具,也有可能造成不可预知的破坏性后果。淘金热的故事一般都是这么开始的,历史也会告诉我们故事接下来的走向。

事实上,生成式AI非常了解社交媒体的问题。AI实验室已经闭门研究了好几年不同版本的工具。他们研究了这些工具的潜在危险,包括错误信息、仇恨言论,以及无意中造成滚雪球般的地缘政治危机。

这种保守主义部分源于神经网络的不可预测性,以及来源于人脑的计算范式,即现代AI的基矗传统的计算机编程方法依赖于精确的指令集以生成可预测的结果,而神经网络则有效地教会自己发现数据中的模式。向这些网络提供的数据和计算能力越多,它们的能力往往就越强。

2010年代初期,硅谷意识到,想要发展更强大的AI,相比传统的编程方法,神经网络显然更有前景。但早期的AI很容易受其训练数据中的偏见影响:吐露错误信息和仇恨言论。微软在2016年发布聊天机器人Tay,不到24小时,它就在推特上说:“希特勒是对的,我恨犹太人”,女权主义者应该 “全部被烧死。”OpenAI在2020年发布的ChatGPT的前身也表现出类似的种族主义和厌女症。

2020年左右,神经网络设计方面出现关键进展,数据获得便利程度日益提升,科技公司愿意为超级计算能力付费。得益于这些因素,AI真正开始迅速发展。但AI的弱点仍然存在。AI令人尴尬的历史表现使许多公司,包括谷歌、Meta和OpenAI,大多不愿意公开发布其尖端模型。2022年4月,OpenAI发布了Dall-E 2,一个可以生成逼真图像的文本生成图片的AI模型。但它最初仅向 “受信任的 ”用户开放。OpenAI表示,这些用户的使用将帮助Dall-E 2 “了解并解决DALL-E从其训练数据中习得的偏见。”

尽管在(2022年)7月之前已经有100万用户加入了Dall-E,但更广泛的AI社区的许多研究人员已经对OpenAI和其他AI公司“只可远观不可亵玩”的做法感到失望。2022年8月,Stability AI,一个位于伦敦的小初创公司一反常态,向大众发布了一个文本生成图片工具Stable Diffusion。根据一个日益壮大的学派的观点,公开发布AI工具将允许开发人员从用户处收集有价值的数据,并给社会更多时间来应对先进的AI会带来的巨大变化。

Stable Diffusion迅速引发互联网热议。数以百万计的用户被其看似从零开始的艺术创作能力所吸引,且随着用户对不同指令和概念的不断尝试,该工具的产出不断引发病毒式传播。内森贝纳奇(Nathan Benaich)是一名投资者,也是《2022年人工智能状况报告》的共同作者。他说:“这个生成式潘多拉盒子被打开了。OpenAI和谷歌都被震惊了,因为现在世界能够使用他们所控制的工具了。一切都超速发展了。”

OpenAI迅速效仿,放开了Dall-E 2的限制。之后,在(2022年)11月,据说是为了应对迫在眉睫的竞争,它向公众发布了ChatGPT。OpenAI首席执行官山姆奥特曼(Sam Altman)在采访中强调,使用AI程序的人越多,AI进步就越快。

用户立即涌向了OpenAI及其竞争对手。社交媒体上充斥着AI生成的图片,其中一张甚至赢得了艺术比赛;电影剪辑师开始使用AI辅助软件制作好莱坞的热门电影,如《瞬息全宇宙》。建筑师正在设计AI蓝图;程序员正在编写AI脚本;出版机构正在发布AI测试和文章。风投人员捕捉到了这一风向,并向可能释放下一个巨大生产力提升的AI公司投资超10亿美元。中国科技巨头百度和阿里巴巴宣布将推出自己的聊天机器人,推高了股价。

近期生成式AI产品发布信息时间线。Lon Tweeten/《时代》

图片上的文字:

2021年5月谷歌宣布推出聊天机器人,但未公开发布

2022年4月OpenAI展示Dall-E 2,但未大规模开放

8月初创公司Stability公开发布文本生成图片工具Stable Diffusion

9月OpenAI发布了Dall-E 2供公众使用

10月OpenAI公开发布ChatGPT

11月Meta发布聊天机器人Galatica,但其回答错误遭受强烈批评,后被下线

2023年1月微软向OpenAI注资100亿美元

2月微软宣布集成ChatGPT的新必应搜索引擎预告

3月谷歌宣布推出Bard,一项对话型AI辅助搜索服务

与此同时,微软、谷歌和Meta正将这一热潮推向极端。虽然多年来这些公司都在强调AI的重要性,但他们似乎仍对令人眼花缭乱的关注和使用激增感到惊讶而且现在他们似乎更在乎发展速度,而不是安全性。今年2月,谷歌宣布推出应对ChatGPT的竞争对手巴德的计划。据《纽约时报》报道,谷歌公司在一次演讲中称,在发布基于AI技术的工具时,将 “重新调整”它愿意承担的风险水平。而在Meta最近的季度收益电话会议上,首席执行官马克扎克伯格(Mark Zuckerberg)宣布他的目标是让公司“成为生成式AI的领导者”。

在这种匆忙的情况下,科技公司引发的错误和伤害已经增多反噬也同样增加。当谷歌展示巴德时,它的一个回答出现了一个关于韦伯太空望远镜的事实性错误–Alphabet的股票随之暴跌。微软的必应也很容易返回错误结果。Deepfake用AI生成的拟真虚假图像或视频,被用于骚扰或传播错误信息:一个被广泛分享的视频显示,乔拜登谴责变性人,令人震惊但又十分可信。

包括Stability AI在内的公司正面临来自艺术家的诉讼,那些反对自己的作品在未经许可的情况下被用于训练AI模型的权利人也提起了诉讼。《时代》周刊一项调查发现,OpenAI曾雇佣肯尼亚的外包员工,他们拿着低于2美元的时薪,审查不良内容,包括性虐待、仇恨言论和暴力。

尽管目前的这些问题令人担忧,但如果这场竞赛继续加速,与接下来可能出现的情况相比,它们就显得微不足道了。如今,大型科技公司所做的许多选择与以往并无二致,以往的选择早已产生破坏性的连锁反应。

社交媒体硅谷最近一个真正改变世界的创新,带来了第一个宝贵的教训。它建立在这样的愿景上:人们通过社交媒体建立连接,我们的社会会更健康,个体会更快乐。十多年后,我们可以看到,大众对其创造的社交连接是非常欢迎的,它失败的原因在于科技公司将其商业化的手段:通过逐步微调我们的新闻信息流来优化互动,让我们划动手机屏幕浏览病毒传播式内容,并在其中投放定向在线广告。我们的信息流中真正的社交连接已经变得越来越稀少。与此同时,我们的社会不得不处理第二阶段的影响:新闻业支离破碎,错误信息层出不穷,青少年心理健康危机愈发严峻。

不难看出,科技巨头的AI产品也会走上同样的道路。Alphabet和微软对AI如何使其搜索引擎更有价值最感兴趣,并展示了谷歌和必应的演示内容,其中用户看到的第一个搜索结果是由AI生成的。但AI开发平台Hugging Face的首席伦理科学家玛格丽特米切尔(Margaret Mitchell)认为,搜索引擎是应用生成式AI的 “绝对最糟糕的方式”,因为它经常出错。米切尔说,像ChatGPT这样的AI的实际优势,如辅助创意、构思和琐碎的任务等方面正在被搁置,技术正在被塞进科技巨头的赚钱机器中。

如果搜索引擎成功地整合了AI,这种微妙的转变可能会削弱许多依赖搜索的企业,无论是广告流量还是业务推荐。微软首席执行官纳德拉曾表示,以AI为导向的新必应搜索引擎将为出版商和广告商带来更多流量,从而带来更多收入。但是,目前对AI生成艺术的反对浪潮正在持续发酵。同样的,许多媒体人现在也担心,未来科技巨头的聊天机器人会蚕食新闻网站的内容,但并不提供回报。

AI公司目前也面临将其项目盈利的难题。目前,大多数产品都可以免费使用,因为他们的创造者遵循硅谷的游戏规则:一方面,风险资本公司提供巨额投资补贴,另一方面,公司对产品收取很少费用或不收取任何费用,以应对竞争。虽然采用这种策略但并不成功的公司在慢慢流失资金,但赢家往往最终在他们认为合适的情况下牢牢掌控了市常目前,ChatGPT是无广告的,可以免费使用。但它也在持续烧钱:据OpenAI首席执行官说,每一次对话都要花费公司至少几美分。该公司现在有承受巨大损失的能力,这部分归功于微软的慷慨解囊,也给了它巨大的竞争优势。

今年2月,OpenAI为其聊天机器人的订阅用户设置了每月20美元的定价模式。谷歌已经优先考虑了在搜索结果中投放付费广告。它对AI生成的结果做同样的事情,也并非难以想象。如果人类开始依赖AI获取信息,就会越来越难以分辨哪些是事实,哪些是广告,哪些是完全捏造的。

目前科技公司看重利润,而非安全,因此一些技术专家和哲学家提醒大众警惕人类的存在风险。许多AI公司,包括OpenAI,它们的明确目标是创造一个通用人工智能,即AGI。它可以比人类更有效地思考和学习。如果未来的AI获得了在没有人类指导或干预的情况下迅速提高自己的能力,它们就有可能消灭人类。一个经常被引用的构想实验是,一个AI在接到命令后,最大限度地增加它能生产的回形针数量,使自己成为一个主宰世界的超级智能,收割其掌握的所有碳,包括来自地球上所有生命的碳。在2022年对AI研究人员的一项调查中,近一半受访者表示,AI有10%或更大的可能性导致这样的灾难。

在最尖端的人工智能实验室内,一些技术人员正在努力确保如果AI最终超越了人类的智慧,仍能与人类的价值观 “保持一致”。他们正在设计仁慈的神,而不是被恶意的神。但是,AI安全组织Conjecture与《时代》周刊分享的数据估计,世界上只有大约80至120名研究人员在全职从事AI安全校准工作。而与此同时,随着AI竞争愈演愈烈,数以千计的工程师正在努力提升AI能力。

“当涉及到非常强大的技术时显然人工智能将成为有史以来最强大的技术之一我们需要谨慎。”谷歌旗下AI实验室DeepMind的首席执行官德米斯哈斯比斯(Demis Hassabis)去年年底告诉《时代》周刊,“不是每个人都在考虑这些事情。就像实验主义者中许多人并没有意识到他们持有危险材料。”

即使计算机科学家成功确保了AI不会消灭我们,它们在全球经济中发挥的作用也愈发重要,控制它的科技巨头会因此变得更加强大。他们不仅可能成为世界上最富有的公司,还可能对AI这一关键基础设施的商业用途收取任何费用,更有可能成为与民族国家相抗衡的地缘政治行为者。

OpenAI和DeepMind的领导人已经暗示,他们希望AI带来的财富和权力能够以某种方式重新分配。而另一方面,控制钱包的科技巨头高管们主要对其股东负责。

当然,许多声称会改变世界的硅谷技术并没有实现。我们并非都生活在元宇宙里。讽刺非加密货币用户要“享受贫穷”的加密货币兄弟,有些正在忍受他们的损失,有些甚至在监狱里煎熬。世界各地城市的街道上到处都是失败的电动滑板车初创公司的残海

但是,尽管AI也经历了类似的令人窒息的炒作阶段,但不同的地方在于,AI背后的技术对消费者来说已经有实际用处,并且其技术能力正以惊人的速度优化。研究人员称,AI的计算能力每6到10个月就会增长一倍。正是这种巨大的力量,让当下时刻如此震颤人心,也如此危险。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...