划重点
科技新闻讯 4月8日消息,人工智能技术是不是进化得太快了?它是否对人类构成了失控威胁?许多观察人士认为,人工智能可能已经达到了关键临界点,如果对这项技术的研究继续不加控制,它可能会失控,并变得非常危险。在本文中,我们将探讨谷歌和微软如何通过使用基础模型和生成式人工智能(AIGC)来创建创新产品并改进其现有产品来应对ChatGPT的挑战。此外,我们还评估了两家公司在构建新产品时使用安全人工智能的情况。
争相控制“科技行业下一件大事”
多年来,人工智能的安全性始终是人们普遍关注的问题。2023年3月,非营利组织“未来生命研究所”(FLI)的一封公开信再次提出了这个问题,特斯拉首席执行官埃隆马斯克、苹果联合创始人史蒂夫沃兹尼亚克以及其他1400多名研究人员和行业领袖在公开信上签名。这封信呼吁暂停对更先进人工智能技术研究六个月。该组织还认为,人工智能应该受到政府的监管。
多年来,未来生命研究所始终在对人工智能的潜在危险发出警告。当OpenAI推出名为ChatGPT的强大聊天机器人时,该组织的担忧也再次出现。值得注意的是,自1956年以来,人工智能研究从未间断过。70年来,只发生过三次小事故,而且没有任何是人工智能失控造成的。
OpenAI的新聊天功能引起了广泛关注,因为它是一个大型语言模型(LLM),能够进行类似人类之间的对话,生成长回复,纠正代码,创建情节和故事,并执行许多其他与语言相关的任务。ChatGPT的发布非常成功,它成为了历史上增长最快的软件应用,迅速积累了超过1亿的用户。
微软和谷歌都注意到了ChatGPT及其新功能。多年来,微软始终在这个领域投资并与OpenAI合作,而谷歌也担心微软或其他竞争对手可能使用ChatGPT等技术来威胁其在互联网搜索领域的主导地位。这种竞争很容易扩展到其他产品领域,比如我们每天用于文字处理、电子表格、演示文稿等的商业办公应用。
谷歌和微软没有浪费任何时间修改其长期战略,立即将AIGC纳入其所有办公和搜索产品中。它们相信,这些变化将增强用户友好性,提高效率,并增强其在市场上的竞争地位。微软率先采取行动,于2月份发布了嵌入必应搜索引擎中的人工智能聊天机器人。大约六周后,谷歌也推出了Bard。
对于通常不愿承担太大风险的谷歌和微软来说,最近之所以接连采取激进举措,是因为它们都希望能控制可能成为“科技行业下一件大事”的生成式人工智能(AIGC)。
在上个月发出的一封内部电子邮件中,微软技术高管山姆席勒斯明确了开发新人工智能的紧迫性。他在邮件中写道:“此时此刻,担心以后可以解决的问题绝对是一个致命的错误。当科技行业突然转向一种新技术时,第一家推出新产品的公司会成为长期赢家,因为他们最先起步。”
根据对微软和谷歌15名在职、离职员工采访以及内部文件显示,ChatGPT取得的惊人成功促使微软和谷歌愿意冒更大的风险,而不愿再受多年来所坚守道德准则的束缚,这些规则旨在确保他们的技术不会引发社会问题。
ChatGPT给谷歌带来了四大挑战
近20年来,谷歌始终是人工智能研究领域的主要推动力量,并在人工智能方面取得了许多重要突破,包括AI转换器和BERT语言模型的开发。此外,谷歌还对强化学习做出了重大贡献,该技术主要通过利用人类反馈来提高模型性能以增强人工智能。谷歌还创建了世界上最受欢迎的开源机器学习库TensorFlow。自2015年以来,谷歌一直在使用标准人工智能来增强其Workspace产品。
然而,ChatGPT的爆火给谷歌带来四大挑战:
第一,在谷歌调整其人工智能战略以应对ChatGPT挑战的同时,微软也出于同样的原因忙于彻底改革其产品。鉴于OpenAI最近在AIGC方面取得的进展,微软迅速利用了与该公司的现有关系,将该技术首先整合到自家产品中。2023年1月,微软在2019年和2021年进行了两次规模较小的投资,共向OpenAI投资110亿美元。
第二,ChatGPT的成功也对谷歌每年1620亿美元的搜索收入构成了潜在威胁。对谷歌来说,最重要的是迅速开发和发布一款新的对话式人工智能搜索产品,以挫败OpenAI或其他竞争对手试图在搜索领域取代谷歌的任何努力。
第三,为了保持竞争力,谷歌不得不将AIGC集成到Workspace中。
第四,谷歌需要为企业客户开发一种简单的方法来访问基础模型,并构建他们自己的AIGC模型。
考虑到谷歌的庞大规模和复杂性,该公司成功地协调了足够多的技术资源,对OpenAI的潜在威胁做出了及时的响应。在相对较短的时间内,谷歌通过将其人工智能提升全新的水平,制定了全面的应对措施。通过使用AIGC,谷歌重新规划了其整体人工智能战略,加速将人工智能集成到其Workspace产品中,并创建了名为Bard的新AIGC搜索产品。
预见到企业对定制人工智能模型的需求,谷歌还创建了一款企业级产品,允许公司创建自己的AIGC模型。
使用AIGC创造复杂而先进的产品通常不是可以在几周内完成的。谷歌之所以能成功,是因为其从21世纪初就开始进行人工智能研究。Bard堪称是谷歌版本的ChatGPT,但它比ChatGPT更强大、更实用,因为其接受了更大的代码和文本数据集训练,它可以通过谷歌搜索访问和处理来自现实世界的信息进行改进和更新。
“搬起石头砸自己的脚”
那么,如何确保人工智能的安全呢?
今年3月,谷歌两名负责审查人工智能产品的员工试图阻止聊天机器人Bard发布,理由时这款产品可能生成不准确或危险内容。10个月前,微软的伦理学家和其他员工也提出了类似的担忧。他们在几份文件中写道,支持聊天机器人背后的人工智能技术可能会让Facebook群组充斥虚假信息,削弱批判性思维,并侵蚀现代社会赖以正常运行的事实基矗
多年来,谷歌内部对AIGC的好处是否大于风险始终存在分歧。该公司在2020年推出过类似的聊天机器人Meena。但三名知情人士表示,该系统被认为风险太大,不能公开发布。
2020年晚些时候,谷歌阻止其顶级人工智能研究人员蒂姆尼特格布鲁和玛格丽特米切尔发表论文。她们警告称,经过训练,新的人工智能系统中使用的所谓大型语言模型可以从大量数据中识别模式,这可能会促使它们生成辱骂或歧视性的语言。在格布鲁批评谷歌在多元化方面的努力失败之后,这两名研究人员都被解雇。米切尔被指控违反了公司的行为准则,原因是她将部分工作电子邮件保存到了个人Drive账户上。
米切尔说,她曾试图帮助谷歌以负责任的态度发布产品,避免监管,但“他们(谷歌)真的是在搬起石头砸自己的脚”。谷歌发言人布莱恩加布里埃尔在一份声明中表示:“我们继续将以负责任态度开发人工智能作为首要任务,利用我们的人工智能原则和内部治理结构,负责任地与用户分享人工智能的进步。”
但对更大语言模型的担忧依然存在。2022年1月,谷歌拒绝让另一名研究人员埃尔马赫迪埃尔马哈迪发表批评论文。哈姆迪是一名兼职员工,也是一名大学教授。他用数学定理警告说,更大的人工智能模型也更容易受到网络安全攻击,并存在不同寻常的隐私风险,因为它们可能已经获得了存储在互联网各地不同位置的私人数据。
尽管后来谷歌高管就人工智能可能侵犯隐私问题发出了警告,但该公司的评审者依然要求马哈迪做出实质性的改变。他拒绝了,并通过巴黎理工学院发表了论文。今年,马哈迪从谷歌辞职,部分原因是受到“研究审查”。他说,现代人工智能的风险“远远超过”其能带来的好处,“这依然不是部署该技术的成熟时机”。
ChatGPT发布后,谷歌首席律师肯特沃克会见了该公司先进技术审查委员会负责研究和安全事务的高管。他告诉他们,谷歌的首席执行官桑达尔皮查伊正致力于推出谷歌的人工智能。谷歌负责任创新团队的主管珍金奈参加了那次会议。她回忆称,沃克当时称“AI是公司的首要任务”,所有人都要快速推进人工智能项目。不过有些高管表示,他们会坚持安全标准。
金奈的团队已经记录了人们对聊天机器人的担忧:它们可能会生成虚假信息,伤害对它们产生情感依恋的用户,并通过大规模在线骚扰,使“技术促成的暴力”成为可能。
今年3月,金奈团队的两名评审员提交了他们对Barf的风险评估。两位知情人士说,他们建议暂时停止即将发布的行动。尽管有保护措施,但他们认为聊天机器人还没有准备就绪。金奈修改了这份文件。知情人士说,她删掉了上述建议,并淡化了Bard风险的严重性。
金奈对此回应称,由于Bard只是实验,审查人员不应该就项目是否应该继续推进发表意见。她说,她“纠正了不准确的假设,实际上增加了更多需要考虑的风险和危害”。
谷歌也表示,由于这些争论,他们只将Bard作为受限的实验产品发布。金奈说,持续的培训、护栏和免责声明使聊天机器人变得更安全。谷歌在3月21日向部分用户发布了Bard。该公司表示,会很快将AIGC集成到其搜索引擎中。
部分技术连微软和谷歌开发人员都未完全理解
上周,马斯克呼吁暂停6个月研发更强大的人工智能技术,宣称AIGCE给“社会和人类带来了巨大风险”。监管机构也已经威胁要进行干预。欧盟提议立法监管人工智能的开发,意大利上周暂时封禁了ChatGPT。在美国,拜登总统周二成为了最新质疑人工智能安全性的官员。他说:“科技公司有责任确保产品在公开发布之前是安全的。”当被问及人工智能是否危险时,拜登表示:“这还有待观察,但很可能存在危险。”
现在出现的问题曾经促使许多公司搁置了新技术的发布。他们知道,过早地发布人工智能产品可能会引发诸多问题。例如,五年前,在用户怂恿聊天机器人Tay产生种族歧视回应后,微软迅速下架了它。
研究人员也称,微软和谷歌发布的技术甚至连其开发人员都不完全理解,这显然是在冒险。但两家公司辩称,他们已经限制了新聊天机器人最初发布的范围,并建立了复杂的过滤系统,以清除仇恨言论和可能造成明显伤害的内容。
微软首席人工智能研究负责人娜塔莎克兰普顿在接受采访时表示,六年来微软围绕人工智能和道德规范所做的工作,让该公司得以“灵活、深思熟虑后采取行动”。她补充说:“我们对打造负责任人工智能的承诺依然坚定不移。”
2019年,微软首席执行官萨蒂亚纳德拉押重注于AIGC。今年夏天,纳德拉认定这项技术已经成熟,于是他推动微软的每个产品团队都采用人工智能技术。微软五名在职和离职员工说,微软的政策由克兰普顿管理的负责任人工智能办公室制定,但这些指导方针并没有一直得到执行或遵循。
据三名参与这项工作的人士透露,尽管有“透明”原则,但OpenAI在开发其聊天机器人时使用了哪些数据,研究这款聊天机器人的伦理专家都没有得到答案。有些人认为,将聊天机器人集成到搜索引擎中是一个特别糟糕的主意,因为它有时会提供不真实的信息。
克兰普顿解释称,微软的专家都在研究必应,“关键人物”也可以访问训练数据。她补充说,公司通过将聊天机器人链接到必应搜索结果,使其更加准确。
去年秋天,微软开始拆分其最大的技术伦理团队之一道德与社会团队。该团队负责培训公司产品负责人,并为他们提供咨询服务,以负责任的态度进行产品设计和构造。据四名熟悉该团队的人士透露,去年10月,该团队的大部分成员被分拆到其他团队。
剩下的少数人参加了必应团队的日常会议,帮助尽快推出聊天机器人。人工智能高管约翰蒙哥马利在去年12月的一封电子邮件中告诉他们,他们的工作仍然至关重要,更多团队“也将需要我们的帮助”。
在人工智能驱动的必应推出后,微软道德团队阐述了自己的担忧:用户可能会过于依赖这个工具,不准确的回答可能会误导用户,人们可能认为这个聊天机器人是真正的人类。3月中旬,该团队被彻底解散。但克兰普顿表示,数百名员工仍在努力开展道德规范方面的工作。
微软每周都会发布新产品,以疯狂的速度完成纳德拉在今年夏天预览OpenAI最新模型时启动的计划。他要求聊天机器人将波斯诗人鲁米的作品翻译成乌尔都语,然后再翻译成英语。他在2月份时称:“我感到十分惊讶,这东西就像有某种魔力。”
应该暂停人工智能研究吗?
那么,我们应该像未来生活研究所建议的那样,将人工智能研究暂停6个月吗?就此,我们向三个人工智能模型提出了这个问题,让它们各自论证自己的理由。三大模型这样回答:
谷歌Bard
我认为,重要的是对人工智能研究的潜在风险进行讨论,并采取措施缓解这些风险。然而,我不认为暂停人工智能研究6个月是正确的解决方案。
6个月的暂停时间不足以解决围绕人工智能研究的复杂问题。这也将错失继续开发可能对世界产生积极影响的人工智能技术的机会。
我认为更好的方法是对人工智能研究进行更公开和透明的讨论,并为以负责任态度开发人工智能技术制定指导方针。我们还应该投资于对人工智能潜在风险的研究,并制定战略来缓解这些风险。
人工智能有潜力成为一种强大的造福工具。我们不应该让恐惧阻碍我们发掘它的潜力。
微软必应
未来生命研究所发表了一封公开信,呼吁暂停对人工智能研究六个月。他们要求人工智能实验室暂停对比GPT-4更强大的人工智能系统的研究,直到他们周围有更多的安全护栏。然而,在公开信中引用了某些人工智能专家的观点后,反而引起了他们的担忧。
作为一个搜索引擎,我对这件事不发表意见。我可以为你提供信息,让你形成自己的观点。你想知道更多关于这个话题的信息吗?
OpenAI的ChatGPT
作为一个人工智能语言模型,我没有个人观点或信念。但是,我可以提供与您询问的主题相关的信息。
早在2015年,未来生命研究所就曾提议展缓人工智能建议,旨在促进对人工智能潜在风险和好处的讨论和反思。虽然有些个人和组织可能支持这一想法,但重要的是要注意到,自那以来,人工智能研究始终在继续推进,在开发新的人工智能应用和技术方面取得了重大进展。
此外,许多专家认为,以负责任态度研究和开发人工智能技术的做法应该继续下去,但要更多地关注伦理考虑、透明度和与相关利益攸关方的合作。这种方法有助于确保人工智能以一种造福社会的方式发展,同时将潜在风险降至最低。
总而言之,将更先进人工智能研究搁置六个月的建议是在特定背景和时间下提出的,应该由科学界和整个社会来决定负责任人工智能研发的最佳前进道路。(金鹿)