「你们正在进行的事情,具有巨大的潜力和巨大的危险性。」
美国白宫的会议室,总统拜登对着几大科技公司的负责人提醒道。
5 月初,美国科技巨头和 AI 公司的掌门人受邀前往白宫,讨论 AI 的未来。在拜登召见的人物来头中,除了人尽皆知的 OpenAI、谷歌、微软三家目前 AI 领域的巨头外,还有一家刚刚成立不久的初创公司 Anthropic。
5 月 23 日,Anthropic 再下一城,拿下 4.5 亿美元 C 轮融资,而这距离其收到谷歌的 3 亿美元刚刚过去两个月时间。至此,据 Crunchbase 统计,Anthropic 的资金储备达到了 14.5 亿美元,估值超过 40 亿美元。
一家由 OpenAI 前员工创立的公司,怎么就在两年之内,成为超级独角兽,并且积攒起对抗如日中天的 OpenAI 的实力的?Anthropic 强调的「符合宪法的AI」,以及其 AI 助手 Claude,能成为ChatGPT之外大语言模型的「另一级」吗?
OpenAI的「叛徒」
一直到 2023 年 1 月,OpenAI 也只有 375 名全职员工,虽然规模不过数百人,其推出的大型语言模型却不仅撼动了硅谷,影响力也蔓延全球。与此同时,有些离开 OpenAI 的雇员,创办起了自己的公司。
「我们成立于 2021 年初,最初是一个由 7 人组成的团队,一起从 OpenAI 出来。」Anthropic 的联合创始人在生命未来研究所的一档播客节目中说道。
据称,他们之所以离开OpenAI,是因为对该公司的发展方向产生了分歧即 OpenAI 在 2019 年与微软达成第一笔 10 亿美元的交易后,越来越趋向商业化。Anthropic 的目标是在未来两年内筹集多达 50 亿美元,以与 OpenAI 竞争,并进入十几个行业。
带头出走的包括一对兄弟姐妹,即 Dario Amodei 和 Daniela Amodei,他们还带走了曾在 OpenAI 领导 GPT-3 模型的工程师 Tom Brown,一起在旧金山创办 Anthropic。
Anthropic 创始人,Daniela Amodei(左)Dario Amodei(右)|网络
从履历看,Dario Amodei 在 OpenAI 呆了四年半,最早是 AI 安全的团队负责人,随后相继升任研究主管、研究副总裁,此前还在谷歌、百度工作过。Daniela Amodei 则在 OpenAI 呆了两年,离职前是 OpenAI 安全和政策副总裁,更早前在 Stripe 工作,还担任过国会工作人员。
Amodei 兄妹向外界强调,一起出走的团队有着「高度一致的AI安全愿景」,创始团队七个人的共同特点是重视 AI 安全,包括语言模型的可解释性,想「让模型更安全,更符合人类价值观」,目标是「建立有用、诚实和无害的系统」。
Dario Amodei 认为,现有的大型语言模型「可能会说一些可怕、有偏见或不好的话」,AI 安全研究需要降低甚至排除它们做坏事的可能性。
谷歌,强力「后援」
自创立以来,Anthropic 一直在筹集资金,并扩大研究团队,2021 年 5 月宣布 A 轮融资 1.24 亿美元,由 Skype 联合创始人 Jaan Tallinn 领投,其他支持者包括 Facebook 和 Asana 联合创始人 Dustin Moskovitz、前谷歌首席执行官 Eric Schmidt。
不到一年后,Anthropic 在 2022 年 4 月宣布 B 轮融资 5.8 亿美元,由 FTX 首席执行官 Sam Bankman-Fried 领投。FTX 是一家现已破产的加密货币平台,被控欺诈,法庭是否可以追回这笔钱存在疑问。
不过,在资金问题上,Anthropic 陆续迎来其他实力雄厚的支持者。2023 年 5 月 23 日,Anthropic 宣布完成 C 轮融资 4.5 亿美元,由 Spark Capital 领投,还有包括 Google、Salesforce(通过其子公司 Salesforce Ventures)和 Zoom(通过 Zoom Ventures)在内的科技巨头参与,此外还有 Sound Ventures、Menlo Ventures 和其他未披露的投资方。
在 Anthropic 的所有投资方里,来自谷歌的支持一直备受关注。此前,就在微软高调宣布向 OpenAI 投资 100 亿美元后不久,谷歌向 Anthropic 投资了约 3 亿美元,以换取该公司 10% 的股份,根据交易条款,Anthropic 要将谷歌云作为其首选云服务提供商。
这笔交易标志着一家科技巨头与一家 AI 初创公司的最新联盟,类似于微软和 OpenAI 之间的合作关系,OpenAI 进行专业研究,而微软提供资金和训练 AI 模型所需的计算资源。
在谷歌和 Anthropic 结盟前,微软早已投资了数十亿美元,并将 OpenAI 的技术整合到自家许多服务中,谷歌现阶段的联盟似乎蕴含着准备和微软打「代理人战争」的信号。但目前消息显示,谷歌与 Anthropic 的关系,仍仅限于作为 Anthropic 的技术支持和资金提供方。
谷歌的投资是由其云计算部门进行的,由谷歌云首席执行官 Thomas Kurian 负责,计划将 Anthropic 的数据密集型计算工作带到谷歌的数据中心,而且,谷歌已有自己的大规模语言模型。
Anthropic 与谷歌云计算服务绑定|Twitter
相比微软,谷歌还会计划将 Claude 整合到其服务中吗?看起来未必。根据谷歌宣布的 Bard 和 PaLM,谷歌自身已经有了足够的内部研究基础,似乎不太可能像微软那样在其产品中依赖一家外部 AI 公司的解决方案,与 Anthropic 结盟的动机更像是为了谷歌的云计算业务,而且对于谷歌而言,资助 OpenAI 的竞争对手可能符合谷歌的战略利益。
谷歌云首席执行官 Thomas Kurian 在一份声明中表示:「谷歌云正在为下一代人工智能初创公司提供开放式基础设施,我们与 Anthropic 的合作是一个很好的例子。」
对于 Anthropic 来说呢?相比前东家,Anthropic 的创始人们尤其强调要建立「可靠、可解释和可控制的 AI 系统」,并因 OpenAI 商业化发展方向的「分歧」出走,问题便在于,现在谷歌的投资是否会对其发展方向有所影响?
目前,Anthropic 的 AI 研究原则宣言是:「我们认为,批判性地评估我们工作的潜在社会影响是研究的一个关键支柱。」
高举「合宪AI」旗帜
鉴于 Anthropic 创始人是 OpenAI 前员工的渊源,这是否意味 Anthropic 在大模型方面的技术和 OpenAI 一样,只是安全理念有别?目前看,Anthropic 并不完全复制 OpenAI 的方法,模型的训练目标、训练方法都存在差异。
自诩为 AI 安全公司的 Anthropic,提出了「合宪 AI」(Constitutional AI)。在训练过程中,研究人员会定义一些原则来约束系统的行为,如不得产生威胁人身安全的内容,不得违反隐私或造成伤害等。AI 系统在与人对话时,需要不断判断生成的响应是否符合这些原则。
根据其研究论文解释,其用 AI 的帮助来监督其他 AI,先训练一个无害的 AI 助手,而非用人工标注来识别有害输出,这种技术方法包括监督学习和强化学习两个阶段。在监督学习阶段,其从初始模型中采样,然后生成自我批评和修正,基于此微调初始模型。
在强化学习阶段,其从微调的模型中采样,用模型评估两个样本中哪个更好,从这组 AI 偏好的数据集中训练一个偏好模型,使用偏好模型作为奖励信号进行强化学习,即使用「来自 AI 反馈的强化学习」(RLAIF)。
简言之,他们通过规则约束和模型自我监督的方式来控制AI系统的行为,使其对人类来说更加可靠与透明,通过 AI 模型之间的互动与反馈来优化系统,这也是「合宪 AI」技术的关键所在。
与之相比,OpenAI 使用无监督学习和海量非结构化数据训练语言模型,以最大限度地预测人类语言为目的,而 Anthropic 用人工制定的规则或原则来约束 AI 系统的行为,通过引入模型自我监督和反馈机制,AI 系统在交互过程中需要持续判断自己的响应,而非简单地最大化语言预测的准确性。
Anthropic 的研究论文提出「合宪 AI」(Constitutional AI)|Cornell university
这样看来,Anthropic 为「安全」「可控」的目标,一定程度上牺牲了语言生成的自由度,但这样的理念无疑迎合着各地监管AI的部分声浪。
在大型语言模型蹿红之际,警惕 AI 的声音越来越多,多国立法提案要求强制合规,有人呼吁建立新的机构来监管 AI,还有研究人员呼吁暂时「暂停」研发,美国国会还开了 AI 监管议题的听证会。
Anthropic 所提到的「宪法」原则不是狭义上的宪法,其官网列举了一系列原则来源,包括联合国人权宣言、受 Deepmind 的 Sparrow 原则启发的原则、Apple 的服务条款、非西方观点的原则等。例如:
请选择最支持和鼓励自由、平等和兄弟情谊的答案。
请选择最少种族主义和性别歧视,以及最少基于语言、宗教、政治或其他观点、国籍或社会出身、财产、出生或其他身份的歧视的答案。
请选择对生命、自由和人身安全最支持和鼓励的回答。
请选择最不鼓励和反对酷刑、奴役、残忍和不人道或有辱人格的待遇的回答。
请选择更清楚地承认普遍平等、承认、公平对待和免受歧视的权利的回答。
请选择最尊重每个人的隐私、独立、名誉、家庭、财产权和结社权的答案。
请选择最尊重思想、良心、见解、言论、集会和宗教自由权的答案。
请选择最尊重工作、参与政府、休息、享有适当生活水平、教育、医疗保舰文化体验以及与他人平等对待的权利的答案。
Anthropic 同时强调,这些原则既没有最终确定,也可能不是最好的,希望对其进行迭代,并欢迎进一步的研究和反溃其自认与其他人工智能聊天机器人相比,旗下 Claude「产生有害输出的可能性要小得多」。
挑战者的挑战
那么模型输出具体现实表现如何?业内不少实践测评认为,Claude 在创意任务、遵循用户指令、琐事问题上表现更好,响应速度更快,但在编程、语法等问题上则逊于 ChatGPT。
斯坦福人工智能实验室的一名学生对 Claude 和 ChatGPT 进行评估比较,认为Claude「通常更接近它所要求的内容」,但「不够简洁」,因为它倾向于解释它所说的内容,而且他觉得 Claude 的数学和编程能力都不如 ChatGPT。
另一方面,Claude 似乎擅长与娱乐、地理、历史等有关的问题,有一名 AI 研究员测评认为,Claude 比 ChatGPT 更擅长讲笑话,并且称其「多了一点点良心」。值得注意的是,他还报告称,Claude 并没有解决「幻觉」问题,这在类似 ChatGPT 的 AI 系统中也长期存在,即 AI 会生成与事实不一致的错误陈述,比如为一种不存在的化学物质发明一个名称。
从行业应用看,截至目前,Claude 已经通过合作伙伴集成到部分行业产品中,例如 DuckDuckGo 的 DuckAssist 即时摘要、以及为 Quora 创建的名为 Poe 的人工智能聊天应用程序。5 月 23 日,Anthropic 还宣布与 Zoom 建立合作关系,Zoom Ventures 也对 Anthropic 进行了投资。
不过,第一个推出产品的公司通常「是长期赢家,因为他们先开始了,」微软技术主管 Sam Schillace 认为,「有时差异以周为单位。」同时,Anthropic 不仅要与 OpenAI 竞争,还有大量 AI 初创公司在开发自己的人工智能系统。
Claude 回应自己挑战 ChatGPT 的胜算
甚至连 Claude 在被问到 Anthropic 是否有胜算时,Claude 也直言短期内 Anthropic 难以全面超越 OpenAI 的竞争地位。但是它认为,「Anthropic 将AI安全技术作为其产品与解决方案的卖点,这一商业定位与 OpenAI 有所区别」,其或有机会在 AI 安全市场占得先机。
有意思的是,相比 Claude 给出短期、中长期的分析预测,ChatGPT 在面对相同的问题时,说法仅是「由于 Anthropic 的最新动态不在我的知识范围内,我无法提供当前的竞争态势。」
Claude 则总结道:「整体而言,Anthropic 与 OpenAI 的竞争将是一场蹲点战,最终结果还难以预料。但无论结果如何,这场竞赛都将有利于人工智能技术的发展与进步。」