AI大模型依赖底层技术突破,英特尔将推AI芯片、智能网卡新品

AI1年前 (2023)发布 aixure
57 0 0
导读:界面新闻记者 | 彭新 界面新闻编辑 | 大模型未来的发展需要依赖于底层技术突破,如技术、通讯和存储技术。只有这些底层技术不断突破,才能实现对人工智能更高的要求。这些底层技术正是英特尔正在努力发展的方向,包括人工智能、边缘到云的基础架构、连接和传…

界面新闻记者 | 彭新

界面新闻编辑 |

“大模型未来的发展需要依赖于底层技术突破,如技术、通讯和存储技术。只有这些底层技术不断突破,才能实现对人工智能更高的要求。这些底层技术正是英特尔正在努力发展的方向,包括人工智能、边缘到云的基础架构、连接和传感技术等。”在2023年世界人工智能大会期间,英特尔中国区网络与边缘事业部首席技术官、英特尔高级首席AI工程师张宇在接受界面新闻等采访时称。

张宇说,他观察当前AI大模型的商业进展,还未发现一个特别成功的商业模式和持久的使用场景,因此可以认为大模型的商业模式仍在摸索中。即使人们对于ChatGPT的应用相当热衷,用它来写论文、画图等,但一些报告显示,ChatGPT最近的访问量正在下降。

但这一现象并不能否定ChatGPT开启的AI新时代,张宇称,目前AI大模型和AIGC技术尚处于开环工作,而不是闭环工作,仍然存在成本、数据和人力等限制,随着人工智能和算力的不断发展,这些问题可能会得到解决。

作为芯片巨头,英特尔虽不及英伟达在AI计算中凭借GPU“独领风骚”,但仍是该领域的重要玩家,可以提供诸如CPU、GPU、FPGA等多种算力资源和完整软硬件解决方案等。张宇介绍,不同的计算资源需考虑资源分配和调度问题。对于资源调度,需要一个统一API(应用程序接口)接口,否则不同的资源调度都需要不同的接口,这是不经济的。“

英特尔正在考虑如何在异构平台上合理分配负载,以进行人工智能处理。张宇指出,在底层方面,英特尔采用了OneAPI(一种统一编程模型和应用程序接口)思路,利用OneAPI提供的优化库,希望以打包的平台方案整合自家庞杂的产品路线,降低客户对底层硬件差异的敏感度。在算力调度方面,英特尔还需要考虑资源分配的问题,根据不同场景的要求选择不同的产品组合,包括独立显卡、集成显卡、CPU以及AI芯片等。

近年来,AI应用的普及,对底层计算芯片提出了更高的要求。GPU比传统CPU更适合此类任务,性能表现更好,在AI计算市场上抢得先机。针对人工智能训练市场,主流的方案是英伟达GPU,推广专用AI芯片进行训练并不容易。英特尔试图打破这一点,张宇称,目前英特尔有专门为大模型训练设计的Habana Gaudi 2这一款AI芯片。

Habana Gaudi 2作为落地英特尔AI战略的重要产品,英特尔对其有巨大市场期望。Habana原为以色列初创芯片公司,2016年成立,旗下产品曾渗透进入中国主要互联网公司,2019年12月,英特尔以20亿美元收购Habana。

“在最近的MLCommons公开的AI评测中,只有英特尔和另一家友商展示了在大模型训练方面的良好性能。”张宇透露,“我们计划不久将其引入中国,并发布相关活动,这对英特尔来说非常重要。”

另一方面,英特尔亦以自身在网络技术领域的积累,试图解决AI大模型的网络瓶颈问题。张宇指出,网络互连对大模型的训练推理同样重要,因为大模型的平台通常是一个集群,需要解决节点之间的通信问题。在训练过程中,模型的参数存储在GPU外围存储器中,反向传输过程中需要不断更新这些参数。因此,在进行大量的数据存取操作时,通信速度的下降会影响整个系统的性能。

近年来,为了应对大模型网络瓶颈,云计算、服务器等厂商提出无损网络架构,引入RDMA(远程直接数据存取)技术或者是DPU(数据处理器)等硬件,张宇称,随着大模型的训练集群规模不断扩大,数据传输不断增加,网络拥塞不可避免。其中一种方案提高网卡速度,英特尔即计划推出具备200G吞吐速度的网卡,400G和800G规格的网卡产品也在路线图上。

另一方面,英特尔还尝试提高网络传输的可靠性,“我们将通过更新和创新更高层网络协议来提高以太网传输RDMA协议的可靠性,称之为可靠传输,这个功能将包含在我们即将发布的下一代IPU中。”张宇称。IPU即基础设施处理器,该产品本质上就是如今火热的DPU(数据处理器)。此前英特尔依托FPGA方案,在2021年6月推出了首款IPU。据界面新闻了解,英特尔IPU在运营商中应用较多。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...