算力是ChatGPT“发动机” AI芯片未来巨量市场显现

人工智能应用1年前 (2023)发布 aixure
58 0 0
导读:本报记者 张靖超 北京报道 ChatGPT的出圈,不仅在应用端和场景端引发了关注,在其上游,一个巨大的市场也开始显现。 在2月7日,ChatGPT因访问量激增而宕机。推出该应用的公司OpenAI在官网表示,许多人在最近一小时内蜂拥而至我们的网站,但我们的(网络)资…

本报记者 张靖超 北京报道

ChatGPT的“出圈”,不仅在应用端和场景端引发了关注,在其上游,一个巨大的市场也开始显现。

在2月7日,ChatGPT因访问量激增而宕机。推出该应用的公司OpenAI在官网表示,许多人在“最近一小时内蜂拥而至我们的网站,但我们的(网络)资源是有限制的”,“我们将及时提供您访问ChatGPT的机会,在此之前我们向您告别,祝您好运”。

《中国经营报》记者了解到,造成ChatGPT宕机的主要原因便是支撑该应用的算力供不应求,在访问者激增后,达到了极限。作为人工智能三大核心要素之一,算力也被誉为人工智能“发动机”。华泰证券研报显示,根据OpenAI测算,自2012年以来,全球头部AI模型训练算力需求3~4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,AI深度学习正在逼近现有芯片的算力极限,也对芯片设计厂商提出了更高要求。

目前,人工智能领域的应用目前处于技术和需求融合的高速发展阶段,应用场景将更加多元化,就AI芯片这一上游细分领域而言,国内外芯片巨头都在争先布局,随着AI相关技术的进步,中国乃至全球的AI芯片市场将得到进一步的发展。

算力需求未来可期

实际上,ChatGPT并非技术的颠覆式创新,但该应用为何如此“出圈”?

归根结底,是支撑这套人工智能技术训练语言模型的底层技术正变得越来越成熟。要完成如ChatGPT乃至更高级的人机交互,背后需要对来自互联网的大量信息和数据的分析及训练。这首先需要云计算基础设施作为算力底座;其次,云计算数据中心还需要包括服务器、芯片、光模块等硬件的支持。而AI芯片则是算力最重要的硬件基石之一。

中金公司方面认为,未来大模型有望成为AI技术领域重要的生产工具,这将对AI芯片在训练和推理等环节支撑大量数据高效处理提出新的挑战,芯片算力、存储容量、带宽、软件栈等多个维度上的技术要求将提高,并创造出可观的AI芯片增量市场空间。

根据亿欧智库数据,预计AI芯片国内市场规模将于2025年达到1780亿元,2022~2025年CAGR(市场年平均复合成长率)将达到27.9%。

浙商证券新科技中关策略首席陈杭指出,ChatGPT热潮席卷全球、AIGC将产生巨大算力市场的背景下,芯片需求将迎来量价齐升。在量的方面,获得类似ChatGPT乃至更强的功能需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。价的方面,对高端芯片的需求将拉动芯片均价,采购一片英伟达顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPU A100,一次模型训练成本超过1200万美元。从芯片市场角度出发,芯片需求的快速增加会进一步拉高芯片均价。

具体到应用层面,AI芯片又可以划分为云端、边缘端和终端三个类型,不同场景对芯片的算力和功耗的要求不同,单一芯片难以满足实际应用的需求。

在云端层面,由于大多数AI训练和推理工作负载都在此进行,需要运算巨量、复杂的数据信息,因此对于 AI 芯片的性能和算力要求最高;边缘端是指处理云端和终端之间的传输网络,承担着汇集、分析处理和通信传输数据的功能,一定程度上分担云端的压力,降低成本、提升效率;终端AI芯片由于直面下游产品,大多以实际需求为导向,主要应用于消费电子、智能驾驶、智能家居和智慧安防等领域,终端产品类型和出货量的增加,也会刺激对相应芯片的需求。

存算一体化或成趋势

架构就像是芯片的基因,它直接决定了芯片的提升空间。在AI领域,随着研发的推进、相关应用的陆续落地,模型训练所需数据量越来越大,数据类型越来越多,各种算法也日新月异,这不仅对算力产生了大量需求,也对算力的提升速度提出了要求。

但在后摩尔定律时代,芯片工艺趋近极限,可大规模商用的新型材料暂时还没实现,在芯片架构上的探索成为提高芯片性能最重要的手段之一。

在目前业界大多采用的冯诺依曼架构中,计算和存储功能分别由中央处理器和存储器完成。而处理器在跟随摩尔定律逐年提升性能的过程中,将对制程工艺不敏感的存储器甩在了后面,两者的性能差距形成了“存储墙”。随着深度学习的发展和应用,计算单元和存储单元之间的数据移动尤为频繁,数据搬运慢、搬运能耗大等问题成为了算力效能进一步提升的瓶颈。

在此背景下,存算一体成为了目前业界主推的解决方案。记者了解到,英特尔、三星等IDM厂商和新锐的算力芯片厂商都在探索存算一体芯片,并衍生出不同的架构和技术路线。

三星于2021年推出了结合DRAM的高带宽内存内存内处理(HBM-PIM),将AI计算能力引入内存。通过将经过DRAM优化的AI引擎置于每个存储子单元内,将处理能力直接引入到数据的存储位置,从而实现并行处理并尽可能减少数据移动。英特尔的神经拟态计算芯片Loihi也采用了存算一体的架构,使之更加容易扩展。

九天睿芯CEO刘洪杰在接受采访时表示,存算一体芯片还需要从三个方向提升性能。一是工艺迭代,随着自动驾驶等应用场景算力需求的提高,后摩尔时代存算一体芯片需要紧跟工艺迭代的红利,进一步提高能效比、面效比;二是提升精度,更多诸如飞行器航姿估计等对运算精度有较高要求的应用对存算一体架构的精度提出了一定的挑战;三是算法适配,在更广阔的消费领域,AI应用呈现碎片化的趋势,带来了算法模型的多样化,为适应应用落地需求,存算一体仍需进一步扩充计算架构的适配能力。

(编辑:张靖超 校对:颜京宁)

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...