英特尔大数据CTO:通过提升算力和计算能力,推动AI的无处不在

AI1年前 (2023)发布 aixure
31 0 0
导读:英特尔希望通过对算力优化、计算能力的提升来推动生成式AI无处不在,让各行各业,以及普通的消费者都可以使用。英特尔院士、大数据技术全球首席技术官戴金权表示。 今年年初以来,生成式AI掀起一波又一波热潮,国内外企业也竞相推出自己的大型语言模型。 值…

“英特尔希望通过对算力优化、计算能力的提升来推动生成式AI无处不在,让各行各业,以及普通的消费者都可以使用。”英特尔院士、大数据技术全球首席技术官戴金权表示。

今年年初以来,生成式AI掀起一波又一波热潮,国内外企业也竞相推出自己的大型语言模型。

值得注意的是,英特尔也一直致力于深耕生成式AI领域。不久前,其推出了生成式大模型Aurora genAI。该模型的参数高达一万亿,主要面向科研领域,包括生物学、医学、大气科学、化学等学科。

不仅如此,推动生成式AI普适化,才是英特尔在这一领域的主要追求。

一方面,其借助长期积累的技术优势,英特尔从硬件、软件和大型语言模型等方面出发,为生成式AI提供全面支持。

首先,以XPU战略为导向,英特尔打造从云到端的全面产品组合,涵盖个人电脑端和数据中心的CPU、GPU、FPGA、专用ASICs等解决方案,以应对多元化的应用场景需求,为整个计算领域提供AI能力。比如,其在GPU、专用AI加速器和第四代至强可扩展服务器中,都加入了专门针对矩阵运算的加速器AMX,以更好地加速神经网络运算。

其次,英特尔提出了“软件定义、芯片增强”的理念,即用软件来定义所需的计算能力,再从硬件角度来提供匹配的增强和支持。因此,在软件层面上,其更关注上层应用和算法对软件工具和基础设施的引领。目前,英特尔正在XPU的架构下,通过oneAPI、软件优化和软件库,帮助客户的计算设备,做到在不同场景下对生成式AI的支持。

同时,由于大型语言模型通常大量使用Transformer架构,既存在许多注意力机制计算,也对内存和带宽的大小有较高要求。对此,英特尔通过稀疏化或低精度对模型进行压缩,并为其提供多样化技术支持,以更加高效地实现模型部署。

另一方面,英特尔也在积极拥抱开源和AI开放社区。比如,与业界积极合作,探索开源AI软件工具和软件基础架构;关注开放的大型语言模型,与机器学习开源库Hugging Face开展合作。

具体来说,英特尔联合Hugging Face,利用Gaudi 2加速器,对参数量为1760亿的BLOOMZ模型进行了优化评估。效果显示,与使用8张英伟达A100芯片相比,用8张Gaudi 2运行推理的速度提高了20%以上。此外,还基于第四代英特尔至强可扩展处理器,利用AMX高级矩阵扩展进行矩阵加速,能够在5分钟内完成Stable Diffusion模型的微调。

图丨BLOOMZ模型使用Gaudi加速器对生成的语言输出进行自动评估(来源:资料图)

随着生成式AI的发展,业界从起初对其可用性的关注,逐渐聚焦到是否可信赖上。

在塑造“负责任的AI”上,英特尔也做了许多工作。

戴金权表示:“从英特尔的角度来看,我们关于AI的工作,无论是数据、模型,还是应用,都有一个‘负责任的AI’的流程,其中定义了如何消除偏见、如何使用正确的数据等。”

大型语言模型在对生产力流程产生影响的同时,也可能带来数据安全和隐私问题。

为了解决该问题,英特尔基于其硬件级的安全技术,比如英特尔TDX和SGX,加上软件层构建的面向大数据分析和机器学习的隐私计算平台,以及结合大型语言模型和stable diffusion,从数据和模型两个维度出发保护生成式AI应用,从而确保数据安全和隐私性。

同时,会借助算法判断由生成式AI生成出的内容,是否存在虚假性。并且,还通过支持生成式AI应用在本地的部署,来避免因与他人分享模型数据而可能产生的隐私泄露。

事实上,能够生成内容是生成式AI的本质,这有助于极大地提高生产力。来自各行各业的从业者,都可以通过大量使用生成式AI来提高效率。与此同时,要想做到生成式AI无处不在,还需要将其从云端延伸至本地端、边缘端等。

很多人都知道,上层应用对底层硬件的架构具有反推作用。那么,上述发展趋势,又是否会对未来AI芯片设计产生影响呢?

在戴金权看来,从小尺寸的设备扩展到大规模数据中心的XPU架构,就是一个重要的发展趋势。同时,软件算法设计的多样化,也是能够满足未来算力需求的关键组成部分。

“目前,大模型还在快速发展中,可能在更长的时间段里还会有更多的发展,比如不同算法级别的发展,以及不同场景适配的发展。这些都会对AI芯片,包括对所有计算的芯片、计算的能力带来深远的影响。”戴金权表示。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...