在计算机领域有一个著名的“摩尔定律”,那就是集成电路的晶体管数量每隔18个月至24个月将增加一倍,“摩尔定律”也成为了计算机领域发展的指导方向,然而如今受制于材料等技术发展的限制,“摩尔定律”明显放缓。而作为图形领域巨头的NVIDIA CEO黄仁勋又提出了“黄氏定律”,预测称GPU将会推动AI性能实现逐年翻倍,而NVIDIA也正朝着这个方向努力着。
今天NVIDIA举办GTC中国大会,在主题演讲上,NVIDIA首席科学家Bill Dally向大家介绍了NVIDIA的技术团队是如何实现“黄氏定律”而不断努力着,包括打造更快的AI芯片,简化相应编程等行为。首先是加速器,NVIDIA的研究人员为了能够让AI的推理性能更加出色,专门研发了一款名为MAGNet的工具,由这款工具所生成的AI推理加速器中最高可以达到每瓦100TOPs的推理能力,与目前的商用加速器相比高出了一个数量级。
NVIDIA首席科学家Bill Dally
此外NVIDIA的研发人员在研究中发现,相比较传统的电子,光子能够承载的信息量更加庞大,因此在相同信息传递下所花费的能耗也就越低。为此英伟达设定了一个全新的目标,这个目标就是使用光信号进行信息传输或交换。NVIDIA将其称之为“密集波分复用”技术,有望在1毫米大小的芯片上实现Tb/s级数据的传输,相当于如今互联密度的十倍之多。
光链路也能帮助专业用户实现密集系统的搭建,NVIDIA也介绍了Legate,这是NVIDIA研究人员开发的全新编程系统原型,它可以让开发人员在任何规模的系统上都运行针对单一GPU便携的程序。在AI领域,NVIDIA打造了通过基于物理渲染的路径追踪技术,实时生成令人惊艳的图像,并能够借助AI构建整个场景,在医疗健康、无人驾驶汽车和机器人等众多行业发挥重要作用。
而在GTC大会上,NVIDIA也宣布了包括阿里、百度、滴滴、腾讯在内的国内著名云服务提供商纷纷采用NVIDIA的A100 Tensor Core GPU以及NVIDIA的相关技术,为各种AI应用提速。并且像新华三、浪潮、联想等OEM厂商也开始推出基于NVIDIA A100 GPU的产品,以获取更加出色的AI计算性能。