根据IHS Markit | Technology报告显示。到2025年,用于人工智能(AI)应用的存储和处理半导体的全球市场将飙升至1289亿美元,是2019年428亿美元的三倍。
这份名为《人工智能——技术采用和影响2019年报告》指出,在人工智能领域,全球范围内人工智能应用中,存储设备的收入将从2019年的210亿美元增加到2025年的600亿美元。处理器市场的扩张速度将略有加快,从2019年的220亿美元增至2025年的685亿美元。
这一数据对运行人工智能功能的系统中半导体含量的销售情况进行了跟踪,这些芯片包括了能够运行人工智能应用系统中的内存和处理设备。
如今,人工智能芯片广泛应用于汽车、通信、计算机、消费电子、工业和医疗等众多市常人工智能应用中内存设备最大的单一市场是计算机领域,它在2025年销售额将增至660亿美元,复合增长率从2019年的275亿美元增至15.7%。不过,通信、消费电子、工业和医疗保健等其他领域将产生更快的增长。
IHS Markit | Technology公司人工智能高级研究总监Luca De Ambroggi表示:“半导体代表了人工智能供应链的基础,为地球上每一个人工智能应用程序提供了必要的处理和存储能力。”人工智能推动微芯片的巨大需求增长的主要动力。然而,这项技术也正在改变芯片市场形态,它在重新定义传统的处理器架构和内存接口,以满足新的性能需求。”
报告显示, 越来越多的初创企业正致力于提供全新的架构,挑战传统人工智能处理设备的市场霸主地位,如图形处理单元(GPU),现场可编程门阵列(FPGA),微处理器(微控制器)、微控制器(MCU)和数字信号处理器(DSP)。这些新体系结构包括可以加速深度学习任务的集成向量处理等功能。
此外,在各种设备中引入与人工智能相关的功能,意味着这些传统的处理器种类正在演变,它们不再被视为不同的类别。
De Ambroggi:“在人工智能时代,关于MPU、DSP或MCU的旧定义开始变得模糊,因为每种类型的设备都添加了具有不同功能的核心,越来越多的人工智能系统的设计者使用高度集成的异构处理解决方案,如特定应用的集成电路(ASIC)和系统芯片(SOC)解决方案。”
“由于处理器制造商提供使用这些ASIC和SOC的交钥匙式、异构处理解决方案,因此,对于系统设计师来说,他们的AI算法是在GPU、CPU还是DSP上执行的差别不大。”
先进的人工智能技术,尤其是深度学习算法,需要大量的高带宽易失性内存才能正常运行,但这已将功耗推高至不可持续的水平。
IHS指出,新的架构有的方法是为每个处理核心配备了专用存储单元,从而加快了并行处理的速度。另一种方法是将处理任务直接转移到内存中,以减少数据移动。这个想法是在数据驻留的地方进行处理,减少功耗和延迟。
业界一直在寻找一些替代方法,包括:一种新的处理器架构,其中内存更接近计算核心,减少数据移动的负担,并为每个处理核心提供专用的内存单元,从而实现高处理并行性;将数据计算的早期阶段转移到内存中,这种技术称为内存处理(processing into memory, PIM)。PIM提供了与上面提到的类似的好处。最后,确定新的内存技术,这些技术可以支持使用简单的后端硅集成、易失性性能、非易失性能力、每字节的低皮焦耳或快速输入/输出(I/O)接口的新方法。
的确,人工智能(AI)的爆炸性使用正在开启半导体设备的新时代,这将带来许多新的机遇,但也带来许多挑战。AI处理器也正在推动全球半导体行业的增长,这也促使市场分析机构做出积极的预测,未来5年,AI芯片应用将增长三倍。
Allied Market Research认为,越来越多地领域使用人工智能和机器学习是推动市场发展的主要因素之一。垂直市场可以分为媒体和广告、银行金融服务和保险、IT和电信、零售、医疗保舰汽车和运输等。此外,电子零售商可能还需要人工智能来处理不断增加的数据,目前仅印度每天就会产生30到40太字节的数据。
AI芯片正在快速发展毋庸置疑,但目前仍然面临两大挑战。一方面是技术的创新解决存储以及计算效率的挑战,另一方面是如何与实际应用结合,让AI芯片快速体现出巨大的价值。
翻译自——spectrum