.

人工智能芯片高算力核心底座,龙头全梳理

当前人工智能爆发新一轮浪潮,海量参数产生大算力需求,OpenAI预估算力需求每3.5个月翻一倍,每年近10倍。AI大模型的算力水平显著供不应求,高壁垒AI芯片显著受益。

随着人工智能技术日趋成熟,数字化基础设施不断完善,人工智能商业化应用将加落地,推动AI芯片市场高速增长。行行查

行业研究数据库资料显示,年全球人工智能芯片市场规模将达到亿美元。未来几年内,中国人工智能芯片市场规模将保持年均40%至50%的增长速度,到年,市场规模将达到亿元。

同时,随着美国持续加大对中国高端芯片的出口限制,高速运算相关的芯片国产化进程必然加快。#人工智能#

AI芯片行业概览

根据芯语数据,AI服务器相较于高性能服务器、基础服务器在芯片组(CPU+GPU)的价格往往更高,AI服务器(训练)芯片组的成本占比高达83%、AI服务器(推理)芯片组占比为50%,远远高于通用服务器芯片组的占比。

AI芯片主要包括图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、神经拟态芯片(NPU)等。

GPU是显卡的核心单元,是单指令、多数据处理器。采用数量众多的计算单元和超长的流水线,在图形领域的加速方面具有技术优势。

FPGA集成了大量的基本门电路及存储器,利用门电路直接运算、速度较快。用户可以自由定义这些门电路和存储器之间的布线,改变执行方案,从而调整到最佳运行效果。相较于GPU灵活度更高、功耗更低。

ASIC为特定目的、面向特定用户需求设计的定制芯片,具备体积小、功耗低、可靠性更高等优点。在大规模量产的情况下,具备成本低的特点。

CPU、GPU、FPGA、TPU、ASIC对比(纵轴代表灵活性、横轴代表性能):

GPU:专用计算的刚需

GPU(GraphicsProcessingUnit,图形处理器):是英伟达公司在年8月发表NVIDIAGeForce(GeForce)绘图处理芯片时首先提出的概念。

是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像加速和通用计算工作的微处理器。

GPU可作为深度学习的训练平台,优势在于:1、GPU服务器可直接加速计算服务,亦可直接与外界连接通信;2、GPU服务器和云服务器搭配使用,云服务器为主,GPU服务器负责提供计算平台;3、对象存储COS可以为GPU服务器提供大数据量的云存储服务。

其优点是性能高通用性好、缺点是功耗高,拥有硬件技术的核心壁垒,可同时用于GPT模型的训练和推理过程。

GPU行业的产业链主要涉及三个环节:设计、制造、封装。

行业巨头大多集中在海外,位居产业链各个环节核心,对全球GPU行业起着决定性的作用。

从国产替代方案来看,景嘉微、龙芯中科、海光信息、寒武纪、芯原股份、好利科技、壁仞科技、芯动科技等厂商有望受益。

国内GPU市场格局及部分代表厂商:

GPGPU:门槛极高的领域

GPGPU服务器是目前AI加速服务器的最主流选择。

GPU的核心价值体现在图形图像渲染,GPGPU的重点在于算力,虽然都是由GPU的架构演进而来,但所


转载请注明:http://www.abachildren.com/xgyy/6269.html