激光网
当前位置: 首页 > 人工智能 > 正文

TrendForce机构:预计今年AI服务器出货量年增率可望达15.4%

2023-04-18 17:09:02  来源:激光网原创    

  AI服务器出货动能强劲带动HBM需求提升,据TrendForce研究显示,2022年三大原厂HBM市占率分别为SK海力士 50%、三星约40%、美光约10%。 此外,高阶深度学习AI GPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIA H100与AMD MI300的搭载,三大原厂也已规划相对应规格HBM3的量产。

  因此,在今年将有更多客户导入HBM3的预期下,SK海力士作为目前唯一量产新世代HBM3产品的供应商,其整体HBM市占率可望借此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%及9%。

  目前NVIDIA所定义的DL/ ML型AI服务器平均每台均搭载4张或8张高阶显卡,搭配两颗主流型号的x86 服务器CPU,而主要拉货力道来自于美系云端业者Google、AWS、Meta与Microsoft。 据TrendForce统计,2022年高阶搭载GPGPU的服务器出货量年增约9%,其中近80%的出货量均集中在中、美系八大云端业者。 展望2023年,Microsoft、Meta、Baidu与ByteDance相继推出基于生成式AI衍生的产品服务而积极加单,预估今年AI服务器出货量年增率可望达15.4%,2023~2027年AI 服务器出货量年复合成长率约12.2%。

  根据TrendForce调查,AI服务器可望带动内存需求成长,以现阶段而言, Server DRAM普遍配置约为500~600GB左右,而AI服务器在单条模组上则多采64~128GB,平均容量可达1.2~1.7TB之间。 以Enterprise SSD而言,由于AI服务器追求的速度更高,其要求优先往DRAM或HBM满足,在SSD的容量提升上则呈现非必要扩大容量的态势,但在传输界面上,则会为了高速运算的需求而优先采用PCIe 5.0。 而相较于一般服务器而言,AI服务器多增加GPGPU的使用,因此以NVIDIA A100 80GB配置4或8张采计,HBM用量约为320~640GB。 未来在AI模型逐渐复杂化的趋势下,将刺激更多的内存用量,并同步带动Server DRAM、SSD以及HBM的需求成长。

免责声明: 激光网遵守行业规则,本站所转载的稿件都标注作者和来源。 激光网原创文章,请转载时务必注明文章作者和来源“激光网”, 不尊重本站原创的行为将受到激光网的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:342 4350 938@qq.com