由于 CoWoS 製程产能大幅成长,带动 NVIDIA B100、Habana Gaudi 和 AWS Inferentia 有更多出货,大摩出具最新报告指出,看好 AI 伺服器出货量增加,并拥有强大的管道,包括下一代 GPU 平台,助攻 ODM 厂商 2024 年前景乐观,针对最新下游供应链进展做一次盘点。
大摩预测,今年鸿海与工业富联的 AI GPU 模组出货量将增加一倍以上,AI 伺服器营收将年增 40% 以上,达到 210 亿美元。
广达 AI 伺服器动能将从 2024 年第二季开始回升,今年 AI 伺服器将占其伺服器转速的 50% 以上。
大摩预计,纬创资通 AI 伺服器转速在第二季将比第一季更强,这应该会缓解一些投资者的担忧,即H100 出货量将在第三季暂停,然后 B100 在第四季开始增加。
技嘉相信 NVIDIA 的 GPU 交货时间将从 2023 年的约 50 週缩短,并可能在今年 5~6 月左右达到平衡。
大摩预计,华硕受到 AI 伺服器成长的推动,伺服器业务 贡献将在 2024 年第一季达到个位数成长,而到 2024 年 AI 伺服器可能占其伺服器收入的 70% 以上。
金像电的 AI 伺服器转速指引在 2024 年较去年同期上调至 100%。
大摩预计,奇鋐 3D VC 出货量将从 10 万台增至 2024 年的 200~300 万台,并已向 CSP(云端服务供应)客户提供自主设计的 CDU(冷却液监控主机)样品。
大摩指出,信骅通用伺服器在第二季有一些上涨空间,针对 AI GPU 能看到在 NVIDIA 从 H100 和 B100 进行产品过渡期间,第二季会有一些 H20 生产。
AMD CPU Genoa 在 H100 AI 伺服器中获得良好的关注,因为其 AI 工作负载方面的效能优于英特尔的 Sapphire Rapid CPU。
世芯-KY 主要 IDM(整合元件製造)客户,大摩认为可能是英特尔,最近获得更多 CoWoS-S 製程产能,带动 AWS Inferentia 出货量持续较上季成长。
根据大摩分析师 Joe Moore 的Marvell 研究表明,预估到 2024 年底,其客製化晶片收入将超过 800 mm 的目标运行率,并证实迈威尔的 5 奈米 AWS Tranium2 出货量到 2024 年可能约为 10 万颗,这表明其 CoWoS 订单可能会减少。
(首图来源:Unsplash)