天风海外:在我们近期硅谷调研中,北美ASIC与GPU厂商普遍提到,传统 HBM scaling已接近物理极限,AI的推理能力需要容量与带宽进一步拓展,26年开始,让AI芯片直接访问DRAM与NAND是架构设计的最新核心变化。在25、26的偏成熟方案,中板,池化都是短期拓展的方案,往26-27年看呢?我们认为内存Expander为最重要的新趋势。Marvell收购Celestial AI即为光学互联方案的有力潜在选项。相比此前8卡服务器1张AI卡只能通过CPU调度获得256-512GB DRAM,未来可能获得单卡2TB以上接近HBM3速度的DRAM.

现有版图(Marvell)

Inphi 系列:数据中心光电 DSP(PAM4/相干)、LPO/CPO 生态,800G→1.6T 路线占位。

交换/路由:Teralynx(来自 Innovium),数据中心以太网与 AI 集群背板的关键份额。

定制计算与 DPU:与AWS合作的定制 ASIC、Octeon DPU 等。

封装/链路 IP:SerDes、UCIe、Chiplet 生态的工程落地经验。

存储IP:SSD Controller、NVME ip等。

最高55亿美元收购Celestial后,Marvell获得的解决方案什么是?通过Photonic Fabric Memory Module让AI芯片不通过边缘侧而从中间实现互联

技术突破: 2TB DDR5 @7.2TB带宽(通过光互联实现,接近HBM3带宽)

经济性: 16模块/2U = 33TB容量(放在一个server tray里面,实现大幅容量拓展,这样的模块成本远低于HBM)

应用场景: Memory-bound workload(推荐系统、大模型推理)

(并且某Hyperscaler——疑似AWS已经导入测试)
 
 
Back to Top