面向 AI Industry 的应对战略:向 Computing、Power、Network 三大系列的展开

  • Industrial
  • 2026.02.23

概要

人工智能(AI)热潮正在从半导体领域延伸至被动元件 MLCC。

与通用服务器相比,AI 服务器所搭载的 MLCC 数量达到 10~15 倍以上,这一趋势已不再是单纯的数量扩张,而是进一步扩展至需要高难度技术的 ultra-high capacitance 及高压 MLCC 领域。

我们将从 Computing、Power、Network 三个框架,对这一技术变革及未来方向进行分析。

1. Computing board:半导体集成化与高容量 MLCC 增加

作为 AI“大脑”的 GPU 与 CPU 在约 0.8V 低电压下消耗可达数千安培的电流。为在 GPU power dynamics 下实现稳定供电,MLCC 的 total capacitance 需要增加。

 

- 技术变化:

在高性能 Computing Board 中,配置于 GPU、CPU 周边的 MLCC 主要承担 Decoupling 作用,用于缓冲急剧变化的电流。随着芯片性能的不断提升,实装面积持续缩小,而所需电容容量却不断增大,因此,在 0402 尺寸实现 47㎌ 以上容量,或在 0603 尺寸实现 100㎌ 等“超小型高容量”技术成为核心竞争力。

 

- 发展方向:

贴装于半导体 GPU ball 附近并通过 SMT 实装的 MLCC,其高容量化将进一步加速。同时,Embedding MLCC 以及 Landside MLCC 等,直接内置于半导体封装内部或封装下方的技术将持续演进,通过极大降低 Loop inductance 并提升 capacitance density,推动系统性能提升。

 

AI & Servers

2. Power Supply & VPD (Vertical Power Delivery):服务器电源向 48V 演进及 GPU Core 供电的 VPD 应用

电力效率是决定 AI 数据中心运营成本的最关键因素之一。

为实现 120kW 级 Rack 的稳定供电,需要 PSU 的高效率化以及与之匹配的高规格被动元件支持。过去通常将 AC 直接转换为 12V / 48V,但在未来 120kW 级 Rack 中,为降低传输损耗,将 AC 整流为 800V 高压直流后再向 Rack 内部供电。因此,48V 稳定供电所需的 100V MLCC 需求将持续扩大,同时 1kV~2kV 的大尺寸 MLCC 需求也将同步增长。

为应对 GPU 的 load current dynamics,需要为 Core Power 提供更大电流。VPD (Vertical Power Delivery) 技术通过最大限度缩短 power path,同时提升 power density,以 Power Module 的形式实现高效供电。单位面积的 Power density 与 capacitance density 直接相关,目前 X7T 0402 inch 22㎌、X6S 47㎌ 2.5V MLCC 正被积极评估和采用。

 

800V System


Embedded MLCC

3. AI Network 的技术演进

随着 AI 模型规模不断扩大,GPU 之间的数据同步速度变得愈发关键。连接 Rack 与 Rack 之间的 Network Tray,已从单纯的“数据通道”演进为解决整体系统瓶颈的核心基础设施。

当前主流的 800G Network 正迈向 1.6T (Tera) 时代,同时 CPO (Co-packaged Optics) 技术开始导入。传统的插拔式光模块在高速信号传输过程中存在功耗高、信号损耗大的问题。为解决这一问题,将光引擎直接集成至 Switch ASIC 半导体同一封装上的 CPO 技术,正在成为 Network Tray 的新标准。

随着 Network Switch Chipset 的功耗超过 500W,Network Tray 的供电与散热同样成为关键,同时对高温 MLCC(X5R → X6S,X6S → X7T) 的需求也持续增长。

 

包括样品申请在内的其他咨询请点击这里留言。