Technologies

News information

HBM3 tiene todo en su lugar, solo el estándar está finalizado

Suelte en : 12 oct. 2021

HBM3 tiene todo en su lugar, solo el estándar está finalizado
HBM3
Desde la era de la PC hasta la era de la IA y los dispositivos móviles, la arquitectura del chip también ha pasado de estar centrada en la CPU a centrada en los datos. La prueba realizada por la IA incluye no solo la potencia de cálculo del chip, sino también el ancho de banda de la memoria. Aunque las tasas de DDR y GDDR son relativamente altas, muchos algoritmos de IA y redes neuronales han encontrado repetidamente limitaciones de ancho de banda de memoria. HBM, que se enfoca en un gran ancho de banda, se ha convertido en la DRAM preferida para chips de alto rendimiento como centros de datos y planes HPC. .

Por el momento, JEDEC aún no ha entregado el borrador final del estándar HBM3, pero los proveedores de propiedad intelectual que participan en el trabajo de formulación del estándar ya han hecho los preparativos. No hace mucho, Rambus fue el primero en anunciar un subsistema de memoria compatible con HBM3. Recientemente, Synopsys también anunció la primera solución completa de verificación e IP HBM3 de la industria.

Los proveedores de propiedad intelectual van primero

 

En junio de este año, Taiwan Creative Electronics lanzó una plataforma de red AI / HPC basada en la tecnología CoWoS de TSMC, equipada con un controlador HBM3 y PHY IP, con una velocidad de E / S de hasta 7.2Gbps. Creative Electronics también está solicitando una patente de cableado de interposición, que admite cableado en zigzag en cualquier ángulo y puede dividir el IP HBM3 en dos SoC para su uso.

La solución IP HBM3 completa anunciada por Synopsys proporciona un controlador, PHY e IP de verificación para un sistema de paquete multichip 2.5D, afirmando que los diseñadores pueden usar memoria con bajo consumo de energía y mayor ancho de banda en SoC. El controlador DesignWare HBM3 y PHY IP de Synopsys se basan en el chip HBM2E IP, mientras que el HBM3 PHY IP se basa en el proceso de 5 nm. La velocidad por pin puede alcanzar los 7200 Mbps y el ancho de banda de la memoria se puede aumentar a 921 GB / s .

Bono de paquete

Lo anterior son solo los datos de HBM de una sola capa. Después de apilar 2 o 4 capas a través de paquetes 2.5D, el ancho de banda de la memoria se duplicará. Tome el acelerador A100 de Nvidia como ejemplo. La primera versión de 80 GB de Nvidia utiliza un HBM2 de 4 capas para lograr un ancho de banda de 1,6 TB / s. Después de eso, se introdujo una versión HBM2E de 5 capas para aumentar aún más el ancho de banda a 2 TB / s. Y este tipo de rendimiento de ancho de banda se puede lograr con solo 2 capas de HBM3, y la configuración de las capas 4 y 5 es la especificación de memoria existente en el supermercado lejano.

Además, el método de lógica + HBM ya no es nuevo, y muchos chips de GPU y de servidor han adoptado diseños similares. Sin embargo, a medida que las fábricas continúan realizando esfuerzos en la tecnología de envasado 2.5D, la cantidad de HBM en un solo chip también está aumentando. Por ejemplo, la tecnología TSMC CoWoS mencionada anteriormente puede integrar más de 4 HBM en el chip SoC. El P100 de Nvidia integra 4 HBM2, mientras que el procesador vectorial Sx-Aurora de NEC integra 6 HBM2.

Samsung también está desarrollando la tecnología de empaquetado I-Cube 2.5D de próxima generación. Además de admitir la integración de 4 a 6 HBM, también está desarrollando una solución I-Cube 8 con dos chips lógicos + 8 HBM. Tecnología de empaquetado 2.5D similar y EMIB de Intel, pero HBM se usa principalmente en su FPGA Agilex.

Observaciones finales

En la actualidad, Micron, Samsung, SK Hynix y otros fabricantes de memorias ya están siguiendo este nuevo estándar DRAM. El diseñador de SoC Socionext ha cooperado con Synopsys para introducir HBM3 en su diseño multi-chip, además de la arquitectura x86 que debe ser compatible. , La plataforma Neoverse N2 de Arm también ha planeado ser compatible con HBM3, y el SoC RISC-V de SiFive también ha agregado HBM3 IP. Pero incluso si JEDEC no está "atascado" y lanzó el estándar oficial HBM3 a finales de año, es posible que tengamos que esperar hasta la segunda mitad de 2022 para ver los productos relacionados con HBM3 disponibles.

Todo el mundo ha visto HBM2 / 2E en muchos chips de alto rendimiento, especialmente en aplicaciones de centros de datos, como el Tesla P100 / V100 de NVIDIA, el Radeon Instinct MI25 de AMD, el procesador de red neuronal Nervana de Intel, el TPU v2 de Google y muchos más.

Las aplicaciones a nivel de consumidor parecen estar alejándose de HBM. En el pasado, Radeon RxVega64 / Vega 56 de AMD y KabyLake-G de Intel usaban productos gráficos de HBM, e incluso niveles más altos incluyen Quaddro GP100 / GV100 y AMD de Nvidia. GPU de gráficos profesionales como Radeon Pro WX.

En la actualidad, todos estos productos utilizan GDDR DRAM. Después de todo, no existe un cuello de botella en el ancho de banda en las aplicaciones de consumo. Por el contrario, la velocidad y el costo son los más valorados por los fabricantes de chips. Sin embargo, HBM3 menciona las ventajas de un mayor ancho de banda y una mayor eficiencia. Did no reducir costos.