Technologies

News information

HBM3にはすべてが整っており、標準のみが完成しています。

発売日 : 2021/10/12

HBM3にはすべてが整っており、標準のみが完成しています。
HBM3
PC時代からモバイルおよびAI時代へと、チップのアーキテクチャもCPU中心からデータ中心に移行しました。 AIによってもたらされるテストには、チップの計算能力だけでなく、メモリ帯域幅も含まれます。 DDRとGDDRのレートは比較的高いですが、多くのAIアルゴリズムとニューラルネットワークはメモリ帯域幅の制限に繰り返し遭遇しています。広い帯域幅に焦点を当てたHBMは、データセンターやHPCなどの高性能チップに推奨されるDRAMになりました。 。

現時点では、JEDECはHBM3規格の最終ドラフトをまだ提供していませんが、規格の策定作業に参加しているIPベンダーはすでに準備を行っています。少し前まで、ラムバスはHBM3をサポートするメモリサブシステムを最初に発表しました。最近、シノプシスは業界初の完全なHBM3IPおよび検証ソリューションも発表しました。

IPベンダーが最初に行く

 

今年の6月、Taiwan Creative Electronicsは、TSMCのCoWoSテクノロジーに基づくAI / HPC /ネットワークプラットフォームをリリースしました。このプラットフォームには、HBM3コントローラーとPHY IPが搭載されており、I / O速度は最大7.2Gbpsです。 Creative Electronicsは、任意の角度でジグザグ配線をサポートし、HBM3IPを2つのSoCに分割して使用できるインターポーザー配線特許も申請しています。

シノプシスが発表した完全なHBM3IPソリューションは、2.5Dマルチチップパッケージシステム用のコントローラー、PHY、および検証IPを提供し、設計者はSoCで低消費電力とより広い帯域幅のメモリを使用できると主張しています。 SynopsysのDesignWareHBM3コントローラーとPHYIPはチップで実証済みのHBM2EIPに基づいており、HBM3 PHYIPは5nmプロセスに基づいています。ピンあたりのレートは7200Mbpsに達し、メモリ帯域幅は921GB /秒に増やすことができます。 。

パッケージボーナス

上記は単層HBMのデータのみです。2.5Dパッケージで2層または4層をスタックすると、メモリ帯域幅が2倍になります。例として、NvidiaのA100アクセラレータを取り上げます。Nvidiaの最初の80GBバージョンは4層HBM2を使用して1.6TB / sの帯域幅を実現しました。その後、5層HBM2Eバージョンが導入され、帯域幅がさらに2TB / sに増加しました。そして、この種の帯域幅パフォーマンスは、HBM3の2層だけで達成でき、4番目と5番目の層の構成は、遠いスーパーマーケットの既存のメモリ仕様です。

さらに、ロジック+ HBM方式はもはや新しいものではなく、多くのGPUおよびサーバーチップが同様の設計を採用しています。ただし、ファブが2.5Dパッケージング技術に取り組み続けるにつれて、シングルチップ上のHBMの数も増加しています。たとえば、上記のTSMC CoWoSテクノロジーは、SoCチップに4つ以上のHBMを統合できます。NvidiaのP100は4つのHBM2を統合し、NECのSx-Auroraベクトルプロセッサは6つのHBM2を統合します。

サムスンは、次世代のI-Cube 2.5Dパッケージングテクノロジーも開発しています。4〜6個のHBMの統合をサポートするだけでなく、2つのロジックチップと8つのHBMを備えたI-Cube8ソリューションも開発しています。同様の2.5DパッケージングテクノロジーとIntelのEMIBですが、HBMは主にAgilexFPGAで使用されています。

結びの言葉

現在、Micron、Samsung、SK Hynix、およびその他のメモリメーカーは、この新しいDRAM標準をすでにフォローしています。SoCデザイナーのSocionextは、サポートする必要のあるx86アーキテクチャに加えて、マルチチップ設計でHBM3を導入するためにSynopsysと協力しています。 、ArmのNeoverse N2プラットフォームもHBM3をサポートすることを計画しており、SiFiveのRISC-VSoCもHBM3IPを追加しています。しかし、JEDECが「行き詰まって」おらず、年末に公式のHBM3標準をリリースしたとしても、HBM3関連製品が利用可能になるまで、2022年の後半まで待たなければならない場合があります。

誰もが多くの高性能チップ、特にNVIDIAのTesla P100 / V100、AMDのRadeon Instinct MI25、IntelのNervanaニューラルネットワークプロセッサ、GoogleのTPUv2などのデータセンターアプリケーションでHBM2 / 2Eを見てきました。

消費者レベルのアプリケーションはHBMから離れつつあるようです。これまで、AMDのRadeon RxVega64 / Vega 56とIntelのKabyLake-GはHBMのグラフィックス製品を使用し、さらに高いレベルにはNvidiaのQuaddro GP100 / GV100とAMDが含まれます。RadeonのようなプロフェッショナルグラフィックスGPUプロWX。

今日、これらの製品はすべてGDDR DRAMを使用しています。結局のところ、民生用アプリケーションに帯域幅のボトルネックはありません。それどころか、速度とコストはチップメーカーによって最も高く評価されています。ただし、HBM3は、より広い帯域幅とより高い効率の利点について言及しています。コストを削減しません。