Technologies

News information

HBM3 все на месте, доработан только стандарт

Выпуск на : 12 окт. 2021 г.

HBM3 все на месте, доработан только стандарт
HBM3
От эпохи ПК до эпохи мобильных устройств и искусственного интеллекта архитектура чипа также перешла от ориентированной на ЦП к ориентированной на данные. Тест, проведенный AI, включает не только вычислительную мощность чипа, но и пропускную способность памяти. Несмотря на то, что скорости DDR и GDDR относительно высоки, многие алгоритмы ИИ и нейронные сети неоднократно сталкивались с ограничениями пропускной способности памяти. HBM, ориентированный на большую пропускную способность, стал предпочтительным DRAM для высокопроизводительных микросхем, таких как центры обработки данных и HPC. .

На данный момент JEDEC еще не представил окончательный проект стандарта HBM3, но поставщики IP, участвующие в работе по формулированию стандарта, уже провели подготовительные работы. Не так давно Rambus был первым, кто анонсировал подсистему памяти, поддерживающую HBM3. Недавно Synopsys также анонсировала первое в отрасли полное решение HBM3 IP и верификации.

Поставщики IP идут первыми

 

В июне этого года Taiwan Creative Electronics выпустила AI / HPC / сетевую платформу на основе технологии TSMC CoWoS, оснащенную контроллером HBM3 и PHY IP, со скоростью ввода-вывода до 7,2 Гбит / с. Creative Electronics также подает заявку на получение патента на проводку промежуточного устройства, которое поддерживает зигзагообразную проводку под любым углом и может разделить HBM3 IP на две SoC для использования.

Полное IP-решение HBM3, анонсированное Synopsys, предоставляет контроллер, PHY и IP-адрес проверки для многочиповой пакетной системы 2.5D, утверждая, что разработчики могут использовать память с низким энергопотреблением и большей пропускной способностью в SoC. Контроллер DesignWare HBM3 и PHY IP от Synopsys основаны на проверенном чипом HBM2E IP, а HBM3 PHY IP основан на 5-нм техпроцессе. Скорость на вывод может достигать 7200 Мбит / с, а пропускная способность памяти может быть увеличена до 921 ГБ / с. .

Пакетный бонус

Выше приведены только данные однослойного HBM.После наложения 2 или 4 слоев с помощью упаковки 2.5D пропускная способность памяти будет удвоена. В качестве примера возьмем ускоритель Nvidia A100. Первая версия Nvidia на 80 ГБ использует 4-слойный HBM2 для достижения пропускной способности 1,6 ТБ / с. После этого была представлена ​​5-уровневая версия HBM2E для дальнейшего увеличения пропускной способности до 2 ТБ / с. И такая пропускная способность может быть достигнута только с 2 уровнями HBM3, а конфигурация 4-го и 5-го уровней является существующей спецификацией памяти в дальнем супермаркете.

Кроме того, метод «логика + HBM» уже не нов, и многие графические процессоры и серверные микросхемы используют аналогичные конструкции. Однако по мере того, как фабрики продолжают прилагать усилия в области технологии упаковки 2.5D, количество HBM на одном кристалле также увеличивается. Например, упомянутая выше технология TSMC CoWoS может интегрировать более 4 HBM в микросхему SoC. Nvidia P100 объединяет 4 HBM2, а векторный процессор NEC Sx-Aurora объединяет 6 HBM2.

Samsung также разрабатывает технологию упаковки следующего поколения I-Cube 2.5D. Помимо поддержки интеграции от 4 до 6 модулей HBM, компания также разрабатывает решение I-Cube 8 с двумя логическими микросхемами + 8 модулями HBM. Похожая технология упаковки 2.5D и EMIB от Intel, но HBM в основном используется в его ПЛИС Agilex.

Заключительные замечания

В настоящее время Micron, Samsung, SK Hynix и другие производители памяти уже следят за этим новым стандартом DRAM. Разработчик SoC Socionext сотрудничал с Synopsys, чтобы представить HBM3 в своей многочиповой конструкции в дополнение к архитектуре x86, которая должна поддерживаться. , Платформа Arm Neoverse N2 также планировала поддерживать HBM3, а RISC-V SoC SiFive также добавила HBM3 IP. Но даже если JEDEC не «застрянет» и выпустит официальный стандарт HBM3 в конце года, нам, возможно, придется подождать до второй половины 2022 года, чтобы увидеть доступные продукты, связанные с HBM3.

Все видели HBM2 / 2E на многих высокопроизводительных чипах, особенно в приложениях для центров обработки данных, таких как NVIDIA Tesla P100 / V100, AMD Radeon Instinct MI25, процессор нейронной сети Intel Nervana, TPU v2 от Google и многие другие.

Приложения потребительского уровня, похоже, отдаляются от HBM. В прошлом AMD Radeon RxVega64 / Vega 56 и Intel KabyLake-G использовали графические продукты HBM, а даже более высокие уровни включают Quaddro GP100 / GV100 от Nvidia и AMD. Профессиональный графический графический процессор, такой как Radeon Pro WX.

Сегодня все эти продукты используют память GDDR DRAM. В конце концов, в потребительских приложениях нет узких мест в полосе пропускания. Напротив, производители микросхем больше всего ценят скорость и стоимость. Однако HBM3 упоминает о преимуществах большей пропускной способности и более высокой эффективности. не снижает затрат.