Micron.comへようこそ。続けるにはアカウントにログインするか、新たにアカウントを作成してください。
無効な入力です。特殊文字はサポートされていません。
AIイノベーションの推進スピードを加速
業界最高のプロセステクノロジーでAIとスーパーコンピューティングのために構築されたHBM3E
エンジニアリングレポート:LLMのパフォーマンスにおけるHBMの影響
よくある質問
HBM3E 8層積層24GBは、2024年第2四半期からNVIDIA H200 Tensor Core GPUに搭載されます。HBM3E 12層積層36GBメモリは、現在サンプル出荷を行っています。
マイクロンの8層積層および12層積層のHBM3Eは、ピンあたり9.2Gbps超という業界最高峰のスピードを実現しています。また、HBM2の第1世代デバイスのデータレートと互換性があります。
マイクロンの8層積層および12層積層のHBM3Eは、配置あたり業界最高峰の1.2TB/秒を超える帯域幅を提供しています。HBM3Eには1024のIOピンがあり、9.2Gbpsを超えるHBM3Eのピン速度は1.2TB/秒を超えるレートを実現しています。
マイクロンの業界最高峰の8層積層HBM3Eは、配置あたり24GBの容量でご利用いただけます。最近発表されたマイクロンの12層積層のHBM3Eキューブは、配置あたり36GBという驚異的な容量を実現しています。
マイクロンの8層積層および12層積層のHBM3Eは、配置あたり業界最高峰の1.2TB/秒を超える帯域幅を実現しています。HBM3Eには1024のIOピンがあり、9.2Gbpsを超えるHBM3Eのピン速度は1.2TB/秒を超えるレートを実現しています。
HBM2は、ピンあたり3.6Gbpsで動作し最大410GB/秒の帯域幅を実現する8つの独立したチャネルを提供します。また、4GB、8GB、16GBの容量からお選びいただけます。HBM3Eでは、16の独立チャネルと32の疑似チャネルをご利用いただけます。マイクロンのHBM3Eは、配置あたり1.2TB/秒を超える業界最高峰の帯域幅で9.2Gbps以上のピン速度を実現しています。マイクロンのHBM3Eは、8層積層で24GB、12層積層で36GBの容量となります。マイクロンのHBM3Eは、競合製品よりも30%低い消費電力でご利用いただけます。
製品概要をご覧ください。
注目のリソース
1. 製造テスト環境で実施したピン速度のシュムープロットに基づいたデータレートテストの推定値。
2. 同じ積層数で容量が50%アップ。
3. ワークロード使用例のシミュレーション結果に基づいた消費電力と性能の推定値。
4. 現在の出荷プラットフォーム(H100)と比較した、ACMの出版物を参照したマイクロンの内部モデルに基づく。
5. バーンスタインの調査レポート『NVIDIA (NVDA): A bottoms-up approach to sizing ChatGPT opportunity(エヌビディア、ボトムアップ・アプローチによるChatGPT機会の見極め)』(2023年2月27日発行)を参照したマイクロンの社内モデルと現在の出荷プラットフォーム(H100)との比較に基づく。
6. 市販のH100プラットフォームを使用したシステム測定と直線外挿法に基づく。