デザインツール

無効な入力です。特殊文字はサポートされていません。

広帯域メモリ

人間の壮大な挑戦に応えるメモリ

HBM4は、人工知能と科学計算の可能性を飛躍的に広げるメモリです。何百万もの論理ステップを経て新薬を設計する推論モデルや、地球の気候を把握するために惑星規模の嵐をモデル化する研究者たちを想像してみてください。HBM4は、テラバイト級のデータを高速で処理することで、私たちの未来を形作る技術や科学への挑戦を可能にします。

大きな志に応えるメモリ

未来の大きな課題に応える技術仕様

マイクロンのHBM4は、11.0Gbpsを超える速度で動作する2048ピンの広帯域バスインターフェースを備え、前世代の2倍を超える1スタック当たり2.8TB/秒超の帯域幅を実現します。帯域幅が拡張されたことにより、数百万トークンに及ぶ超大容量コンテキストウィンドウから、マルチモーダルAIシステムによる安定したリアルタイム応答まで、新たなAIワークロード要件に対応できます。

帯域幅が2倍以上に*

帯域幅が2倍、最大2.8TB/秒を実現するHBM4

バス幅が2倍に*


バス幅が2倍の2048I/Oを実現するHBM4

電力効率が向上*


電力効率が20%向上したHBM4

* HBM4 12-highとHBM3E 12-highの比較。電力効率は、同程度の速度における1ビットあたりのピコジュール(pJ/bit)で測定。

推論から科学的発見まで広がるHBM4の応用分野

HBMテクノロジーは、大量のデータを格納し、そのデータにすばやくアクセスするという重要な課題を解決することで、AIや科学計算に新たな道を開きます。これらの分野が発展するにつれ、より大きなメモリ容量と、きわめて高速なデータアクセスの両方が求められます。大容量と2.8TB/秒を超える帯域幅を兼ね備えたマイクロンの最新HBM4は、人類がさらなる大きな課題に挑むことを可能にします。

高度な推論

推論モデルは、複雑な問題を段階的に解いていく科学者のようなものです。これらのAIシステムは、時間をかけて問題を評価し、メモリ内に精緻な論理の連鎖を構築しながら、多くの解決の糸口を探索します。このプロセスは大量のメモリを必要とします。モデルは推論の過程で、大量のコンテキストを保持しておかなければならないためです。HBM4により、モデルはこのデータにすばやくアクセスして更新できるため、途切れることなく推論を進められます。

高度な推論の画像

マルチモーダルAI

マルチモーダルAIシステムは、私たちと同じように、さまざまな種類のデータを同時に処理します。これには、テキスト、画像、動画、音声、センサーデータが含まれます。これらのシステムは、一度に1つの形式だけを扱うのではなく、それらを組み合わせることで、「シングルモード」のAIでは理解できない文脈を理解します。広帯域メモリは、AIシステムがこうしたすべての形式をメモリ内に同時に保持し、その関連性を見いだせるよう支援します。

トマトを摘み取るロボットの画像

AIエージェント

AIエージェントは、タスク完了を実行するためのツールを与えられたAIシステムだと考えてください1。複雑なタスクを連携して進めるには、大規模なデータセットをメモリ内に保持しながら、そのデータに高速でアクセスする必要があります。これらのAIエージェントは、適切なデータを適切なプロセスにつなげることに優れています。HBM4は、マルチエージェントシステムでこれらのエージェントが連携し、共有インテリジェンスのネットワークを構築するために必要な広帯域を提供します。

製造現場の画像

科学計算と高性能コンピューティング

HPCシステムにより、従来のコンピューティングでは不可能だったシミュレーションを実行できるようになります。たとえば、スーパーコンピューターは膨大なデータセットをメモリ内に保持しながら、地球の大気や木星の太古の嵐のような惑星現象など、複雑なシステムをモデル化します。問題をどれだけメモリに収められるかはHBM4の容量によって決まり、その問題をどれだけ速く解けるかはHBM4の帯域幅によって決まります。

地球の曲率の画像

よくある質問

ここでは、HBM4に関するよくある質問への回答をご覧いただけます。製造方法、どのような場合に他の種類のメモリと併用すべきか、さらにマイクロンの最新の広帯域メモリテクノロジーに関する重要な情報などを紹介しています。

HBMはHigh Bandwidth Memoryの略で、広帯域メモリを意味します。「4」は、HBMのアーキテクチャーが第4世代目であることを示しています。チップが横に並んで配置される従来のメモリとは異なり、HBMではDRAMダイを積層し、シリコン貫通ビア(TSV)を使用してシリコン内部に直接の電気的経路を形成します。つまり、データはチップの端を迂回するのではなく、シリコンスタック内を直接流れることができます。

2.8TB/秒を超えるHBM4の帯域幅は、テラバイト規模のデータを高速で移動する必要があるAIやHPCのアプリケーションで特に重要です。たとえば高度な推論モデルでは、問題を処理する過程で何百もの中間的な論理ステップを評価しなければなりません。そのため、計算が進むにつれて、メインメモリとプロセッサーの間で毎秒数テラバイトのデータが行き来する必要があります。

HBM4は他の種類のメモリに置き換わるものではなく、それらと組み合わせて使用されます。たとえば最新のシステムでは、CPUがLPDDR5やDDR5を使用してシステム全体を制御し、GPUはHBM4を使用して高負荷の演算処理、つまり複雑なアルゴリズムの処理を担います。

HBM4は、HBM3およびHBM3Eで優れていた要素をすべて受け継ぎ、さらに強化したものです。より広帯域のインターフェースが11.0Gbpsを超える速度で動作し、前世代の2倍を超える帯域幅を実現します。これは、数百万トークンに及ぶ超大容量コンテキストウィンドウを持つAIワークロードから、次世代スーパーコンピューター上で実行される科学シミュレーションまで、新たな要件に対応できることを意味します。

DDRメモリなどの従来のDRAMは一般的なコンピューティングタスクを担う一方、HBMはテラバイト級のデータ処理の継続を必要とするAIやHPCのアプリケーションを支えます。HBMのアーキテクチャーでは、極薄のDRAMダイを積層し、数千本のシリコン貫通ビア(TSV)で接続しています。この垂直設計には、より高い製造精度が求められるため、HBMは製造が特に難しいメモリ製品の1つとなっています。

HBM4 12-highは、前世代と同じく1スタック当たり36GBのメモリ容量を提供しながら、2.8TB/秒を超える帯域幅を実現しています。この帯域幅の向上(HBM3Eの2倍超)により、プロセッサーはこの容量のデータにはるかに高速にアクセスできるようになり、同じ容量の前世代メモリでは処理できなかった、より高負荷のAIワークロードや科学シミュレーションに対応できます。

容量はメモリが保持できるデータ量を指し、帯域幅はそのデータのうち1秒間にどれだけ流せるかを示します。HBM4 12-highスタックは36GBのデータを格納できます。また、2.8TB/秒とは、HBMとプロセッサーの間で1秒間に2.8テラバイト(TB)相当のデータをやり取りできることを意味します。容量は、どれだけのデータをメモリに格納できるかを決定し、帯域幅は、そのデータにどれだけ速くアクセスできるかを決定します。

広帯域メモリの製造は、3種類のシリコンウエハーの製造から始まります。1つは、電気的接続のためのシリコン貫通ビア(TSV)を備えたダイを製造します。もう1つは、TSVを持たない、より厚いトップダイを製造します。3つ目は、システムとのインターフェース用に、TSVを備えたロジックダイを製造します。

検査に合格したダイだけが、その後の組み立て工程に進みます。その後、専用装置を使用して、ロジックダイの上に複数のDRAMダイを積層します。より厚いトップDRAMダイによってスタックが完成し、メモリ機能と構造的な安定性が確保されます。組み立て後、完成したHBMキューブは、すべての接続が正常に機能することを確認するための最終テストを受けます。

はい、HBM4はGPUとカスタムASIC(特定用途向け集積回路)の両方で使用できます。このメモリは、その広帯域インターフェースに対応し、適切なパッケージを備えたあらゆるプロセッサーに接続できます。

ハイエンドコンピューティングシステム(スーパーコンピューターなど)は、エクサバイト規模のデータを用いてAIモデルをトレーニングし、科学的課題を解決します。これを効率的に行うには、何千ものプロセッサーコアを常に稼働させ続けられるだけの速度でデータを移動できるメモリが必要です。2.8TB/秒を超える帯域幅を備えたHBM4は、AIトレーニングを高速化し、KVキャッシュへの高速アクセスによって推論レイテンシーを低減し、より詳細な科学シミュレーションを可能にします。

1 Anthropic. (2026年2月18日)。実運用におけるAIエージェントの自律性の測定。https://www.anthropic.com/research/measuring-agent-autonomy