無効な入力です。特殊文字はサポートされていません。
現在私たちが使用しているGPUサーバーは、近い将来、空冷から液冷へと移行します。現在の空冷システムでは、たとえば、8Uのラックスペースを占有し、前面に8基のSSDを配置することで、仕様を満たすために十分なエアフローを確保する構成が一般的です。ところが新しいサーバーでは、液体冷却が必須となるため、同じ8GPUの構成でもサイズは2Uに縮小されます¹。つまり、これまでのように8基のSSDを広いシャーシの中に余裕をもって配置する必要性が突然なくなるのです。今後は、ワット単位の廃熱が問題となる高密度な熱環境の中に組み込まれることになります。
この変化こそが、マイクロンが液冷SSDの設計を推進する契機となりました。ストレージも冷却ループの一部として機能する時代が来ています。単にそこに存在しているだけでは済まされません。E1.S(9.5mm)のフォームファクタのMicron 9650 NVMe™ SSDは、まさにこの目的で新たに設計されました。
このブログでは、SSDにおいて液冷が重要である理由、コールドプレート冷却の仕組み、そして9650 SSDの片面アーキテクチャーがコールドプレート接触に最適な設計である理由について解説します。
まずは、ちょっとした数学の話
マイクロンのテクニカルブリーフでは、それぞれ25WのNVMe SSDを32基搭載したサーバー(合計800W)について、2つの温度シナリオでシミュレーションを行っています。ファンによるエアフローと、ポンプによる液体冷却の両方について、効率に関する現実的な仮定に基づく標準的な熱伝達方程式を使用しました。データセンターの周囲温度とSSDの温度の差が11.1°Cの場合と、差が8.3°Cと小さい場合についてシミュレーションを行いました。温度差が大きいほど空冷の効率は向上しますが、これは同時に、データセンターの周囲温度の変化に対して空冷のほうが敏感であることを意味します。
ドライブベイが密集した場所に空気を吹き付ける方式とは異なり、コールドプレートは、熱伝導性の高い金属ブロックと高速で流れる冷却剤を、可能な限り熱源の近くに配置するものです。コンポーネントの温度を下げると同時に、サーバーから熱を排出するために必要な電力を大幅に削減することになります。
さらに、この技術は拡張性にも優れます。Vertivのケーススタディでは、液冷の導入率を0%から75%へ高めた4つのデータセンター構成を追跡調査しています²。施設全体の消費電力は10.7%削減されました。対象はコンピューティング電力だけではなく、空調、ファン、照明など、施設全体に及びます。
SSDにおけるコールドプレート冷却の仕組み
コールドプレートとは、機械加工された金属ブロックの内部に微細な流路を形成したものであり、サーマルインターフェースマテリアル(TIM:熱伝導材料)を用いてSSDエンクロージャに取り付けられます。このプレート内を水・グリコール混合液などの冷却剤が流れ、デバイスから直に熱を抽出して、施設の冷却ループへ搬送します。
最新の実装では、盲嵌合・クイックディスコネクト式の連結管を備えたバネ式のコールドプレートが採用されています。ストレージドライブを抜き取ると、冷却剤のラインが自動的に外れます。交換用ドライブを差し込むと、再接続されます。エンタープライズおよびハイパースケール環境での実装に不可欠な要件である、完全なホットスワップ対応を維持できます。
液冷向けに設計されたMicron 9650 NVMe Gen6 SSD
従来のSSDでは、コントローラ、DRAM、NANDなどの発熱コンポーネントが、PCBの両面に分散して配置されています。コールドプレートが一方の面にしか接触しない場合、反対側の面で発生した熱をコールドプレートに到達させるには、PCBの中を通って伝導する必要があります。この場合、熱抵抗が増加し、冷却効率が損なわれ、NANDダイ間で温度差が生じます。二重のコールドプレートや、エンクロージャの厚みの増加、二次的なヒートスプレッダといった回避策は、コストと複雑性を増大させるだけで、根本的な問題解決にはなりません。これはシステムレベルの配管の問題ではなく、ドライブレベルの設計の問題です。
Micron 9650 SSDでは、異なるアプローチを採用しています。上の図でお気づきかもしれませんが、マイクロンは発熱コンポーネントの約90%をPCBの一方の面に集中させています。一般的な設計では、この割合はおよそ60%です。このように決定した上で、コールドプレートと組み合わせることにより、冷却アーキテクチャーの残りの部分を以下のように機能させています。
- コールドプレートとの直接接触:主要な伝熱面全体で均一な熱界面を確保し、熱抵抗を最小限に抑える
- NANDの温度均一性が向上:ダイ間における温度差が減少することで、耐久性と信頼性が向上
- Gen6速度におけるスロットリングゼロ:より高い帯域幅と消費電力においても、液冷方式を採用した前世代のGen5ドライブと同等の熱的パフォーマンスを実現
- 標準のE1.Sフォームファクタ:既存の9.5mm EDSFF液冷シャーシにおけるホットスワップ互換性を確保
システムレベルでの変化
ドライブレベルの設計は重要ですが、興味深いのは、システムレベルで得られるメリットです。SSDが専用のエアフローに頼らず、液冷ループに組み込まれるようになれば、システム設計者はこれまでにない選択肢を手にすることができます。
- ストレージゾーン内のファンの数が減少(またはゼロ):ドライブの冷却に使用していたファンの数が減る(または完全になくなる)ことで、節電になり、騒音負荷が軽減します。
- サーバーあたりのSSD密度の向上:エアフローによるスペースの制約がなくなれば、より小さいラックスペースにより多くのドライブを収容できます。
- 継続的なAIワークロードにおけるサーマル挙動の予測可能性が向上:液体冷却を採用することで、GPU、CPU、ストレージ間でエアフローを共有することに伴う変動性が解消されます。
これは単なる理論上の話ではありません。Deltaなどのエコシステムパートナーは、SSDコールドプレートを内蔵した完全液冷式のサーバープラットフォームをすでに出荷しています³。Micron 9650はこれらの構成に、コールドプレート環境向けに特別に設計されたE1.S(9.5mm)フォームファクタで対応しています。ASHRAE TC 9.9の産業用熱設計ガイドラインでは、データ処理機器の許容温度範囲が定義されており⁴、ドライブ密度が高い場合でも、液体冷却によって推奨範囲に十分収まるような動作が可能になります。
見逃せないもう一つのポイントは、効率性の向上です。液体冷却については一般に熱的余裕の観点から議論されますが、その真の価値は、ワットあたりのパフォーマンスに表れます。高回転のファンで電力を消費せずに、システム全体の冷却負荷を低減させると、その分のワット数を他のリソースに活用できるようになります。9650は、液冷アーキテクチャーに加え、前世代を上回るワット当たりパフォーマンスの向上も実現しており、これはサステナビリティ目標の達成と総所有コストの改善の双方に直接寄与します。
将来の展望
高密度のAIインフラでは、SSDの液体冷却が不可欠な要件になりつつあります。Uptime Instituteが実施した「2024年グローバルデータセンター調査」(Global Data Center Survey 2024)では、約20%の事業者が液体冷却を導入済みか、導入を計画していることが明らかになりました⁵。Micron 9650の片面アーキテクチャーは、コールドプレートとの接触を想定して特別に設計されています。この設計こそが、SSDにおける液体冷却の実用化を可能にしています。
加えて、SSDの熱環境を改善することで、コントローラのクロック周波数、書き込みスループット、持続的なワークロードパフォーマンスに関して、さらなる可能性を追求できる余地が生まれます。マイクロンはこの分野に引き続き注力していきますので、今後をどうぞご期待ください。
エアフロー計算や導入の詳細を含む完全な熱力学的解析については、 「マイクロンの液冷SSDに関するテクニカルブリーフ」をご覧ください。
詳細はmicron.com/9650のMicron 9650 NVMe SSDをご覧ください。
参考資料
- Vertiv, “The Impact of Liquid Cooling on Data Center Power Consumption,” 2024. 液体冷却の導入率が0%から75%の4つのデータセンター構成を追跡調査したケーススタディです。施設全体の電力消費量が10.7%削減されたことが示されています。
- Delta Electronics, “Liquid Cooling Solutions for Data Centers,” 2024–2025. Deltaは、CPU、GPU、ストレージ用のコールドプレートを内蔵した完全液冷式のサーバープラットフォームを提供しています。関連項目:Dell PowerEdge XE9680L、HPE ProLiant DL384、およびSupermicroの液冷式GPUサーバープラットフォーム。
- ASHRAE TC 9.9, Thermal Guidelines for Data Processing Environments, 5th Edition, 2021. データセンターのIT機器について、推奨(A1~A4)温度範囲および許容温度範囲を定義しています。
- Uptime Institute, Global Data Center Survey 2024. 約20%のデータセンター事業者が、液体冷却インフラを導入済みか、または導入を積極的に計画していると報告しています。