デザインツール
会社概要

卓越したパフォーマンスを実現したマイクロンとAMD

クリシュナ・ヤラマンキ、スダルシャン・ヴァジクダイ | 2023年9月

マイクロンとAMDは、96GB DDR5と第4世代AMD EPYC™プロセッサーの組み合わせにより、クラウドネイティブなワークロードで卓越したパフォーマンスを実現

マイクロンは先日、計算集約型の人工知能(AI)、データ解析、メモリを重視したワークロードへの対応を支援する高性能レジスタードメモリソリューションの発売開始を発表しました。AMDとのコラボレーションで私たちが共同の目標としたのは、マイクロンDDR5の能力と第4世代AMD EPYC™プロセッサーの高度な機能を活用して、高性能コンピューティング(HPC)のワークロードを向上させることでした。それ以来、両社は2023年1月にDDR5 DIMMで24GB、48GB、96GBといった新たな容量の検証に成功するなど、大きな進歩を遂げてきました。このブログ記事では、第4世代AMD EPYCプロセッサーと組み合わせた新しい96GB DDR5の優れたパフォーマンスを紹介します。

強みを活かして改善を達成

AMDとのコラボレーションで、マイクロンは最新のAMD EPYCプロセッサーのクラウドネイティブなコンピューティングの強みを活かし、優れた電力効率を実現しています。この改善は、サステナビリティ目標をターゲットとしており、ワットあたりの高性能とともに、データセンター業界で広く用いられている主要な指標と完全に一致しています。

この組み合わせの主な強みを以下に挙げます。

  • 最先端のパフォーマンス AMD EPYC 9754プロセッサーは、クラウドネイティブなワークロードの要求に応えるように設計されています。プロセッサーあたり最大128個の物理コアと余裕のあるL3キャッシュサイズ(プロセッサーあたり最大384MB)で、高レベルの並列処理能力を実現します。このパワーのおかげで、並行タスクの効率的な実行が可能になり、クラウドネイティブアプリケーションに求められるスケーラビリティに対応できます。
  • DDR5の驚異的な速度 マイクロンのDDR5メモリモジュールは、最大51.2GB/秒という驚異的な速度を出すように設計されており、システム内で高速なデータアクセスと転送ができます。この高い帯域幅のおかげで、大規模なデータセットをシームレスに処理し、クラウドネイティブなワークロードに求められる迅速なデータ処理に対応できます。
  • 最先端の処理:マイクロンの先進的な1β(1ベータ)ノードプロセッシングテクノロジーには複数のメリットがあります。電力効率を15%改善し、エネルギー消費を最小限に抑えながら、コンピューティング能力を高めます。さらに、ダイあたりの容量が16GBとなり、前世代の1α(1アルファ)よりもビット密度が35%向上しているため、メモリ容量を増やし、システム全体のパフォーマンスを向上させることができます。
  • データの整合性と信頼性の向上:マイクロンDDR5メモリに統合されたエラー訂正コード(ECC)パリティは、メモリエラーを検出して訂正することでデータの整合性を確保します。この機能は、重要データを大量に処理するクラウドネイティブなワークロードにとって極めて重要であり、潜在的なデータ破損に対する追加の保護レイヤーとなります。ECCパリティの存在によって、システム全体の信頼性と安定性が向上します。
  • エネルギー効率とパフォーマンス:最新のAMD製128コアプロセッサーは、エネルギー効率に重点を置き、クラウドネイティブなワークロードに対応しつつ、卓越した電力効率を実現します。このプロセッサーは、実証済みのRAS(信頼性、可用性、保守性)機能と、x86ハードウェア・ソフトウェアとの幅広い互換性を誇ります。マイクロンのテストでは、前世代と比較してワットあたり2.68倍という大幅なパフォーマンス改善を確認しています。

AMD EPYC 9754プロセッサー、高速で効率的なマイクロンDDR5メモリ、堅牢なECCパリティ機能を活用することによって、クラウドネイティブなワークロードに最適なソリューションが登場します。この組み合わせによって、高性能コンピューティング、効率的なデータ処理、幅広いメモリ容量、信頼性の高い稼動が可能になります。これらはすべて、今日のデータセンター環境におけるクラウドネイティブなアプリケーションに不可欠です。

クラウドのメモリ内データストアの設定とベンチマーク

私たちがマイクロンならではのITクラウドネイティブ環境に近いワークロードをシミュレートするために選択したのが、Redis YCSB Proofpoint Workload Dです。このワークロードは2億5,000万行あり、それぞれのレコードサイズは2KBで、データベースの総サイズは925GBになります。

テストのセットアップでは、パフォーマンスとスケーリングに重点を置き、1台のRedisサーバーと4台のクライアントで64インスタンスを実行しました。パフォーマンスは1秒あたりのオペレーション数(ops/s)で測定し、レイテンシーが前世代と同じかそれよりも低くなるようにしながら、ワークロードをスケーリングしました。

   DDR4でのテスト   DDR5でのテスト
 プロセッサー  デュアルCPU第3世代AMD EPYC 7763(64コア、3.7GHz)  1CPU第4世代AMD EPYC 9004(128コア、3.7GHz)
 メモリ容量  DDR4 3200(1チャネルに1つのDIMM)1TB  DDR5 4800(1チャネルに1つのDIMM)1.15TB
 メモリ(DIMM)  64GB  96GB
 ソフトウェアスタック  Alma 9 Linuxカーネル5.14  Alma 9 Linuxカーネル5.14
 消費電力  321ワット   161ワット
 1秒あたりのオペレーション数(ops/s)  739,655  978,191
 1ワットあたりのops/s  2262  6064
 レイテンシー  0.19ミリ秒   0.14ミリ秒 

結果

このテストでは、925GBのRedisデータベースに10億件のレコードをロードし、64台のインスタンスを動作させて、978,191ops/sのスループットを達成しました。この結果は、平均読み取りレイテンシーが0.14ミリ秒だった前世代と比較して32%の大幅な改善となります。特筆すべきは、第4世代AMD EPYCプロセッサーを1基搭載したシステムのテストでは、第3世代AMD EPYCプロセッサーを搭載したデュアルソケットDDR4システムよりも消費電力が47%少なくなったことです。

マイクロンDDR5メモリは、より低電圧で動作し、効率的でコア数の多い最新のAMD EPYCプロセッサーと組み合わせることができます。その結果、ワットあたりのパフォーマンスは2.68倍と大幅に向上しました。

まとめ

ここではメモリ内データベースをテストした結果を紹介しましたが、クラウドネイティブなワークロードでも同様の結果が得られます。クラウドネイティブなワークロードは通常、コンテナ化されており、マイクロサービスベースで、継続的な統合とデリバリーを行うために最新のDevOpsプラクティスを使用します。クラウドネイティブなワークロードは、サーバーレスコンピューティング、マネージドデータベース、コンテナオーケストレーションプラットフォームといったクラウドネイティブなテクノロジーやサービスを最大限に活用し、高性能、可用性、耐障害性を実現するように設計されています。

こうしたワークロードをパブリッククラウドやエンタープライズ経由で利用する最終顧客は、現在のインスタンスや既存インフラと比較して、総所有コスト(TCO)を大幅に削減できます。

マイクロンとAMDの画期的なコラボレーションや、第4世代AMD EPYCプロセッサーに搭載された96GB DDR5 DIMMの優れたパフォーマンスについて詳しくは、ぜひお問い合わせください。マイクロンの専門家チームが詳細なインサイトと技術仕様を提供し、皆さんのご質問にお答えします。データセンターの進歩について詳しく知り、AMDとマイクロンのコラボレーションによって実現する可能性についてご検討ください。

マイクロンデータセンターワークロードエンジニアリングチームのムクティカンタ・サーが寄稿しました。

Sr Manager, Ecosystem Enablement

Krishna Yalamanchi

Krishna is a Senior Ecosystem Development Manager, focusing on DDR5 and CXL solutions. Previously, Krishna lead SAP HANA migration for Intel IT, launched 3rd and 4th generation Intel Xeon for SAP workloads via their partner ecosystem for SI’s, OEM’s and Cloud Service Providers.

Director, Workload Analytics

Sudharshan Vazhkudai

Dr. Sudharshan S. Vazhkudai is the Director of System Architecture / Workload Analytics at Micron. He leads a team spread across Austin and Hyderabad, India, focusing on understanding the composability of the memory/storage (DDR, CXL, HBM and NVMe) product hierarchy and optimize system architectures for data center workloads.