デザインツール
アプリケーション

エコシステム内でイノベーションを推進

ラリー・ハート | 2024年3月

AIデータセンターソリューションで、マイクロンのパートナーが未来を築く


テクノロジー業界は進化を続けており、マイクロンは、業界で最も革新的で影響力の大きなパートナーと提携することを誇りに思っています。そのようなパートナーをエコシステムの支柱として、私たちは素晴らしいことを行うために連携する製品をお届けしています。皆さんお気付きの通り、データセンター市場は、AIアプリケーションとサービスに対する需要の拡大を原動力として、大きな変貌を遂げています。このブログの情報はすべて公開していますので、脚注に出典を示しました。

私たちのエコシステム パートナーは、自動医療診断、自動運転車、個人に合わせたエンターテイメントの推奨、スマートホーム管理、天気予報、さらにAI生成アートなど、さまざまなAIワークロードを急進させる驚くべきテクノロジーを提供しています。このようなものは、もはや生活に必要不可欠となっています。データセンタープロセッサーとAI向けアクセラレーターに注目して見ていきましょう。
 

現状は?


NVIDIA:
皆さん気づいていないかもしれませんが、NVIDIAは瞬く間に、世界で最も価値のある企業のひとつとなりました。昨年は株価が230%以上上がり、市場キャップは2兆ドルをわずかに下回るほどです(2024年2月26日の終値)。NVIDIAはデータセンターアクレラレーターの第一人者であり、GPUの複数の種類を提供しています。データセンター向けの最新ラインはH100です。H100は、前世代のA1001 に比べて、最大9倍速いAIトレーニングと、最大9倍速いAI推論を実現できます。以前は、多くの人が、A100が高性能GPUであると考えていました。A100を使用して独自のテストを行ったところ、NVIDIAのビッグアクセラレーターメモリテクノロジーを使用して、あるワークロードテストで機能集約が100倍以上改善されたことがわかりました。これは多くの場合、AIトレーニングで最も長くなる部分です。証拠が必要ですか? それならば、マイクロン9400 NVMe SSDに関する2024年1月のブログをお読みください。2

H100は生成AIに大きな変革をもたらすもので、NVDIAにはサプライにかなりの受注残があるとのことですので、入手できるならラッキーです。H200が発表され、さらなるパフォーマンス改善が約束されています。3 これはHBM3Eを使用する初のGPUであり、マイクロンがサプライヤーとなっています。4 しかし、NVIDIAがDGXというブランドのAIサーバーも構築していることを忘れてはなりません。これらのサーバーは巨大なコンピューティングパワーを実現し、DGX H100は驚異的な32ペタフロップを実現します!ご存じないかもしれませんがNVIDIAは、「グローバルテクノロジーカンファレンス(略してGTC)」というカンファレンスを毎年開催しています。次回のカンファレンスは2週間後で、様々な次世代開発が発表されることは明らかです。3月18日月曜日、太平洋時間午後1時から午後3時まで、ジェンセン・ハン氏がキーノートを発表しますのでお見逃しなく。

Intel:  IntelのCEOであるパット・ゲルシンガー氏によると、同社は、「AIをあらゆる場所にもたらすミッション」を行なっており、そのためだけに大きな変革を経ています。同社はNVIDIAとパッケージング契約を締結したとのことで、5外部関係者にファウンドリサービスを提供し、6最重要市場に注力すべく業務を合理化しています。Intelはデータセンタープロセッサーの不動のリーダーとして知られており、XeonスケーラブルプロセッサーなどのAIワークロードをサポートするさまざまな製品を提供しています。最近では、最終世代のプロセッサーのリリースからわずか1年後に第5世代のXeon Emerald Rapidsプロセッサーをリリースしました。その意味が分かりますか? つまり、これは1つのプロセッサから次のプロセッサへの素速い移行であり、Intelの有名なTick-Tock(チクタク)戦略をもじったものでもあります。 😊 同社によると、Emerald RapidsではすべてのコアにAIアクセラレーションが組み込まれており、最大42のパフォーマンスを実現できるとのことです。画像セグメンテーションが42%速くなり、画像分類のパフォーマンスが24%向上し、AI推論が大幅に向上しました。7

では次は?IntelはすでにGranite Rapidsについて公言しており、これは、DeepMD+LAMMPS AI推論を2.9倍向上させるはずです。8

Intelは、現在は小さなシェアではありますが、アクセラレーターとGPUの分野にも参入しています。2024年、同社は次世代Gaudi®3 AIアクセラレーターの発売を計画しています。8 2019年のHabana Labsの買収の結果です。これは、NVIDIAのH10やAMDのMI300Xと競合することが見込まれています。この製品に続いて、Intelは来年、同社のアクセラレーターとGPUのラインナップを製品コード名Falcon Shoresに統合する予定です。8 公開されている詳細はほとんどありませんが、来年、アクセラレーター/GPU 市場セグメントにおいて興味深いものとなることは必至です。

AMD: AMDは、双璧とも呼ばれる、データセンタープロセッサーにおけるもうひとつのリーダーです。高性能、スケーラビリティ、セキュリティをAIアプリケーションで実現するEPYCプロセッサーを展開しています。AMDテストでは、シミュレートされたAIワークロードテストで、世代ごとに大幅な向上を示しています。このブログでは、9 AMDのデータセンターエコシステムおよびソリューション部門コーポレートバイスプレジデントであるラグ・ナンビア氏が、EPYCの第4世代と第3世代の比較に関する洞察を発表しています。ResNet-50の結果は? 3倍以上の改善です。BERT-ラージ? 4倍以上の改善です。Yolo v5? そうです。本当に聞きたいのはこの頭字語の意味です。見るのは1度だけとして意味を差し置くと、1.7倍以上の改善です。このファミリーは幅広いワークロードに最適化されており、汎用コンピューティングだけでなくAI推論にも優れています。AMDのAIロードマップについてはほとんど公には知られていませんが、CEOであるリサ・スー氏は「AIにおけるAMDの機会については非常に喜ばしく思っています。これはAMDの最優先戦略であり、市場にジョイントソリューションをもたらすよう、顧客セット全体に深く関与しています。」と述べています。10

AIトレーニングの場合は、AMD Instinctアクセラレーターを搭載したサーバーによってプロセスが改善され、確実に効率的なモデルパラメーターの最適化が実現します。アクセラレーターの面では、AMDは最近発表されたAMD Instinct™ MI300シリーズをNVIDIAのH100と直接比較することで、NVIDIAとのGPU競争にピリオドを打ちました。最高のパフォーマンス?AIのテラフロップスパフォーマンスが1.3倍向上です!11今日のデータセンターでは、ただ速いだけでは十分ではありません。電力が高価なものになっているので、エネルギー効率を考慮することも必至です。特に、AMD EPYCおよび/またはAMD Instinctアクセラレーターシステムは、現在、世界で最もエネルギー効率の高いスーパーコンピュータのトップ10のうち8機を動かしています。12

Ampere: Ampereはデータセンタープロセッサーの世界では新参者であり、AIおよびクラウド ワークロード向けに設計され、Armベースのテクノロジーで構築された初のクラウドネイティブプロセッサーです。同社の主流のAmpere Altraプロセッサーは、最大128のArmベースコアを備え、データセンター アプリケーションに高いパフォーマンス、電力効率、スケーラビリティを提供します。一例では、Ampereは、Altra MaxがコンピュータビジョンのワークロードにおいてIntelのIce LakeやAMDのMilanよりも 166%高いパフォーマンスを実現していることを示しています。13自然言語処理 (NLP) の別のテストでは、Altra MaxはIce Lakeより73%、Milanより56%高いことを示しています。14

2023年5月、Ampereは、業界有数の192コアを提供するクラウド データセンターに向けてAmpereOneプロセッサーを発表しました。15 同社はまた、「AmpereOne プラットフォームは、さまざまなシステム構成に最適であり、大容量ストレージ、ネットワーキング、AI推論、最新生成AIモデルおよびアプリケーションに向けて最高のパフォーマンスを提供する」とも主張しています。15 AI 需要の急増に伴い、同社は従来の GPUは特に推論に対しては過剰になり、過剰な電力とコストを消費する可能性があると考えています。16 そのため、電力効率の高いソリューションを揃えた幅広いポートフォリオを展開しています。Ampereは、アクセラレーター/GPU市場には参入していません。

他の企業はあるでしょうか? もちろんです!例えば多くのハイパースケーラーは、独自のワークロードに特化したカスタムビルドのプロセッサーやアクセラレーターを展開しています。このカスタマイズにより、クラウド市場において他社よりも有利になると考えられます。
 

コラボレーションがカギです!


私たちはこれらのパートナーと協力してより良い製品を開発し、それらが最適に動作するよう徹底しています。ひとつのシリコンプロバイダーやアクセラレータープロバイダーが素晴らしい結果を出せる一方で、別のプロバイダーはそれとは異なる素晴らしい結果を示すのはなぜか、疑問に思っているのはあなただけではありません。それは、そのようなテクノロジーに対して様々な設計上の決定が行われており、この状況は往々にして特定の機器で起動する特定のワークロードから得る結果に影響するからです。

ですから私の父が言ったように「仕事には正しい道具が必要」なのです。私たちは、皆さんが仕事に対して正しいツールを選べるよう、このようなワークロードに関して広範囲にわたるテストを行なっており、マイクロンのデータセンターストレージインサイトウェブページで、様々な結果を公開しています。

さらに、すでにご覧になっていない場合は、エコシステムパートナーとの提携業務に特化したウェブページをご覧ください。このページでは、厳しいテスト基準を通して、マイクロンがストレージプロバイダーとしてパートナーと連携していることをご紹介しています。このようなパートナーはAIの画期的な進歩によってテクノロジーの状況を変革させており、私たちは彼らの製品が業界と私たちの世界にどのような影響を与えるかを楽しみにしています。エキサイティングなジャーニーになるはずです!

マイクロンの常に進化を続けるエコシステムでの他の開発について、記事を書く予定ですので、またすぐにご覧ください。

Sr. Director, Solution Marketing

Larry Hart

As the Senior Director of Solutions Marketing for Micron’s Storage Business Unit, Larry Hart is deeply committed to creating and marketing impactful technology solutions. With a multifaceted background spanning pricing, product marketing, outbound marketing, product management, and ecosystem development, he leads our strategic efforts to drive better technological alignment within our ecosystem, communicate our solutions in the voice of our customers, and deliver maximum total business value to our customers.