クラウド事業者として国内最速!GMOインターネットグループ、生成AI向けGPUクラウドサービスにNVIDIA Spectrum-Xを初採用
GMOインターネットグループは、2024年12月にリリース予定の生成AI活用の基盤となるGPUクラウドサービスに、国内クラウド事業者として初めてNVIDIA Spectrum-Xイーサネットネットワークプラットフォームを採用することを発表しました。
NVIDIA Spectrum-Xは、AIワークロード専用に設計された世界初のイーサネットファブリック(スイッチ間の接続を最適化してネットワーク機器間の高速かつ効率的なデータ転送を実現する技術)で、生成AIネットワークのパフォーマンスの飛躍的な向上が期待できます。LLM(大規模言語モデル)の開発者や研究者向けに、GPUメモリ容量とメモリバス帯域幅を大幅に拡大・最適化された「NVIDIA H200 GPU」を国内最速で提供することに加え、Spectrum-Xの採用によって大規模言語モデルの開発期間短縮とコスト削減を実現します。
NVIDIA Spectrum-Xは、AIワークロード専用に設計された世界初のイーサネットファブリック(スイッチ間の接続を最適化してネットワーク機器間の高速かつ効率的なデータ転送を実現する技術)で、生成AIネットワークのパフォーマンスの飛躍的な向上が期待できます。LLM(大規模言語モデル)の開発者や研究者向けに、GPUメモリ容量とメモリバス帯域幅を大幅に拡大・最適化された「NVIDIA H200 GPU」を国内最速で提供することに加え、Spectrum-Xの採用によって大規模言語モデルの開発期間短縮とコスト削減を実現します。
生成AI活用のボトルネックとなるネットワーク性能を飛躍的に向上する「Spectrum-X」
生成AIは、データセンター規模で運用され、ユニークなネットワーク特性を示すため、従来のイーサネットネットワーキングではAIの高性能要求を満たすには不十分でした。NVIDIAはこれを解決するため、AI向けに最適化されたイーサネットファブリックを開発。Spectrum-Xが生成AIインフラのネットワーク性能を飛躍的に向上させることからGMOインターネットグループでの採用に至りました。
Spectrum-XはAI向けに構築された初のイーサネットファブリックで、従来のイーサネットファブリック比でネットワーク性能を約1.6倍向上させます。「NVIDIA Spectrum SN5600イーサネットスイッチ」と「NVIDIA BlueField-3 SuperNIC」を採用するSpectrum-Xは、生成AI向けのGPUクラウドサービスに必要なパフォーマンスと機能を備えたエンドツーエンドの接続性を実現。適応ルーティングと混雑制御を活用し、AIに最適化された最高性能のイーサネットネットワーキングを提供します。
NVIDIA Spectrum SN5600イーサネットスイッチは、AI向けの世界初となる毎秒51TBのデータ転送を実現したイーサネットスイッチです。生成AI向けにネットワークの混雑を最小限に抑えながら、大規模かつ大量のデータスループットを提供します。きめ細かなルーティングテクノロジーの採用により、ネットワークインフラを常に最大限に活用できます。
BlueField-3 SuperNICは、ネットワーク集約型の超並列コンピューティング向けに設計されており、GPUサーバー間で最大毎秒400GBのRDMA over Converged Ethernet (RoCE) ネットワーク接続を実現し、クラスタ内のネットワークでの開発パフォーマンスを向上させます。Spectrum-Xの採用は、ユーザーのAI開発期間の短縮とコスト削減を実現します。
Spectrum-XはAI向けに構築された初のイーサネットファブリックで、従来のイーサネットファブリック比でネットワーク性能を約1.6倍向上させます。「NVIDIA Spectrum SN5600イーサネットスイッチ」と「NVIDIA BlueField-3 SuperNIC」を採用するSpectrum-Xは、生成AI向けのGPUクラウドサービスに必要なパフォーマンスと機能を備えたエンドツーエンドの接続性を実現。適応ルーティングと混雑制御を活用し、AIに最適化された最高性能のイーサネットネットワーキングを提供します。
NVIDIA Spectrum SN5600イーサネットスイッチは、AI向けの世界初となる毎秒51TBのデータ転送を実現したイーサネットスイッチです。生成AI向けにネットワークの混雑を最小限に抑えながら、大規模かつ大量のデータスループットを提供します。きめ細かなルーティングテクノロジーの採用により、ネットワークインフラを常に最大限に活用できます。
BlueField-3 SuperNICは、ネットワーク集約型の超並列コンピューティング向けに設計されており、GPUサーバー間で最大毎秒400GBのRDMA over Converged Ethernet (RoCE) ネットワーク接続を実現し、クラスタ内のネットワークでの開発パフォーマンスを向上させます。Spectrum-Xの採用は、ユーザーのAI開発期間の短縮とコスト削減を実現します。
NVIDIA Spectrum-X
生成AI向けGPUクラウドサービスを2024年12月に提供開始
GMOインターネットグループが2024年12月に開始する予定の生成AI向けGPUクラウドサービスでは、毎秒4.8TBで141GB のHBM3eメモリを提供する初のGPU「NVIDIA H200 GPU」を採用する予定です。これは「NVIDIA H100 Tensor コア GPU」の2倍近い容量で、メモリ帯域幅は約1.4倍です。NVIDIA H200 GPUの大容量かつ高速なメモリは、生成AIとLLMの開発効率を向上・開発コストを低減し、生成AIモデルの開発力を底上げします。
NVIDIA H200 Tensor コア GPU
生成AI向のGPUクラウドサービスの性能を強化し、日本国内のAI産業を支援
GMOインターネットグループは、NVIDIA Spectrum-Xの採用により、生成AI向けのGPUクラウドサービスの性能をさらに強化し、日本国内のAI産業の基盤を支援します。これによりAI研究者やスタートアップは、より効率的かつ経済的にAIソリューションの開発と展開が可能となります。GMOインターネットグループは今後も最新技術を積極的に導入し、より高品質な生成AI活用のためのインフラとしてGPUクラウドサービスを提供することで、日本のAI産業の発展、ひいては社会全体の発展に貢献していくとのことです。
AI技術は急速に進化しているため、研究者やスタートアップ企業はいち早く新しい技術を取り入れて研究や開発を進める必要があります。しかし研究機関においても企業においてもリソースに限りがあるため、新たな機器やサービスを次々と導入するわけにはいきません。
世界全体でAIの利活用が進む中で研究開発に後れを取らないためには、生成AI向けGPUクラウドサービスが一つのカギを握ることは間違いないでしょう。国内ホスティング事業者として最速となる生成AIインフラである超高速GPUクラウドサービスが誕生するのは2024年12月とのこと。AI研究者やスタートアップ関係者は、ぜひその日を心待ちにしておいてください。
AI技術は急速に進化しているため、研究者やスタートアップ企業はいち早く新しい技術を取り入れて研究や開発を進める必要があります。しかし研究機関においても企業においてもリソースに限りがあるため、新たな機器やサービスを次々と導入するわけにはいきません。
世界全体でAIの利活用が進む中で研究開発に後れを取らないためには、生成AI向けGPUクラウドサービスが一つのカギを握ることは間違いないでしょう。国内ホスティング事業者として最速となる生成AIインフラである超高速GPUクラウドサービスが誕生するのは2024年12月とのこと。AI研究者やスタートアップ関係者は、ぜひその日を心待ちにしておいてください。
安蔵 靖志
Techジャーナリスト/家電エバンジェリスト
家電製品協会認定 家電製品総合アドバイザー(プラチナグレード)、スマートマスター。AllAbout デジタル・家電ガイド。ビジネス・IT系出版社を経てフリーに。デジタル家電や生活家電に関連する記事を執筆するほか、家電のスペシャリストとしてテレビやラジオ、新聞、雑誌など多数のメディアに出演。KBCラジオ「キャイ~ンの家電ソムリエ」にレギュラー出演するほか、ラジオ番組の家電製品紹介コーナーの商品リサーチ・構成にも携わっている。