GMOインターネットグループのGMOインターネットが提供する生成AI向けGPUクラウドサービス「GMO GPUクラウド」は、「NVIDIA Blackwell Ultra GPU」を搭載した「NVIDIA HGX B300 AI インフラストラクチャ(以下、HGX B300)」を導入したクラウドサービスの提供を2025年12月16日に開始しました。
サーバー1台を専有するベアメタル構成により、AI推論モデルに最適化されたHGX B300の性能を引き出し、大規模言語モデルの高速推論やエージェント型AI開発など、最先端AIワークロードに最適な高性能環境を国内で最初に提供します。GMOインターネットは、AI・ロボティクス時代の研究開発のみならず、その利活用を支える新たな計算基盤として展開していくとのことです。
サーバー1台を専有するベアメタル構成により、AI推論モデルに最適化されたHGX B300の性能を引き出し、大規模言語モデルの高速推論やエージェント型AI開発など、最先端AIワークロードに最適な高性能環境を国内で最初に提供します。GMOインターネットは、AI・ロボティクス時代の研究開発のみならず、その利活用を支える新たな計算基盤として展開していくとのことです。
HGX B300を利用できる、GMO GPUクラウドのベアメタルプラン
HGX B300を導入したクラウドサービスの概要は以下の通りです。
HGX B300を導入した「GMO GPUクラウド」のサービス概要
NVIDIA Blackwell Ultra GPU(GPUメモリ)の特徴
HGX B300をNVIDIA H200 GPUと比較したスペックは、以下の通りです。
・メモリ容量:288GB(H200比204%)
・FP4演算精度に新規対応
・FP8 Tensor Core性能:最大2.25倍に向上
・FP4演算精度に新規対応
・FP8 Tensor Core性能:最大2.25倍に向上
NVIDIA B300の特徴
以下のような特徴により、HGX B300は大規模モデルの学習をより高速かつ省電力で実行可能にします。
大規模学習の効率化
・学習性能が、H200比で最大4倍へ向上
・GPUメモリ容量や帯域幅など、主要性能が大幅に強化
・ワットあたりの性能も向上
推論がより強化
・推論性能が、H200比で11倍へ向上
・FP4対応によりVRAM使用量を削減し、同時にスループットも改善
・過去最大のGPUメモリ容量
・学習性能が、H200比で最大4倍へ向上
・GPUメモリ容量や帯域幅など、主要性能が大幅に強化
・ワットあたりの性能も向上
推論がより強化
・推論性能が、H200比で11倍へ向上
・FP4対応によりVRAM使用量を削減し、同時にスループットも改善
・過去最大のGPUメモリ容量
ネットワーク構成
HGX B300は、8基のNVIDIA ConnectX-8 SuperNICs、複数のGPUを接続および拡張させる合計6400GbpsのNVIDIA Spectrum-X Ethernetスイッチにより超高速通信を実現します。低レイテンシ設計により、大規模なAI学習時のデータ転送を高速化し、複数サーバーを組み合わせた分散学習環境でも安定した高性能を発揮します。
NVIDIA B300とNVIDIA H200の比較は、以下の通りです。
NVIDIA B300とNVIDIA H200の比較
自由度の高いベアメタルプランに初期設定などの手間を軽減する仕組みも備える
今回、国内初の提供を開始する「GMO GPUクラウド ベアメタルプラン」では、仮想化レイヤーを介さずGPUに直接アクセスすることで、演算性能を最大限に引き出す完全専有環境を実現します。AI推論処理に特化した演算能力を活かし、大規模言語モデルの高速推論やエージェントAI開発など、多様なワークロードにも適しています。
またベアメタルならではの自由度を保ちつつ、初期設定やネットワーク構築の手間を軽減する以下のような仕組みを備えています。
・Ubuntu OS初期セットアップ済みで提供
・インターコネクトネットワーク設定済み(ローカルNWも利用可能)
・管理ダッシュボードによるサーバー管理機能
・追加ストレージの利用が可能
これらにより、ユーザーは構築工数を抑えながら、高いパフォーマンスと柔軟なチューニング性を両立したGPU環境を利用できます。
またベアメタルならではの自由度を保ちつつ、初期設定やネットワーク構築の手間を軽減する以下のような仕組みを備えています。
・Ubuntu OS初期セットアップ済みで提供
・インターコネクトネットワーク設定済み(ローカルNWも利用可能)
・管理ダッシュボードによるサーバー管理機能
・追加ストレージの利用が可能
これらにより、ユーザーは構築工数を抑えながら、高いパフォーマンスと柔軟なチューニング性を両立したGPU環境を利用できます。
NVIDIA B300 におけるサーバー構成イメージ
GMOインターネットは、GMO GPUクラウドを中核としたAIインフラ戦略により、急速に進化するAI・ロボティクス分野の技術革新に貢献するとしています。今後も最新のAI計算基盤の提供と、お客様のニーズに応じた柔軟なクラウド環境の構築により、日本のAI産業に不可欠な国産AI基盤として、社会と産業のAIイノベーション創出に貢献していくとのことです。
GMO GPUクラウドがHGX B300を導入したことで、H200比で最大11倍の推論性能と大容量メモリを提供する、国内最速の超高性能計算基盤をAI開発企業にもたらします。仮想化オーバーヘッドのないベアメタル環境と、初期設定を軽減する仕組みにより、大規模AIモデル開発や高速推論が飛躍的に効率化され、企業の時間とコストを大幅に削減します。
革新的なAI技術が普及することで、自動運転や医療診断、産業ロボットなど幅広い分野での効率化とイノベーション促進に寄与し、経済・生活の質向上や社会課題の解決につながることが期待されます。
GMO GPUクラウドがHGX B300を導入したことで、H200比で最大11倍の推論性能と大容量メモリを提供する、国内最速の超高性能計算基盤をAI開発企業にもたらします。仮想化オーバーヘッドのないベアメタル環境と、初期設定を軽減する仕組みにより、大規模AIモデル開発や高速推論が飛躍的に効率化され、企業の時間とコストを大幅に削減します。
革新的なAI技術が普及することで、自動運転や医療診断、産業ロボットなど幅広い分野での効率化とイノベーション促進に寄与し、経済・生活の質向上や社会課題の解決につながることが期待されます。

安蔵 靖志
Techジャーナリスト/家電エバンジェリスト
家電製品協会認定 家電製品総合アドバイザー(プラチナグレード)、スマートマスター。AllAbout デジタル・家電ガイド。ビジネス・IT系出版社を経てフリーに。デジタル家電や生活家電に関連する記事を執筆するほか、家電のスペシャリストとしてテレビやラジオ、新聞、雑誌など多数のメディアに出演。KBCラジオ「キャイ~ンの家電ソムリエ」にレギュラー出演するほか、ラジオ番組の家電製品紹介コーナーの商品リサーチ・構成にも携わっている。













