NVIDIA最新GPU「NVIDIA H100 / NVIDIA L4」搭載のGPUサーバーを『ConoHa VPS』で国内初の提供開始

GMOインターネットグループが提供する超高速VPS「ConoHa VPS」は、国内クラウド事業者として初めて(自社調べ)米NVIDIAの最新モデル「NVIDIA H100 Tensor コア GPU (以下、NVIDIA H100)」と「NVIDIA L4 Tensor コア GPU(以下、NVIDIA L4)」を搭載した「GPUサーバー」の提供を開始しました。

「ConoHa VPS」が提供する「GPUサーバー」のWebサイト
「ConoHa VPS」の仮想GPUサーバーサービスは、初期費用無料でビジネスニーズに応じて1時間単位からを利用できるため、最小限のセットアップでAI開発と画像生成環境を利用できます。超高速なAIクラウド環境を利用することで学習と推論の時間を大幅に短縮できるため、ビジネスの加速を実現できます。
エヌビディア パートナー事業部 事業部長の岩永秀紀氏は今回のサービス開始について次のようにコメントしました。
「ホスティング事業者として、長年培ってきた大規模インフラ技術やそのノウハウを持つGMOインターネットグループ様が、GPU搭載計算基盤を本クラウドサービスとして提供されることを歓迎いたします。開発者や研究者が本サービスを活用し、生成AIの開発を加速させることで、国内のさまざまな産業が活性化されると期待しています」
エヌビディア パートナー事業部 事業部長の岩永秀紀氏は今回のサービス開始について次のようにコメントしました。
「ホスティング事業者として、長年培ってきた大規模インフラ技術やそのノウハウを持つGMOインターネットグループ様が、GPU搭載計算基盤を本クラウドサービスとして提供されることを歓迎いたします。開発者や研究者が本サービスを活用し、生成AIの開発を加速させることで、国内のさまざまな産業が活性化されると期待しています」
生成AIブームの加速を背景にニーズが高まるGPUサーバー提供サービスを本格始動
米OpenAIが2022年11月に提供を開始した「ChatGPT」は全世界で注目され、生成AI(人工知能)ブームが加速しています。AI市場においては、その基盤となる大規模言語モデル(LLM)の開発に必要となる、高い計算能力を持つGPUの需要が高まっています。
こうした背景から、GMOインターネットグループは仮想GPUサーバーサービスの正式版提供開始に向けた検討を開始。2023年8月には約40のAI関連のスタートアップや個人事業主などに対するトライアル版の無償提供を開始し、LLMや画像生成に最適なGPUリソースのサービス提供形態を模索してきました。
トライアル版を利用したユーザーからは、画像生成アプリの開発期間の短縮や、LLMのファインチューニング(追加学習)、生成AIを利用した社内業務効率化などに役立ったという好意的な意見が届いたとのことです。トライアル版を利用した生成AI事業者からは、「学習スピードの高速化」「コストパフォーマンス」「AIテンプレートの標準実装」といった要望が多く寄せられました。こうした意見を基に、「ConoHa VPS」は以下の特徴を持つ正式版の提供を開始するとのことです。
こうした背景から、GMOインターネットグループは仮想GPUサーバーサービスの正式版提供開始に向けた検討を開始。2023年8月には約40のAI関連のスタートアップや個人事業主などに対するトライアル版の無償提供を開始し、LLMや画像生成に最適なGPUリソースのサービス提供形態を模索してきました。
トライアル版を利用したユーザーからは、画像生成アプリの開発期間の短縮や、LLMのファインチューニング(追加学習)、生成AIを利用した社内業務効率化などに役立ったという好意的な意見が届いたとのことです。トライアル版を利用した生成AI事業者からは、「学習スピードの高速化」「コストパフォーマンス」「AIテンプレートの標準実装」といった要望が多く寄せられました。こうした意見を基に、「ConoHa VPS」は以下の特徴を持つ正式版の提供を開始するとのことです。
特徴1:NVIDIAの最新GPU「NVIDIA H100 / NVIDIA L4」を採用し、超高速なAIクラウド環境を提供
GMOインターネットグループは国内ホスティング事業者として初めて、生成AIなどの学習や推論に特化したNVIDIAの最新GPU「NVIDIA H100」と「NVIDIA L4」を採用しました。「NVIDIA H100」はLLMの学習やファインチューニングなど、「NVIDIA L4」は画像生成AIなどの推論AIワークロードにそれぞれ最適な最新の超高速GPUです。これにより学習と推論の時間を大幅に短縮し、ビジネスの加速を支援します。
また従来の10倍の速度でVPSに接続できる1Gbpsのインターネット回線と内部ネットワーク回線を無料提供することで、ネットワークの安定性とスループット(単位時間あたりの処理能力)の向上を図るとともに、利用者のインフラコストを軽減します。
また従来の10倍の速度でVPSに接続できる1Gbpsのインターネット回線と内部ネットワーク回線を無料提供することで、ネットワークの安定性とスループット(単位時間あたりの処理能力)の向上を図るとともに、利用者のインフラコストを軽減します。
特徴2:生成AIに合わせた料金体系と柔軟性
生成AIでは、生成時のみ一時的にGPUリソースが必要となるケースが主流のため、本サービスでは初期費用無料で、1時間単位から利用可能な料金プランを用意しています。ビジネスニーズに応じてサーバー台数の増減なども可能です。さらに、高速データ処理を実現する高性能SSDと大容量ストレージを提供することにより、AI生成に伴うストレスを軽減します。
特徴3:最小限のセットアップでAI開発と画像生成環境を提供
わずらわしいソフトウェアのセットアップ作業を最小限に抑えられるため、AI開発で使用されるNVIDIAの「NVIDIA Container Toolkit」、人気の画像生成AIである「Stable Diffusion」で利用される「Automatic1111」など、簡単にセットアップできる環境を提供し、生成AIの開発に専念できる環境を提供します。利用できるアプリケーションのテンプレ―トは以下の通りです。
・Automatic1111
・NVIDIA Container Toolkit
・InvokeAI
・Automatic1111
・NVIDIA Container Toolkit
・InvokeAI
価格および仕様
価格や仕様表は以下の通りです。

提供される仮想GPUサーバーの利用料金

提供される仮想GPUサーバーの仕様
※スパース性あり。仕様はスパース性なしで半減
※1TB以上の追加ブロックストレージは、イメージ保存、自動バックアップ利用不可
提供仮想サーバーのGPUと過去モデルとのスペック・性能比較
最新モデル「NVIDIA H100」「NVIDIA L4」と過去モデルとのスペック・性能比較は以下の通りです。

最新モデル「NVIDIA H100」と過去モデルとのスペック・性能比較
※スパース性あり。仕様はスパース性なしで半減

最新モデル「NVIDIA L4」と過去モデルとのスペック・性能比較
※スパース性あり。仕様はスパース性なしで半減
トライアル版利用者からのコメント
仮想GPUサーバーサービスのトライアル版を利用した方からは以下のようなコメントが寄せられてました。
AI Picasso 代表取締役 冨平準喜氏
「『AIピカソ』等の画像生成AIサービスを手掛ける当社は商用利用が可能なAIアート用画像生成AI『Emi』を無償公開しました。『ConoHa VPS』GPUサーバーの「NVIDIA H100」により、高精細な画像を生成するモデルを短期間で開発できました。また、カスタマーサポートを頼ることなく直感的に利用できました」
GenerativeX 代表取締役 荒木れい氏
「生成AIの社会実装を行う当社は、金融業界に特化した大規模言語モデルのファインチューニングLoRAを公開しました。『ConoHa VPS』GPUサーバーの「NVIDIA H100」の高速な処理能力により、700億パラメータという大規模なモデルでも効率的に短期間で高精度なモデルの学習を行うことができました」
GPUサーバーサービスは、LLMモデルや生成AIのモデルを自ら構築してAPIやアプリケーションを公開・提供するビジネスを検討する企業から、生成AIを利用して生成したコンテンツを自社プロダクトで利用したい企業まで、生成AIをビジネス活用したい企業向けサービスで、もちろん個人や個人事業主などでも利用可能です。生成AIを活用したいけど初期費用を抑えたい企業や、より高速なGPUを利用して生成AIを活用したいという企業の担当者の方には注目のサービスです。
AI Picasso 代表取締役 冨平準喜氏
「『AIピカソ』等の画像生成AIサービスを手掛ける当社は商用利用が可能なAIアート用画像生成AI『Emi』を無償公開しました。『ConoHa VPS』GPUサーバーの「NVIDIA H100」により、高精細な画像を生成するモデルを短期間で開発できました。また、カスタマーサポートを頼ることなく直感的に利用できました」
GenerativeX 代表取締役 荒木れい氏
「生成AIの社会実装を行う当社は、金融業界に特化した大規模言語モデルのファインチューニングLoRAを公開しました。『ConoHa VPS』GPUサーバーの「NVIDIA H100」の高速な処理能力により、700億パラメータという大規模なモデルでも効率的に短期間で高精度なモデルの学習を行うことができました」
GPUサーバーサービスは、LLMモデルや生成AIのモデルを自ら構築してAPIやアプリケーションを公開・提供するビジネスを検討する企業から、生成AIを利用して生成したコンテンツを自社プロダクトで利用したい企業まで、生成AIをビジネス活用したい企業向けサービスで、もちろん個人や個人事業主などでも利用可能です。生成AIを活用したいけど初期費用を抑えたい企業や、より高速なGPUを利用して生成AIを活用したいという企業の担当者の方には注目のサービスです。

安蔵 靖志
Techジャーナリスト/家電エバンジェリスト
家電製品協会認定 家電製品総合アドバイザー(プラチナグレード)、スマートマスター。AllAbout デジタル・家電ガイド。ビジネス・IT系出版社を経てフリーに。デジタル家電や生活家電に関連する記事を執筆するほか、家電のスペシャリストとしてテレビやラジオ、新聞、雑誌など多数のメディアに出演。KBCラジオ「キャイ~ンの家電ソムリエ」にレギュラー出演するほか、ラジオ番組の家電製品紹介コーナーの商品リサーチ・構成にも携わっている。