GPUサーバー
ConoHaのGPUサーバーは、国内クラウド事業者初の提供となる「NVIDIA H100」、「NVIDIA L4」を採用し、基盤モデルの開発・追加学習や、生成AIを超高速化することのできる環境を国内最安値で提供します。学習と推論、いずれの用途においても最高のコストパフォーマンスを発揮し、お客様のビジネスをより加速させます。
GPUサーバーについて
大規模言語モデルや生成AIモデルの構築に適した最新超高速GPU「NVIDIA H100 TensorコアGPU」、画像生成AIをはじめとした推論用途やビジネスへの組み込みに適した最新GPU「NVIDIA L4 Tensorコア GPU」を搭載した、AIビジネスを担う事業者様向けの仮想サーバーサービスです。
また、弊社は「NVIDIA Partner Network」に参画しております。「NVIDIA Partner Network」とは、NVIDIAのパートナープログラムで、GPUを用いたソリューションを提供するメーカーやソリューションベンダーが参加しています。本プログラムに参画することで、AIワークロード向けに設計された高速GPUを用いたソリューションの開発や導入、保守に必要な専門知識の提供・支援を同社より受けることができます。
利用シーン
-
CASE 01
-
大規模言語モデルや生成AIのモデルを自ら構築してAPIやアプリケーションを公開・提供するビジネスをご検討のお客様。
-
CASE 02
-
公開・提供された大規模言語モデルに、独自のデータセットを用いて、特定の目的に特化した追加学習(ファインチューニング)を行い、独自モデルを生成したいお客様。
-
CASE 03
-
公開・提供された大規模言語モデルや生成AIのモデルを活用し、アプリやサービスの新規・既存アプリに組み込んで提供するビジネスをご検討のお客様。
-
CASE 04
-
生成AIを利用して生成したコンテンツを自社プロダクトでご利用をご検討のお客様。
GPUの導入課題
-
- 設備投資
-
GPU搭載サーバーの導入では、サーバーへの巨額な初期投資やサーバーラックの確保や電源・空調の増設など、ファシリティ面での設備投資が発生します。しかし、ConoHaのGPUサーバーを利用すれば初期費用無料でGPUサーバーの利用開始が可能です。
-
- 高速処理GPUリソース
-
大規模言語モデルや生成AIのモデルを自ら開発する場合、大量のデータ・パラメータを持つことになるため、学習や生成を高速処理が可能なGPUリソースが必要となります。しかし、ConoHaのGPUサーバーは最新爆速、どんな用途でも快適にご利用いただけます。
利用メリット
最新爆速GPU、
「NVIDIA H100」「NVIDIA L4」が利用可能
ConoHaのGPUサーバーは最新爆速。学習や生成処理が短時間のため、ストレスなく快適にご利用いただけ、ビジネスを加速させることができます。
-
-
NVIDIA H100がおすすめの方
-
- ・大規模言語モデル(LLM)の学習を行うに際し、超高速GPUで時間を短縮したい方
- ・大規模言語モデル(LLM)のファインチューニングを行い、独自のモデルを開発したい方
-
-
-
NVIDIA L4がおすすめの方
-
- ・生成AIを自社のサービスに組み込み、展開されたい方
- ・Automatic1111を使い画像生成AI関連のビジネスを立ち上げたい個人事業主の方
-
料金表
-
-
NVIDIA H100
-
-
モデルの学習や
ファインチューニングにも対応1,398.0円/時
582,010円/月
-
- GPUカード搭載数
- 1枚
-
- GPU搭載メモリ
- 80GB
-
- CPU
- 22vCPU
-
- メモリ
- 228GB
-
- SSD
- 100GB
-
- データ転送量
- 無料
-
-
-
-
NVIDIA L4
-
-
画像生成や
推論用途に最適169.0円/時
99,220円/月
-
- GPUカード搭載数
- 1枚
-
- GPU搭載メモリ
- 24GB
-
- CPU
- 20vCPU
-
- メモリ
- 128GB
-
- SSD
- 100GB
-
- データ転送量
- 無料
-
-
- ※GPUサーバーのご利用には審査が必要となります。
- ※サーバー料金の表示価格には、サービス維持調整費10%が含まれています。
仕様
GPUカード | NVIDIA H100 Tensor コア GPU | NVIDIA L4 Tensor コア GPU | |
---|---|---|---|
基本仕様 | GPUカード搭載数 | 1枚 | 1枚 |
GPU搭載メモリ | 80GB | 24GB | |
vCPU | 22vCPU | 20vCPU | |
メモリ | 228GB | 128GB | |
OS | Ubuntu 22.04LTS | ||
ブロックストレージ | 100GB | ||
root権限 | ○ | ||
データセンター | 日本 | ||
アプリケーションテンプレート | Automatic1111 / InvokeAI / NVIDIA Container Toolkit | ||
インターネット帯域 | 1Gbps | ||
プライベートネットワーク | 1Gbps | ||
データ転送量 | 無料 | ||
追加ブロックストレージ | 200GB / 500GB / 1TB / 5TB / 10TB | ||
オブジェクトストレージ | 100GB毎 | ||
イメージ保存 | ○ | ||
自動バックアップ | ○ | ||
演算性能 | ピーク単精度演算性能 [FP32] |
51 TFLOPS | 30.3 TFLOPS |
ピークTensor演算性能 [FP16Tensor性能] |
1513 TFLOPS※ | 242 TFLOPS※ |
- ※スパース性あり。仕様はスパース性なしで半減します。
- ※1TB以上の追加ブロックストレージは、イメージ保存、自動バックアップのご利用が不可となります。
最新モデル「NVIDIA H100」と
過去モデルとのスペック・性能比較
GPU | H100 | A100 | V100 |
---|---|---|---|
アーキテクチャ | Hopper | Ampere | Volta |
GPUメモリ | 80GB | 80GB | 32GB |
CUDA®コア数 | 14,592コア | 6,912コア | 5,120コア |
ピーク単精度演算性能 [FP32] |
51 TFLOPS | 19.5 TFLOPS | 14 TFLOPS |
ピークTensor演算性能 [FP16Tensor性能] |
1513 TFLOPS※ | 624 TFLOPS※ | 112 TFLOPS |
- ※スパース性あり。仕様はスパース性なしで半減します。
最新モデル「NVIDIA L4」と
過去モデルとのスペック・性能比較
GPU | L4 | T4 |
---|---|---|
アーキテクチャ | Ada Lovelace | Turing |
GPUメモリ | 24GB | 16GB |
CUDA®コア数 | 7,424コア | 2,560コア |
ピーク単精度演算性能 [FP32] |
30.3 TFLOPS | 8.1 TFLOPS |
ピークTensor演算性能 [FP16Tensor性能] |
242 TFLOPS※ | 65TFLOPS |
- ※スパース性あり。仕様はスパース性なしで半減します。
- ※表示価格はすべて税込みです。消費税の端数処理により表示価格と請求金額に誤差がでることがあります。
- ※サーバー料金の表示価格には、サービス維持調整費10%が含まれています。