期間限定

秋トクキャンペーン キャンペーン
開催中!


72%OFF

詳しくはこちら

12/20(金)まで

GPUサーバーについて

大規模言語モデルや生成AIモデルの構築に適した最新超高速GPU「NVIDIA H100 TensorコアGPU」、画像生成AIをはじめとした推論用途やビジネスへの組み込みに適した最新GPU「NVIDIA L4 Tensorコア GPU」を搭載した、AIビジネスを担う事業者様向けの仮想サーバーサービスです。
また、弊社は「NVIDIA Partner Network」に参画しております。「NVIDIA Partner Network」とは、NVIDIAのパートナープログラムで、GPUを用いたソリューションを提供するメーカーやソリューションベンダーが参加しています。本プログラムに参画することで、AIワークロード向けに設計された高速GPUを用いたソリューションの開発や導入、保守に必要な専門知識の提供・支援を同社より受けることができます。

利用シーン

  • CASE 01

    大規模言語モデルや生成AIのモデルを自ら構築してAPIやアプリケーションを公開・提供するビジネスをご検討のお客様。

  • CASE 02

    公開・提供された大規模言語モデルに、独自のデータセットを用いて、特定の目的に特化した追加学習(ファインチューニング)を行い、独自モデルを生成したいお客様。

  • CASE 03

    公開・提供された大規模言語モデルや生成AIのモデルを活用し、アプリやサービスの新規・既存アプリに組み込んで提供するビジネスをご検討のお客様。

  • CASE 04

    生成AIを利用して生成したコンテンツを自社プロダクトでご利用をご検討のお客様。

GPUの導入課題

  • 設備投資

    GPU搭載サーバーの導入では、サーバーへの巨額な初期投資やサーバーラックの確保や電源・空調の増設など、ファシリティ面での設備投資が発生します。しかし、ConoHaのGPUサーバーを利用すれば初期費用無料でGPUサーバーの利用開始が可能です。

  • 高速処理GPUリソース

    大規模言語モデルや生成AIのモデルを自ら開発する場合、大量のデータ・パラメータを持つことになるため、学習や生成を高速処理が可能なGPUリソースが必要となります。しかし、ConoHaのGPUサーバーは最新爆速、どんな用途でも快適にご利用いただけます。

利用メリット

最新爆速GPU、
「NVIDIA H100」「NVIDIA L4」が利用可能

ConoHaのGPUサーバーは最新爆速。学習や生成処理が短時間のため、ストレスなく快適にご利用いただけ、ビジネスを加速させることができます。

  • NVIDIA H100がおすすめの方

    • ・大規模言語モデル(LLM)の学習を行うに際し、超高速GPUで時間を短縮したい方
    • ・大規模言語モデル(LLM)のファインチューニングを行い、独自のモデルを開発したい方
  • NVIDIA L4がおすすめの方

    • ・生成AIを自社のサービスに組み込み、展開されたい方
    • ・Automatic1111を使い画像生成AI関連のビジネスを立ち上げたい個人事業主の方

料金表

  • NVIDIA H100

    • モデルの学習や
      ファインチューニングにも対応

      1,398.0円/時

      582,010円/月

    • GPUカード搭載数
      1枚
    • GPU搭載メモリ
      80GB
    • CPU
      22vCPU
    • メモリ
      228GB
    • SSD
      100GB
    • データ転送量
      無料
  • NVIDIA L4

    • 画像生成や
      推論用途に最適

      169.0円/時

      99,220円/月

    • GPUカード搭載数
      1枚
    • GPU搭載メモリ
      24GB
    • CPU
      20vCPU
    • メモリ
      128GB
    • SSD
      100GB
    • データ転送量
      無料
  • ※GPUサーバーのご利用には審査が必要となります。
  • ※サーバー料金の表示価格には、サービス維持調整費10%が含まれています。

仕様

GPUカード NVIDIA H100 Tensor コア GPU NVIDIA L4 Tensor コア GPU
基本仕様 GPUカード搭載数 1枚 1枚
GPU搭載メモリ 80GB 24GB
vCPU 22vCPU 20vCPU
メモリ 228GB 128GB
OS Ubuntu 22.04LTS
ブロックストレージ 100GB
root権限
データセンター 日本
アプリケーションテンプレート Automatic1111 / InvokeAI / NVIDIA Container Toolkit
インターネット帯域 1Gbps
プライベートネットワーク 1Gbps
データ転送量 無料
追加ブロックストレージ 200GB / 500GB / 1TB / 5TB / 10TB
オブジェクトストレージ 100GB毎
イメージ保存
自動バックアップ
演算性能 ピーク単精度演算性能
[FP32]
51 TFLOPS 30.3 TFLOPS
ピークTensor演算性能
[FP16Tensor性能]
1513 TFLOPS 242 TFLOPS
  • ※スパース性あり。仕様はスパース性なしで半減します。
  • ※1TB以上の追加ブロックストレージは、イメージ保存、自動バックアップのご利用が不可となります。

最新モデル「NVIDIA H100」と
過去モデルとのスペック・性能比較

GPU H100 A100 V100
アーキテクチャ Hopper Ampere Volta
GPUメモリ 80GB 80GB 32GB
CUDA®コア数 14,592コア 6,912コア 5,120コア
ピーク単精度演算性能
[FP32]
51 TFLOPS 19.5 TFLOPS 14 TFLOPS
ピークTensor演算性能
[FP16Tensor性能]
1513 TFLOPS 624 TFLOPS 112 TFLOPS
  • ※スパース性あり。仕様はスパース性なしで半減します。

最新モデル「NVIDIA L4」と
過去モデルとのスペック・性能比較

GPU L4 T4
アーキテクチャ Ada Lovelace Turing
GPUメモリ 24GB 16GB
CUDA®コア数 7,424コア 2,560コア
ピーク単精度演算性能
[FP32]
30.3 TFLOPS 8.1 TFLOPS
ピークTensor演算性能
[FP16Tensor性能]
242 TFLOPS 65TFLOPS
  • ※スパース性あり。仕様はスパース性なしで半減します。

ご利用ガイド

「GPUサーバー」の利用方法について詳しくはサポートサイトのご利用ガイドをご覧ください。

  • ※表示価格はすべて税込みです。消費税の端数処理により表示価格と請求金額に誤差がでることがあります。
  • ※サーバー料金の表示価格には、サービス維持調整費10%が含まれています。