GATE02のロゴコーポレートサイト
GATE02のロゴ企業のICT環境や情シスの課題・お悩みを解決するメディア
  1. トップ
  2. ITコラム
  3. GPUサーバーに最適なデータセンターは?選び方のポイントをデータセンター販売のプロが解説
column_1922025.03.05

GPUサーバーに最適なデータセンターは?選び方のポイントをデータセンター販売のプロが解説

著者:情シスマン
この記事のキーワード
image

AI開発の加速により、GPUサーバーを利用する企業が増えてきました。圧倒的な並列処理能力を持つ反面、運用管理には少々手間がかかります。

GPUサーバーを導入する際、併せてデータセンターも検討されることが多いです。これは従来のサーバーに比べて要求される電力容量や冷却設備が高度なためです。

GPUサーバーの性能を最大限に引き出すためには、適切なデータセンターでの運用が肝になりますが、お部屋探しのように条件を増やせば増やすほど選択肢は限られてきます。

そこで本記事では、GPUサーバーに最適なデータセンターとその選び方を、20年弱データセンターの販売を行ってきたUSEN ICT Solutionsが解説します。

【そもそも】GPUサーバーとは

GPUサーバーとは、GPU(Graphics Processing Unit)が搭載されたサーバーのことです。従来のCPUを中心としたサーバーでは困難だった、大量データの並行処理が可能になります。

一方で、GPUサーバーは従来のサーバーに比べて大量の電力を消費し、発熱量も高くなります。これらへの対処や運用方法は昨今世界的な課題となっています。

image
GPUサーバーについて詳しく解説した記事はこちら
GPUサーバーとは?用途やメリット、3種類の提供形態とその選び方を解説
関連記事を見る

GPUサーバーはどこに置くべき?

GPUサーバーは消費電力が大きく発熱量も高いため、設置場所は慎重に選ぶ必要があります。適切な環境で運用できていない場合、ほかのコンピューター同様に故障や不具合のリスクは高くなります。基本的にはデータセンターに設置するのがベストですが、事業成長に合わせるなどの臨機応変な対応も重要でしょう。

例えばスタートアップ企業などにおけるサービス開発段階でGPUサーバーを用いる場合、ハードウェア・ソフトウェア含めさまざまな検証を行うことになります。そのタイミングでオフィスと離れたデータセンターにGPUサーバーを設置した場合、開発スピードが鈍化してしまう可能性があります。また、データセンターの契約にはランニングコストがかかるため、経営的なリスクにもなり得ます。

一方、実際にユーザーがいるサービスの基盤として、あるいは重要な研究開発の土台としてGPUサーバーを使っている場合、それが故障してしまうと会社経営・事業運営に大きくかかわるため、環境の整ったデータセンターに設置すべきです。オフィス内に相当なサーバールームを設けられるようであればそれでも問題ありませんが、通常のビルでは難しいですし、コストもかかってしまいます。

GPUサーバーを当面の間(目安:1年以上)運用するであろう判断ができている場合は、データセンターに設置しましょう。

GPUサーバーをデータセンターで運用するメリット

GPUサーバーをデータセンターで運用することには以下のようなメリットがあります。

  • 必要十分な電力を供給できる
  • 冷却設備が充実している
  • 災害対策に優れている
  • 常にメンテナンスされている

GPUサーバーが求める電力容量や冷却設備は通常のオフィスビルでは対応できないことも多いため、そこに対応できるのがデータセンターの圧倒的なメリットです。

また、昨今のデータセンターの多くは「免震構造」のため、地震の際にシステムに与える影響が比較的少なく、二次被害的な停電などへの対応も準備されています。建物自体にも常にメンテナンスが行き届いているため、高価なGPUサーバーの故障・不具合・破損リスクを限りなく減らすことができます。

GPUサーバーを取り巻く国内データセンターの歴史

GPUサーバーに適したデータセンターを知るにあたって、まずは国内データセンターの歴史を紐解きましょう。

近年、AI開発の加速によりGPUサーバーの需要は急速に高まりました。そういったサービスの基盤となるGPUサーバーのほとんどはデータセンターに設置されるため、相乗的に“GPUサーバーを設置できるデータセンター”の需要も拡大し続けています。

現在に至るまでの国内データセンターの歴史は、つまるところ“冷却設備の進化”と言えます。データセンターの選定において重要視される電力供給のキャパシティは、今日でも冷却設備に大きく依存しています。(実際に、冷却設備が十分でないために供給電力を絞っているデータセンターはいくつも存在します。)

ここでは、大きく3段階に分けてその歴史を解説します。

第1段階|データセンターの出現(1980年代)

類似する施設はそれ以前からもありましたが、コンピューターを設置するという現在に近い用途のデータセンターは1980年代に出現しました。

当時からデータセンターの冷却設備は空冷式が一般的でした。床下から吹き上げる冷気でラック内を冷やすか、サーバールーム全体の温度を一定に保つかのどちらかが主流で、現在でも多くのデータセンターがこの方式で運用されています。

ちなみにこのときはまだ、コンピューターはそこまで大きな電力を使用しないだろうと考えられていました。しかし、サーバーの仮想化やVDIなどの技術が進むにつれ、サーバーは大量の電力を消費するものとなっていきました。

第2段階|ホットアイル/コールドアイルやリアドア方式などの台頭(2010年代)

2010年辺りから、ホットアイル/コールドアイルやリアドア方式などの、空冷式の効果を向上させるさまざまな手法が開発されました。

ホットアイル/コールドアイルとは、サーバールーム内で排熱だけの通路(=アイル:aisle)と冷気だけの通路を明確に分ける仕組みで、従来の空冷式より効率的にサーバーを冷やすことができます。また、リアドア方式はラックの手前に空調、奥に吸引設備があり、手前から放出される冷気を強引に奥に吸引することで、ラック内全体を冷却する手法です。

“空気”を冷却している点は従来と変わりませんが、これらの“進化した空冷式”であればGPUサーバーに対応できるとされており、採用する事業者・ユーザーも少なくありません。

第3段階|液浸冷却や液冷方式の登場(2020年代)

2010年代後半から、AI開発によってGPUサーバーの利用が加速し始め、電力不足(≒冷却能力不足)が叫ばれるようになりました。

2020年に入り、液浸冷却や液冷方式といった新技術に注目が集まりました。これらは、サーバー周りの“空気”を冷やす従来の方式に対し、サーバーの“内部”を直接冷やすという点で大きく異なります。

一方で、データセンター事業者にとっては初期投資が非常に高く、ユーザーにとっても費用が高額になるため、思いのほか実利用が進んでいません。まだまだ過渡期にある技術と言えるでしょう。

液浸冷却

液浸冷却とは、絶縁性を持つ特殊な液体にサーバーを浸して冷却する技術です。冷却効率が非常に高く消費電力の大幅な抑制が期待されましたが、一方で汎用化するには課題が多く、今のところ広がりを見せていません。

液冷方式

液冷方式とは、対応サーバー・ラックにホース(パイプ)が内蔵されており、そこに液体を通すことで熱交換を行い冷却する方式です。ラックの外部にはその液体を再び冷やすための装置があり、常に循環されています。汎用化という面では液浸冷却に比べて期待されていますが、対応サーバーと対応ラックをどちらも用意する必要があるため、大きなコストがかかってしまうという課題があります。

GPUサーバーのデータセンターを選ぶ際の5つのポイント

GPUサーバーのデータセンターを選ぶ際は、以下の5つのポイントに着目しましょう。

  • 電力容量は十分か
  • 冷却設備は十分か
  • 立地は適切か
  • 希望するネットワークを構築できるか
  • 拡張性はあるか

電力容量は十分か

GPUサーバーは従来のサーバーに比べて大量の電力を消費します。メーカーのスペック表などから消費電力や推奨電源を確認し、データセンターのメニューと照らし合わせましょう。

一方で、メーカーの推奨値をそのまま鵜呑みにするとオーバースペックになってしまう可能性もあります。要求する電源によってデータセンターの費用は大きく変わってきますので、相場や適性が分からない場合は専門家に相談しましょう。

冷却設備が十分か

前述した歴史の通り、GPUサーバーに適したデータセンターかどうかは冷却設備に依るところが大きいです。裏を返せば、冷却設備が十分であれば電源もGPUサーバーに対応できるケースがほとんどなので、迷ったらまずは冷却設備で判断するようにしましょう。

歴史的には液冷方式や液浸冷却が最新のためどうしても目が行きがちですが、それが必ずしもユーザーにとって最適とは言えない場合もあります。本来は置きたいGPUサーバーの数・スペック・消費電力などに対してのコストパフォーマンスの高さと、立地などを含めた運用のしやすさの掛け算で判断すべきです。例えば実際に使用する電力がそこまでの冷却能力を必要としないことが分かっているのであれば、空冷式のデータセンターを選ぶという手段もあります。

立地は適切か

基幹サーバーやバックアップサーバーであればBCP目的で遠隔のデータセンターを利用することもありますが、GPUサーバーは特別な理由が無い限り“近場”を優先するのが好ましいです。というのも、有事の際に“すぐに駆けつけられる”というのは、メンテナンス負荷の高いGPUサーバーの運用において大きなメリットになるからです。

さらに言えば、首都圏に本社がある企業は“都内”のデータセンターを優先的に検討することをおすすめします。メーカーやベンダーの保守部隊は都内に集中していることが多いため、“すぐに駆けつけてもらえる”可能性を上げることができます。

また、近場であることはGPUサーバーへの通信にも寄与します。オフィスからデータセンターに置かれたGPUサーバーに接続する際、快適な通信のためにはレイテンシ(リクエストに対して応答が返ってくるまでの遅延時間)が重要な指標となります。レイテンシは物理的な距離に依存しやすく、オフィスとデータセンターが離れているほどレイテンシは高くなる(遅延する)傾向にあります。つまり、逆に近場であればレイテンシを下げられるというわけです。

希望するネットワークを構築できるか

オフィスとデータセンター内のGPUサーバーを接続する方法は、専用線や閉域網、インターネットVPNなどがあります。また、社外からのアクセスがある場合(GPUサーバーを基盤したAIサービスなどを提供する場合)、その通信を受けられる広帯域インターネット回線も必要になるかもしれません。

国内の通信インフラは非常に整備されていますが、それでもロケーションによっては希望のネットワークが構築できない、あるいはできても検討できる費用感ではない、といったケースがあります。

データセンター選定の際には、並行してネットワーク事業者にも相談しておきましょう。

拡張性はあるか

将来的にGPUサーバーを増設する可能性がある場合は注意が必要です。GPUサーバー対応のデータセンターは需要が急増しているため、増設したいときには既に満床だった、なんてこともあり得ます。

その場合、フロアをまたぐことになるか、最悪別のデータセンターを探さなければなりません。心配であれば、データセンター事業者の販売計画などを確認してみても良いでしょう。

まとめ

GPUサーバーをデータセンターで運用する際は、冷却設備や立地といった観点で自社にとって最適な場所を選ぶ必要があります。GPUサーバーは高性能である反面、適切な場所に設置しなければ十分な性能を引き出せず、故障や運用負荷が増えてしまうリスクもあります。

GPUサーバーのデータセンター選定の際にはぜひ本記事を参考にしてみてください。

USEN ICT Solutionsは、GPUサーバーのサイジングや適切なデータセンターの選定、接続用ネットワークの構築を支援しています。GPUサーバーについてお困りの方はぜひお気軽にご相談ください。

この記事に関連するお役立ち資料はこちら
image
GPUサーバーの調達時に知っておきたいこと
生成AIの流行に伴い、GPUサーバーへの需要が高まっています。しかし、GPUサーバーの選定や適するデータセンターの確保、運用開始までの道のりには多くの課題が潜んでいます。 本資料では、GPUサーバー導入を検討されているお客様などに向けて、知っておくべき基礎知識から、データセンター選定のポイント、そして USEN GATE 02 が提供できるソリューションまでを具体的に解説しています。
資料をダウンロードする
さらに理解を深めたい方にオススメの記事はこちら
この記事に関連するサービスはこちら
このページをシェアする
Xで共有Facebookで共有LINEで共有

サービスに関するお問い合わせはこちらから

法人向けインターネット回線やクラウドサービス、データセンターなどのご相談を受け付けています。
お電話でも受付中
0120-681-6170120-681-617
(平日 10:00~18:00)