ChatGPTが牽引した第3次AIブームに沸いた2023年。膨大な量のパラメータを、また膨大な量の学習データを使ってチューニングすることで、あたかも知性を持ったような大規模言語モデルを構築できるようになり、AIのビジネスへの活用がいよいよ本格化した。それに伴い、メディアなどで「データセンター」が取り上げられる機会も増えた。

データセンターという言葉自体は1990年代後半のインターネットの商用化時期にすでに存在していたが、その主な役割は、現在ではAIの計算基盤にシフトしつつある。この大きな変化に伴い顕在化したのが、従来とは桁違いとなった、ラックあたりの電力使用量だ。

データセンターの主な用途がサービスやアプリのホスティングだった2000年代までは2kW程度だったのに対し、演算にGPUを多用するAI基盤としてのデータセンターでは、20kWほどに電力使用量が跳ね上がっているのだ。こうした状況では電力の確保はもちろん、空冷の効率化についても、従来とは異なるアプローチが必要になる。また、データ量の飛躍的な増大によるデータセンターそのものの不足も懸念されている。

Coltデータセンターサービス 提供資料
AI環境を支えるデータセンター
- 印西エリアはIT電力容量が1ギガワットへ拡大中 -
> > 資料ダウンロードはこちら

*  *  *

本コンテンツは、AIのビジネス活用の基盤となるものとしてデータセンターに注目し、現代のデータセンターに求められる役割の変化や現状の課題について、レポートとしてまとめている。

その第1部*となる本コンテンツでは、AI計算基盤としてのデータセンターが直面する、電力、空冷能力、データセンターそのものの不足という諸課題を挙げる。そして、それらの解決に向けた官民あげての対策検討の現状についてレポートしている。

*第2部はこちら

ダウンロード資料のご案内

Coltデータセンターサービス 提供資料
AI環境を支えるデータセンター
- 印西エリアはIT電力容量が1ギガワットへ拡大中 –
> > 資料ダウンロードはこちら

[PR]提供:Coltデータセンターサービス