第10回:ハイデンシティ対応と次世代ラック設計の方向性

ページ内に広告が含まれる場合がございます。

高密度時代、ラックは“空間”から“装置”へと進化する

仮想基盤、GPUサーバー、ハイパーコンバージド、AI推論基盤。

これらの登場によって、1ラックあたりの消費電力・発熱・搭載密度は急激に上昇しています。

従来の“棚”としてのラックから、放熱・電源・セキュリティを内包した「装置」型ラックへと進化が求められているのです。

本記事では、高密度(ハイデンシティ)構成に対応する次世代ラック設計の方向性について、具体的な技術要素とトレンドを解説します。

ハイデンシティ化とは何か?

従来、ラックあたりの設計消費電力は3〜5kW程度が標準でした。

しかし近年では、以下のような構成が一般化しています:

  • 仮想基盤用1Uサーバー × 10台(約4〜5kW)
  • GPUサーバー(2U~4U、1台で1kW〜2kW超)
  • ストレージや高性能スイッチの追加搭載

これらを同一ラックに収めると、10kW〜20kW級の熱密度になります。

このような高密度構成に対して、従来のラック設計(通気+PDUのみ)では限界が見えてきています。

高密度構成で直面する3つの課題

放熱の限界

  • 空冷では排熱が追いつかない
  • サーバーファンが常時フル稼働 → 騒音・寿命・消費電力の問題
  • ラック間でホットエアの再循環が起こりがち

電源容量の逼迫

  • 15A単相では全く足りず、20A・30A/200V/三相対応が前提に
  • ラックPDUも高効率・高電流モデルへの刷新が必要
  • A/B系統配電の徹底が不可欠

物理的な重量増加

  • GPUや大容量ストレージの搭載により、1ラックあたり800kg超も現実的
  • ラック自体の剛性・耐荷重・床荷重補強が必要
  • 耐震・転倒防止設計の高度化が不可避

次世代ラック設計の注目技術

1. ラックレベルの冷却装置(背面ドア冷却/液冷)

  • 冷却ユニット付きリアドアで排熱を吸収 → サーバーファン負荷を軽減
    例:Vertiv、APCの液体循環式冷却ドア
  • 液冷式サーバーと対応ラックの組み合わせ(CDU内蔵型ラック)

特にAI/HPC用途では、液冷対応が今後の主流になる可能性あり

2. 高密度PDU(最大16〜24口/30A対応)

  • 200V/3相対応PDUで、ラック単位で10kW以上を安全に給電
  • インテリジェントPDUによるコンセント単位の電流監視・遠隔制御
  • ラック内の温度・湿度センサーと連動し、電源障害の予兆検知も可能

3. モジュール式マイクロデータセンター

  • 1ラックに冷却・電源・監視・アクセス制御を内蔵
  • 支社・工場・エッジ拠点などへの展開が加速中
例:
  • APC 「EcoStruxure Micro Data Center」
  • HPE「EdgeLine」、Lenovo「ThinkAgile HX MDC」など

セキュリティ扉+消火ユニット+監視カメラを内蔵し、“ラック単位でDCを閉じ込める”思想

4. AI/機械学習向けラック最適化設計

  • GPU冷却性能に特化した前後エアフローガイド
  • ケーブルマネジメントの強化(干渉・風阻害防止)
  • シャーシごとに電力・温度を管理できるラック制御装置

設計の現場ではどう変わってきているか?

項目従来ラック設計次世代ラック設計
最大消費電力3〜5kW10〜20kW以上
PDUベーシック/メーター付き高電流・リモート制御付き
冷却方式空冷(前面吸気・背面排気)冷却ドア、液冷、ゾーニング対応
設置場所サーバールーム/DC内工場内、支社、IoT拠点、クラウドエッジ
ラックの役割装置の搭載場所ミニDC+制御+セキュリティを備えた統合装置

まとめ:ラックは「設置機器に合わせる」時代から「環境を内包する」時代へ

高密度な機器を搭載する時代において、ラックはただの“枠”ではなく、電力・熱・管理・セキュリティを内包した統合装置へと変わりつつあります。

  • 冷却不足 → ラック冷却装置の検討を
  • 電源のひっ迫 → 高密度PDU+三相供給へ
  • セキュリティや拠点展開 → マイクロデータセンター型へ

今後のラック設計では、“ラックの外側”のインフラを“内側”に取り込む設計思想が標準化していくことでしょう。