ページ内に広告が含まれる場合がございます。
高密度時代、ラックは“空間”から“装置”へと進化する
仮想基盤、GPUサーバー、ハイパーコンバージド、AI推論基盤。
これらの登場によって、1ラックあたりの消費電力・発熱・搭載密度は急激に上昇しています。
従来の“棚”としてのラックから、放熱・電源・セキュリティを内包した「装置」型ラックへと進化が求められているのです。
本記事では、高密度(ハイデンシティ)構成に対応する次世代ラック設計の方向性について、具体的な技術要素とトレンドを解説します。
ハイデンシティ化とは何か?
従来、ラックあたりの設計消費電力は3〜5kW程度が標準でした。
しかし近年では、以下のような構成が一般化しています:
- 仮想基盤用1Uサーバー × 10台(約4〜5kW)
- GPUサーバー(2U~4U、1台で1kW〜2kW超)
- ストレージや高性能スイッチの追加搭載
これらを同一ラックに収めると、10kW〜20kW級の熱密度になります。
このような高密度構成に対して、従来のラック設計(通気+PDUのみ)では限界が見えてきています。
高密度構成で直面する3つの課題
放熱の限界
- 空冷では排熱が追いつかない
- サーバーファンが常時フル稼働 → 騒音・寿命・消費電力の問題
- ラック間でホットエアの再循環が起こりがち
電源容量の逼迫
- 15A単相では全く足りず、20A・30A/200V/三相対応が前提に
- ラックPDUも高効率・高電流モデルへの刷新が必要
- A/B系統配電の徹底が不可欠
物理的な重量増加
- GPUや大容量ストレージの搭載により、1ラックあたり800kg超も現実的
- ラック自体の剛性・耐荷重・床荷重補強が必要
- 耐震・転倒防止設計の高度化が不可避
次世代ラック設計の注目技術
1. ラックレベルの冷却装置(背面ドア冷却/液冷)
- 冷却ユニット付きリアドアで排熱を吸収 → サーバーファン負荷を軽減
例:Vertiv、APCの液体循環式冷却ドア - 液冷式サーバーと対応ラックの組み合わせ(CDU内蔵型ラック)
特にAI/HPC用途では、液冷対応が今後の主流になる可能性あり
2. 高密度PDU(最大16〜24口/30A対応)
- 200V/3相対応PDUで、ラック単位で10kW以上を安全に給電
- インテリジェントPDUによるコンセント単位の電流監視・遠隔制御
- ラック内の温度・湿度センサーと連動し、電源障害の予兆検知も可能
3. モジュール式マイクロデータセンター
- 1ラックに冷却・電源・監視・アクセス制御を内蔵
- 支社・工場・エッジ拠点などへの展開が加速中
例:
- APC 「EcoStruxure Micro Data Center」
- HPE「EdgeLine」、Lenovo「ThinkAgile HX MDC」など
セキュリティ扉+消火ユニット+監視カメラを内蔵し、“ラック単位でDCを閉じ込める”思想
4. AI/機械学習向けラック最適化設計
- GPU冷却性能に特化した前後エアフローガイド
- ケーブルマネジメントの強化(干渉・風阻害防止)
- シャーシごとに電力・温度を管理できるラック制御装置
設計の現場ではどう変わってきているか?
項目 | 従来ラック設計 | 次世代ラック設計 |
---|---|---|
最大消費電力 | 3〜5kW | 10〜20kW以上 |
PDU | ベーシック/メーター付き | 高電流・リモート制御付き |
冷却方式 | 空冷(前面吸気・背面排気) | 冷却ドア、液冷、ゾーニング対応 |
設置場所 | サーバールーム/DC内 | 工場内、支社、IoT拠点、クラウドエッジ |
ラックの役割 | 装置の搭載場所 | ミニDC+制御+セキュリティを備えた統合装置 |
まとめ:ラックは「設置機器に合わせる」時代から「環境を内包する」時代へ
高密度な機器を搭載する時代において、ラックはただの“枠”ではなく、電力・熱・管理・セキュリティを内包した統合装置へと変わりつつあります。
- 冷却不足 → ラック冷却装置の検討を
- 電源のひっ迫 → 高密度PDU+三相供給へ
- セキュリティや拠点展開 → マイクロデータセンター型へ
今後のラック設計では、“ラックの外側”のインフラを“内側”に取り込む設計思想が標準化していくことでしょう。