기사 메일전송
KT클라우드, 'AI 이노베이션 센터' 개소…B200 GPU 실증
  • 백지나 기자
  • 등록 2025-12-11 15:10:53
기사수정
  • 액침 냉각 최대 60% 절감 효과 확인…D2C 수랭 기술도 전면 공개
  • 500MW급 데이터센터 확대·AI 전용 네트워크 구축 계획 제시

▲ GPU 기반 AI 학습 모델이 작동하는 모습. (사진=KT클라우드 제공)


[e-뉴스 25=백지나 기자] KT클라우드가 인공지능(AI) 데이터센터 인프라와 전시장을 결합한 국내 유일의 기술 실증 허브 'AI 이노베이션 센터'를 서울 목동 데이터센터에 열었다고 11일 밝혔다.


AI 이노베이션 센터는 엔비디아 최신 그래픽처리장치(GPU) B200 장비를 비롯한 AI 서버를 수용하는 랙 인프라, 칩의 온도를 직접 떨어트리는 '다이렉트투칩(D2C)' 액체 냉각 장치, AI 네트워크 등 실제 AI 데이터센터와 동일한 환경을 구현했다.


센터에서는 상용화 및 기술 검증을 진행 중인 첨단 냉각 기술을 집중적으로 소개하고 있다.


글로벌 AI 서버들이 표준으로 채택하는 D2C 수랭식 방식에 우선 대응해 서버형·랙형 수랭식 부하기를 개발했다. 이 기술은 가산 AI 데이터센터에서 국내 최초로 상용화됐다.


센터에서는 AI 서버를 특수 액체에 직접 담가 열을 식히는 액침 냉각 기술의 모형도 공개한다.


KT클라우드는 기술 검증을 통해 부하 실험을 진행한 결과 액침 냉각에서 최대 60%의 전력 절감 효과가 있었다고 밝혔다.


KT클라우드 관계자는 "액침 냉각이 비용이 많이 들지만 향후 비용 효율적으로 개선될 것으로 본다"며 "중장기적으로 공급을 계획 중인 데이터센터의 상당 부분과 기존 데이터센터에 액침 냉각을 적용할 예정"이라고 말했다.


KT클라우드는 중장기적으로 신규 수전 규모 500MW(메가와트) 이상의 데이터센터 공급을 계획 중이며, 가산 데이터센터에서는 내년 4월 국내 최초 액침 냉각 서비스를 상업화된 형태로 제공한다.


또, KT클라우드는 글로벌 AI 네트워크 기업 아리스타와 협력해 AI 이노베이션 센터에 'RoCEv2(RDMA over Converged Ethernet v2)' 기반의 AI 전용 네트워크를 구축했다.


RDMA는 서버 간 데이터 전송 시 중앙처리장치(CPU)를 거치지 않고 메모리에서 직접 처리해 데이터 전송 지연을 줄이는 기술을 말한다.


엔비디아 생태계 중심의 네트워크 기술인 인피니밴드와 대비해 비용과 운용 확장성에서 유리하다는 설명이다.


AI 이노베이션 센터에서는 디지털트윈 기반 시뮬레이션으로 자율형 제어를 구현한 '패스 파인더', 화재 등 데이터센터 내 이상을 24시간 자동으로 감시하는 자율주행 로봇도 선보였다.


최지웅 KT클라우드 대표는 "AI 이노베이션 센터는 단순한 전시장이 아니라 차세대 데이터센터 기술을 실증하고 고객 가치 중심의 AI 인프라를 구현하기 위한 핵심 플랫폼"이라고 말했다.

TAG
0
대한민국 법원
국민 신문고
모바일 버전 바로가기