ICC讯 近日,HPE与KDDI公司宣布达成合作,计划于2026年初共同运营大阪堺数据中心。该数据中心将配备由HPE打造的NVIDIA GB200 NVL72机架级系统,基于最新NVIDIA Blackwell架构,旨在为初创企业及大型公司提供AI应用开发和大型语言模型(LLM)训练的基础设施支持。
大阪堺数据中心采用结合气冷与直接液冷的混合冷却技术,以降低对环境的影响。KDDI与HPE还将联合推广该中心提供的服务,加速AI解决方案在日本及全球企业与消费者中的普及应用。
随着AI技术的快速发展,大规模高性能AI基础设施需求日益迫切。为此,KDDI正在日本大阪府堺市建设AI数据中心,以支持万亿参数生成式AI模型的加速开发。该中心将为日本及全球从事生成式AI模型开发或需要低延迟推理能力的组织与个人提供服务。KDDI计划通过其AI时代商业平台WAKONX,向企业提供云端AI计算服务。
HPE打造的NVIDIA GB200 NVL72系统整合了NVIDIA加速计算、网络及软件,通过先进的直接液冷技术优化能效与性能。HPE拥有构建大型AI集群的丰富经验及五十年液冷技术积累,能助力KDDI快速部署。该系统还配备NVIDIA Quantum-2 InfiniBand、Spectrum-X以太网及BlueField-3 DPU等加速网络技术,为多样化AI工作负载提供高性能网络连接。客户可在KDDI基础设施上运行NVIDIA AI Enterprise平台,加速开发与部署。
HPE总裁兼CEO Antonio Neri表示:"与KDDI的合作是支持日本AI创新的关键里程碑,强大的计算能力将推动更智能的解决方案,提升生产力并促进技术领先。大阪堺数据中心将受益于HPE行业领先的冷却技术,在保障高性能的同时显著减少环境影响。"
KDDI总裁松田弘道(Hiromichi Matsuda)称:"很高兴通过与HPE合作,在大阪堺数据中心部署高性能GPU基础设施。HPE在超级计算与先进冷却技术方面的专长将推动下一代AI数据中心的演进。我们期待与HPE共同挑战构建与AI共存的可持续未来。"
双方表示将持续深化合作,推动行业领先的AI基础设施建设与创新服务交付,同时提升能源效率。