本站点使用Cookies,继续浏览表示您同意我们使用Cookies。 Cookies和隐私政策>

简体中文
首页 > 关于我们 > 成功案例 > 50天、兆瓦级!元脑液冷模块化数据中心助力天文观测基地快速投建

50天、兆瓦级!元脑液冷模块化数据中心助力天文观测基地快速投建

发布时间:2025-11-03

宇宙中蕴藏大量待破解的科学奥秘,引力波探测是宇宙探索的关键技术手段。它携带黑洞碰撞、中子星合并等天体事件的物理信息,为研究宇宙深处天体演化与时空特性提供核心数据支撑。而捕捉百亿光年外的引力波信号技术难度极高,需要对数据进行多重分析:提取引力波波形特征以还原天体事件过程,剔除星际噪音与设备干扰信号,还要建模推算天体质量、距离等物理参数等。这些分析需实时处理PB级甚至EB级海量天文数据,对算力提出低延迟、高稳定性、持续高负载的严苛要求。

某天文台观测基地现有数据中心算力因处理周期长、承载上限不足,已难以匹配实时科研数据处理需求,亟需扩容升级。针对新建数据中心工期紧迫、高能耗两大核心痛点,浪潮信息为其提供元脑液冷模块化数据中心解决方案,依托模块化设计、工厂化预制、液冷高效散热等,实现快速交付、节能降本,50天建成兆瓦级液冷数据中心,PUE降至1.15以下,年节省电费400万元,助力该天文台观测基地以毫米级精度聆听百亿光年外的宇宙来信,推进在引力波追踪、黑洞奥秘探索等领域研究突破。元脑液冷模块化数据中心赋能前沿天文观测.jpg

海量观测数据分析面临双重挑战:抢时间、控能耗

在引力波追踪等前沿天文探索中,每一次捕捉到的宇宙信号都需依托海量数据的深度分析,从区分引力波与星际噪音,到还原黑洞碰撞的物理参数,背后是PB级数据的实时传输、存储与建模运算,这使得天文台观测基地的数据中心不仅是简单的 “数据仓库”,更成为破解宇宙奥秘的 “算力中枢”。然而,在搭建这一关键设施时,基地面临着亟待突破的现实难题。

■ 限时观测引发数据处理危机,算力瓶颈亟需快速扩容:该基地经全球引力波探测网络协同捕捉引力波信号,并结合地面光学、射电望远镜及空间X射线望远镜追踪电磁对应体,观测到一次罕见的黑洞合并事件,其释放的引力波信号有效观测期仅3至5秒,伴随的电磁对应体信号也会在数小时内消失,必须在几小时内快速完成PB级的引力波波形与电磁辐射等数据分析,这是研究黑洞物理性质的关键窗口。

但现有架构完成数据筛选、清洗与建模分析等全套处理流程至少需要数天时间,无法在有效观测期内完成实时分析,可能导致错失黑洞合并过程中的关键信号特征,急需快速扩容升级。为抓住不久后的一次最佳观测机会并支撑未来类似事件研究,基地计划在2个月的时间窗口内快速新建数据中心,需要匹配 “小时级处理PB级数据” 的算力需求,具备兆瓦级供电能力,而传统机房建设周期需5个月以上,且供电能力难以提升至兆瓦级,无法满足业务快速上线需求。

■ 能耗攀升,运营成本压力大:海量观测数据的实时降噪与特征提取对数据处理的精度要求极高,而能够适配需求的更高性能服务器与超高密度部署会导致数据中心能耗飙升,观测基地的新建数据中心投运后,年耗电量将达千万度级别,这不仅对能源供应提出了巨大挑战,也使得运营成本大幅攀升,传统风冷方式已无法有效散热,亟须引入液冷技术,优化数据中心的能源管理,降低运行成本,保障前沿天文研究的持续推进。

快速交付、节能降耗,元脑液冷模块化数据中心助力天文观测提效降本

为支撑海量天文观测数据的实时处理与深度分析,解决新建数据中心面临的工期紧迫、能耗攀升两大挑战,该天文台观测基地采用元脑液冷模块化数据中心解决方案,应用液冷为主、风冷为辅的风液融合数据中心架构,共部署超100个机柜,依托高度模块化设计,在工厂内完成供配电、制冷、监控等系统的预集成和预测试,结合冷板液冷技术、氟泵自然冷技术,实现快速交付、节能降本,打造满足海量天文观测数据高效分析需求的兆瓦级液冷数据中心新标杆。元脑液冷模块化数据中心.jpg■ 全模块化实现快速交付,50天建成兆瓦级液冷数据中心

针对观测基地数据中心的扩容紧迫性,元脑液冷模块化数据中心解决方案采用全模块化建设模式,将机柜、供配电、制冷、监控等系统集成为标准化单元,所有模块均在工厂完成预装调试,现场仅需进行模块拼接与管路连接,大幅减少现场施工。例如,集成冷源将冷水机组、水泵、控制系统等分散设备在工厂完成集成组装与调试,一体化制冷设备安装便捷,大幅减少现场切割、焊接等繁杂工序,快速构建数据中心温控系统。

最终观测基地仅用50天完成兆瓦级液冷数据中心由毛坯至竣工验收的全过程,部署周期缩短超80%,快速补齐存储与计算能力短板,确保引力波波形筛选、干扰信号剔除、天体质量参数建模等关键数据处理业务无缝衔接,在数小时内完成黑洞合并、中子星碰撞等引力波事件的数据处理分析,把握关键科研窗口,确保不错过每一次宇宙级 “瞬间”。

■ 风液混合节能降本,年节约电费400万元

为缓解高能耗成本压力,元脑液冷模块化数据中心解决方案采用风液混合的差异化散热策略,针对AI、高密度服务器等计算节点(单节点功率500W以上,单机柜功率密度最高达60kW)采用冷板式液冷,实现精准高效散热,同时液冷关键设备采用N+1冗余设计,避免单点故障,配合环形管路布局,提供稳定可靠的散热保障;针对通用服务器、网络设备等(单节点功率200W以下)采用氟泵空调风冷散热,室外低温时可利用氟泵系统降温,充分利用当地自然冷源,减少机械制冷。

风液结合平衡散热效率与成本,观测基地新建液冷数据中心较传统机房降低30%能耗,PUE可降至1.15,每年节约电费400万元,有效节能降本,减少能源供应对科研的限制,基地可持续接入高性能观测与计算设备,支撑高密度、高时效天文数据处理。

新建兆瓦级液冷数据中心将成为该天文台观测基地的算力核心引擎,为前沿天文探索筑牢支撑底座。基地观测设备每日捕获的PB级数据中,包含引力波、宇宙射电信号等关键信息,也夹杂大量干扰信号。该数据中心凭借高效算力,能在数小时内完成数据筛选、清洗与建模,大幅缩短了数据处理周期,原本需数天完成的分析任务可压缩至单日内,让科研团队能更快基于数据推进黑洞并合物理过程、中子星内部结构等前沿课题研究,为捕捉转瞬即逝的宇宙现象、突破天文研究瓶颈提供关键算力保障。

#科研 #数据中心建设运维

售前咨询

售后服务

反馈意见

AIStore

回到顶部

回到顶部

收起
回到顶部 回到顶部
请选择服务项目
售前咨询
售后服务
访问 AIStore

扫码访问AIStore