近日,在江苏昆山举办的光合组织2025人工智能创新大会(HAIC2025)上,中科曙光scaleX万卡超集群以真机形式首次公开亮相。这一基于scaleX640超节点系统构建的大规模智能计算基础设施,不仅在硬件性能上取得重大突破,更基于“AI计算开放架构”系统性解决了当前国产AI算力生态“碎片化、封闭化、适配难”的核心问题,标志着中国AI基础设施建设正式迈入“生态共进”的新阶段。
硬核突破:万卡集群如何跨越“四重墙”?
对于大模型开发者而言,每一次换加速卡都意味着重写驱动、调试通信、重构数据流水线——这正是国产算力生态割裂最痛的现实。长期以来,国产AI算力发展受制于“单点突破易,生态协同难”的行业困局。不同厂商的加速卡架构差异显著、驱动协议缺乏统一标准、软件生态互不兼容,导致开发者需耗费大量精力进行重复适配工作,严重制约了算力产业的整体发展效率。
同时,国产算力产业还面临双重压力:需求端,大模型持续迭代、科学智能等复杂场景不断涌现,对算力的规模、效率、可靠性与可扩展性提出了前所未有的需求;外部环境上,海外高端芯片获取难,全球信息技术产业生态体系加速调整,核心技术自主与高端算力突破已成为产业生存与发展的必然选择。而“算力墙、通信墙、能耗墙、可靠性墙”四大行业瓶颈日益凸显,传统集群架构难以破解,亟需全新的发展范式。
在这样的背景下,基于AI计算开放架构理念设计的曙光scaleX万卡超集群应需而生。“scaleX万卡超集群,是我们发挥大型计算机系统研制经验优势,面向万亿参数大模型、科学智能等复杂任务场景打造的大规模智能算力基础设施方案,集成密度是当前主流方案的20倍”。中科曙光高级副总裁李斌表示,scaleX万卡部分技术能力已超越海外同类产品2027年规划节点的NVL576,其四大核心优势精准直击算力生态的突出痛点。
作为全球首个单机柜级640卡超节点,曙光scaleX640采用超高密度刀片架构与浸没相变液冷技术,将单机柜算力密度提升至传统集群的20倍,同时实现低至1.04的PUE值。由16个scaleX640超节点通过自研scaleFabric高速网络互连组成的scaleX万卡超集群,可部署10240块AI加速卡,总算力突破5 EFlops。
在此硬件基础之上,曙光自研原生RDMA高速网络ScaleFabric,基于国内首款400G类InfiniBand架构网卡与交换芯片,可提供400Gb/s带宽和低于1微秒的端到端延迟,通信效率较传统IB提升2.33倍,成本降低30%,不仅释放万卡级超集群算力潜力,更支持集群规模轻松扩展至10万卡以上。
为进一步打通数据流动瓶颈,曙光通过“超级隧道”与AI数据加速等设计,实现存、算、传的深度紧耦合与协同优化,从芯片级、系统级到应用级构建三级数据传输优化体系,高效应对万卡并发带来的极致读写与挑战挑战,显著提升高通量AI推理响应速度与结果精准度,并将AI加速卡的资源利用率提高55%。
在高效算力与通信能力之外,曙光构建了超集群数字孪生与智能调度体系,实现运维全流程可视化与智能化,保障集群高达99.99%的可用性;智能调度引擎可高效管理万级节点、服务十万级用户,支持每秒万级作业的高并发调度,确保大规模AI业务稳定高效运行。
生态共进:开放架构重塑国产AI算力格局
如果说全球领先技术是scalex万卡超集群的硬实力,那么“AI计算开放架构”理念则是其破解国产AI生态割裂的核心密码,正助力国产智算集群系统从“单点突围”迈入“生态共进”新阶段。
“AI计算开放架构”由中科曙光协同20多家AI产业链企业共同推出,依托系统工程思维推进智算集群创新,通过共享关键共性技术能力,通过scaleX万卡超集群降低了AI企业智算集群研发门槛,真正将开放理念转化为可落地的普惠算力。作为 “AI计算开放架构”最新成果,scaleX万卡超集群支持多品牌加速卡及主流计算生态,已完成400余个主流大模型、世界模型的适配优化。
业内预测,到2028年,基于开放架构的国产算力集群将占据市场主导地位,为人工智能、科学智能、多模态应用等前沿领域提供高效算力支撑,推动整个AI产业进入高质量发展的快车道。
而围绕“AI计算开放架构”理念,曙光正将大型计算机系统研制经验优势,通过开源的“超节点+超集群”协同算力体系,赋能国产AI算力创新。业内人士分析指出,随着AI计算开放架构的持续完善与产业链协同的不断深化,国产AI算力生态正加速走向成熟。其中,ScaleX万卡超集群的亮相标志着国产算力已从单点技术突破迈向“生态共进”的新阶段。依托多产品矩阵,中科曙光正为AI大模型训练、高通量推理及行业智能化转型提供强劲、稳定、可扩展的全栈式算力底座,全面支撑中国人工智能产业的高质量发展 。