文章主要讨论了中科曙光在中关村论坛年会上发布的无线缆箱式超节点——scaleX40,以及AI算力供给的结构性调整。以下是核心内容的整理:
scaleX40产品发布
产品特点
性能:集成40张GPU,总算力超过28PFLOPS(FP8精度)。
设计:无线缆正交架构,计算与交换节点直接对插,减少光纤与铜缆使用;标准19英寸箱式设计,适配现有数据中心。
成本与收益:成本与传统5台8卡机相当,但训练性能提升120%,推理性能提升330%。
目标:填补市场空白,在数百卡级超节点与主流8卡服务器之间寻找性能与成本的最佳平衡点。
AI算力需求的结构性变化
从训练到推理的转型
随着智能体技术(如OpenClaw)兴起,AI算力使用模式从以训练为主转向以推理和服务为主。
算力基础设施角色从“算力工厂”转变为“Token工厂”,需关注并发能力、稳定性及Token产出成本。
分层需求
市场需求分层:超大规模集群需求减少,企业级和行业应用场景需求增加。
算力配置重点:平衡性能、成本与灵活性,而非单纯追求规模。
超节点的技术逻辑与部署优势
技术路径
scaleX40采用全栈协同优化,包括存储、网络、管理平台及软件栈。
通信效率:访存带宽超80TB/s,延迟降低近10倍,内存语义直接访问。
部署门槛降低
箱式系统可直接放入标准机柜,适配常规供电和冷却设备,减少定制化需求。
成本与收益的平衡
投入产出比
普惠算力:花同样钱,收益提升4到5倍。
配套系统:ParaStor存储、ScaleFabric网络、SothisAI平台,开箱即用。
产业融合与未来算力形态
AI应用转折点
智能体技术推动AI从“对话”走向“行动”,算力需求转向并发能力与稳定性。
行业预期
算力与应用协同优化,ASIC芯片及协议统一将提升灵活性。
算力供给的未来路径
系统级协同优化:芯片到系统软件到模型应用的垂直跨层协同。
产品矩阵:从尖端(scaleX640)到普惠(scaleX40),实现分层供给。
结语
AI技术的应用普及对算力供给提出了新的挑战和要求。中科曙光通过发布scaleX40,旨在降低算力使用门槛,提高效率,推动AI技术在更多领域的广泛应用。