切换到宽版
  • 206阅读
  • 2回复

[智能应用]当AI从“烧钱”走向“算账” 超节点能否实现普惠破局? [复制链接]

上一主题 下一主题
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君
 

发帖
181004
金币
621518
道行
20030
原创
769
奖券
471
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 22829(小时)
注册时间: 2012-06-21
最后登录: 2026-04-28
只看楼主 正序阅读 楼主  发表于: 03-28
— 本帖被 兵马大元帅 执行加亮操作(2026-04-18) —
当AI技术从技术验证走向实际应用,算力供给的结构性调整正成为业界关注的焦点。
3月26日,中关村论坛年会现场,中科曙光发布世界首个无线缆箱式超节点——scaleX40。这款产品集成40张GPU,总算力超过28PFLOPS(FP8精度)。中科曙光高级副总裁李斌在发布会上表示,推出这一产品的初衷,是为了“补齐市场上的产品空缺”——在数百卡级的顶级超节点与当前主流的8卡服务器之间,寻找一个兼具性能与成本优势的“最佳收益点”。

“原来的超节点太过高配,而主力用于推理服务的8卡形态又已落伍。”李斌在接受记者采访时说。在他看来,随着以OpenClaw为代表的智能体技术快速兴起,AI算力使用模式正从以训练为主转向以推理和服务为主,算力基础设施的角色也相应地从“算力工厂”转变为“Token工厂”。在这一背景下,如何让超节点从“少数人的能力”变成“多数人的标配”,成为行业需要回答的问题。
算力需求的结构性变化
过去几年,AI算力的叙事主线是“越大越好”——更大的集群、更多的卡数、更高的参数规模。从千卡到万卡,再到十万卡集群,头部科技公司竞相追逐算力规模的极限。
但这一逻辑正在被市场需求的变化所修正。
“从当前市场需求来看,AI算力结构正在发生分层变化。”中科曙光高级副总裁李斌在发布会上表示。根据行业机构预测,全球AI基础设施投入仍将保持较快增长,但新增需求正逐步从超大规模集群,转向企业级和行业应用场景。
这意味着,算力配置的重点不再单纯追求规模上限,而是更加关注性能、成本与灵活性的平衡。
智源研究院AI框架研发部门负责人敖玉龙在圆桌对话中道出了科研机构面临的现实困境:“算法同学最理想的情况是,用一台机器就像用单机一样,不需要了解复杂的并行策略和优化策略。但现实是,大模型的规模决定了不可避免地需要一个复杂的系统。”
超节点的技术逻辑
也是在这一背景下,中科曙光选择了40卡这一规模作为切入点。
“业内普遍共识是:几十卡规模已足够满足大多数行业场景模型训练、推理及开发测试的算力需求,这也是兼顾效率与投入的最大公约数区间。”李斌解释,相比数百卡级的顶级超节点,40卡既具备支撑大模型训练和推理的能力,又不会带来过重的投入压力。
从技术路径来看,scaleX40采用了与顶级超节点不同的设计思路。它通过无线缆正交架构,将计算与交换节点实现直接对插,减少了光纤与铜缆的使用,同时采用标准19英寸箱式设计,可直接适配现有数据中心环境。
这种设计带来的直接影响是部署门槛的大幅降低。“原来的超节点基本上以柜为单位,而且是定制化系统,对整个机房的供电、环境要求非常高。”李斌在采访中表示,而scaleX40作为箱式系统,可以放在标准机柜里,接标准机房的供电和冷却设备。
在性能层面,scaleX40的通信效率提供了具体的数据支撑。与传统的5台8卡机相比,访存带宽超过80TB/s,提升约10到20倍,延迟降低接近一个数量级。更重要的是,40卡之间采用的是地址可直接访问的内存语义,而非传统网络传输模式,这在编程和使用上带来了实质性便利。
成本与收益的平衡点
对于大多数企业而言,算力决策的核心始终是投入产出比。
中科曙光方面给出的数据是:与传统5台8卡机相比,scaleX40的成本基本相当;但训练性能可提升120%,推理性能最高提升至330%。与组合柜式超节点相比,部署和采购门槛则有数量级的下降。
“普惠算力最直接的体现是,花同样的钱,得到4到5倍的收益。”李斌如此说道。
这种性价比优势的背后,是全栈协同优化的结果。从存储到网络,从管理平台到软件栈,scaleX40并非一个孤立的硬件产品。发布现场,中科曙光展示了与之配套的ParaStor分布式存储系统、ScaleFabric高速网络产品以及SothisAI开发管理平台。
“scaleX40不仅仅是一台机器,更是一套开箱即用的系统产品。”曙光信息产业(北京)有限公司副总裁李柳强调。系统出厂前已针对推理、训练等场景完成常用算子及软硬件的深度优化,并内置800多个完成适配的常用大模型。
从“技术竞赛”到“产业融合”
值得关注的是,scaleX40的发布时机恰逢AI应用形态的转折点。
年初以来,以OpenClaw为代表的智能体技术快速走热,推动AI从“对话”走向“行动”。这一变化对算力供给提出了新的要求——不再只是单次响应的速度,而是并发能力、稳定性和单位Token产出成本的综合考量。
“Token需要算力来做产出,但现在的评价维度和指标变得更多了。”李斌分析,对普通用户来说是响应速度,对算力系统运营者来说是并发支撑能力,而scaleX40正是希望在多个方面同时带来提升。
这种变化也反映在行业对算力形态的预期上。中国电信股份有限公司研究院云网融合技术研究所智算网络技术负责人王子潇提出,未来3—5年算力与应用的协同优化将越来越紧密,模型结构逐步收敛后,针对特定算子的ASIC芯片会快速发展。而在互连层面,Scale-up和Scale-out协议的统一可能带来节点规模扩张的更大灵活性。
算力供给的未来路径
从更宏观的视角看,中国算力产业正在经历的系统性转变。“现在国家对于算力中心建设总体的指导思想是让这些建设更有序、更集约、更绿色。”李斌表示,在去年发布面向顶级训练的scaleX640之后,如今推出面向普惠应用的scaleX40,形成从尖端到普惠的产品矩阵,这是算力分层供给逻辑的自然延伸。
在自主创新层面,中科曙光强调系统级协同优化的路径。“我们在整个国内计算AI生态里,跟上下游从芯片到系统软件,再到上层模型和应用,在做垂直的跨层协同。”李斌说道,通过这种协同去发挥更好的效率,体现的是产业链、生态链协同创新的方向。
当前,AI正加速进入千行百业。在这个过程中,算力能否以更低的门槛、更高的效率、更可控的成本实现供给,将直接影响AI应用的广度和深度。正如李斌所言:“我们希望让这个产品成为当前支撑模型推理服务最重要的生产力工具。”
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
我有我可以
在线jjybzxw

UID: 551814


发帖
244694
金币
885530
道行
2006
原创
2464
奖券
3580
斑龄
45
道券
1580
获奖
0
座驾
设备
摄影级
在线时间: 52166(小时)
注册时间: 2008-10-01
最后登录: 2026-04-28
只看该作者 板凳  发表于: 03-28
文章主要讨论了中科曙光在中关村论坛年会上发布的无线缆箱式超节点——scaleX40,以及AI算力供给的结构性调整。以下是核心内容的整理:
scaleX40产品发布
产品特点  
性能:集成40张GPU,总算力超过28PFLOPS(FP8精度)。  
设计:无线缆正交架构,计算与交换节点直接对插,减少光纤与铜缆使用;标准19英寸箱式设计,适配现有数据中心。  
成本与收益:成本与传统5台8卡机相当,但训练性能提升120%,推理性能提升330%。  
目标:填补市场空白,在数百卡级超节点与主流8卡服务器之间寻找性能与成本的最佳平衡点。
AI算力需求的结构性变化
从训练到推理的转型  
随着智能体技术(如OpenClaw)兴起,AI算力使用模式从以训练为主转向以推理和服务为主。  
算力基础设施角色从“算力工厂”转变为“Token工厂”,需关注并发能力、稳定性及Token产出成本。  
分层需求  
市场需求分层:超大规模集群需求减少,企业级和行业应用场景需求增加。  
算力配置重点:平衡性能、成本与灵活性,而非单纯追求规模。
超节点的技术逻辑与部署优势
技术路径  
scaleX40采用全栈协同优化,包括存储、网络、管理平台及软件栈。  
通信效率:访存带宽超80TB/s,延迟降低近10倍,内存语义直接访问。  
部署门槛降低  
箱式系统可直接放入标准机柜,适配常规供电和冷却设备,减少定制化需求。
成本与收益的平衡
投入产出比  
普惠算力:花同样钱,收益提升4到5倍。  
配套系统:ParaStor存储、ScaleFabric网络、SothisAI平台,开箱即用。
产业融合与未来算力形态
AI应用转折点  
智能体技术推动AI从“对话”走向“行动”,算力需求转向并发能力与稳定性。  
行业预期  
算力与应用协同优化,ASIC芯片及协议统一将提升灵活性。  
算力供给的未来路径  
系统级协同优化:芯片到系统软件到模型应用的垂直跨层协同。  
产品矩阵:从尖端(scaleX640)到普惠(scaleX40),实现分层供给。
结语
AI技术的应用普及对算力供给提出了新的挑战和要求。中科曙光通过发布scaleX40,旨在降低算力使用门槛,提高效率,推动AI技术在更多领域的广泛应用。
如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
181004
金币
621518
道行
20030
原创
769
奖券
471
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 22829(小时)
注册时间: 2012-06-21
最后登录: 2026-04-28
只看该作者 沙发  发表于: 03-28
在AI产业从“烧钱”转向“算账”的关键阶段,超节点技术正成为实现普惠破局的核心路径。其核心价值在于通过架构创新平衡性能、成本与灵活性,推动算力从“奢侈品”变为“基础设施”。以下是关键分析:

一、破解成本困局:从“碎钞机”到“性价比最优解”
填补市场空白
传统方案存在两极分化:百卡级超节点成本过高,而主流8卡服务器在智能体时代已显落伍。超节点(如40卡规模)精准定位“最佳收益点”,以相近成本实现训练性能提升120%、推理性能最高提升330%,让单位算力投入产出倍增。

降低部署与运维门槛

无线缆设计:正交架构取消外部线缆,通过直接对插减少故障点,散热压力降低30%以上。
标准化适配:19英寸箱式设计兼容现有数据中心,无需改造供电与冷却系统,部署周期缩短50%。
二、技术重构:从“算力工厂”到“Token工厂”
需求范式转移
智能体应用(如OpenClaw)爆发推动算力需求从训练转向推理,评价指标从“峰值算力”变为“Token产出效率”。超节点通过资源池化形成统一显存,支撑千亿模型推理与高并发实时交互,成为“Token经济”的基建设施。

架构创新突破瓶颈

全互连架构:华为灵衢协议、中科曙光专用链路实现微秒级延迟,通信效率较传统集群提升10-20倍。
软硬协同优化:预置800+适配模型与深度优化算子,实现开箱即用,避免中小企业陷入调优陷阱。
三、普惠落地:覆盖90%企业场景的“算力甜点区”
场景适配性
32-70卡规模被验证为当前最优区间:

30卡级:满足OCR、办公助手等轻量推理;
40-70卡级:支撑行业模型微调、智能体高并发服务,兼顾性能与成本。
生态开放加速普及

华为开源灵衢协议,支持第三方开发兼容硬件;
曙光开放AI架构,支持多品牌加速卡,降低生态迁移成本。
四、挑战与未来:普惠仍需跨越三道门槛
成本敏感度:高端超节点初期投入仍较高,需通过云服务分时租赁模式降低门槛。
算法协同:需与MoE等稀疏架构深度结合,避免硬件资源空置。
私域算力需求:数据安全驱动私有化部署,要求超节点进一步简化运维。
结论:超节点通过“架构革新+场景精准匹配+生态开放”,正成为AI普惠的核心破局点。其本质是将算力转化为可度量的“Token生产力”,推动AI从技术狂欢走向商业理性。随着标准化与开源生态成熟,中小型企业“用得起、用得稳”算力的时代正在到来。
如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个