华为云黄瑾:传统计算架构难支撑AI代际跃迁,超节点架构是创新

新京报贝壳财经讯(记者韦博雅)5月16日,加热炉工作原理在华为云AI峰会上,华为云副总裁黄瑾表示,随着大模型训练和推理对算力需求的爆炸式增长,传统计算架构已难以支撑AI技术的代际跃迁,超节点架构的诞生不仅是技术的突破,更是以工程化创新开辟AI产业的新路径。

黄瑾表示,AI算力的瓶颈,从单卡算力的瓶颈到单机内总线带宽的瓶颈,再到现在集群间通信带宽的瓶颈,天然气加热炉原理需求增长了1万倍。然而过去的8年里,单卡硬件的算力增长了40倍,但是节点内的总线带宽只增长了9倍,跨节点的网络带宽只增长了4倍,这使得集群网络通信成为当前大模型训练和推理的最大挑战。

黄瑾介绍,华为云推出的CloudMatrix 384超节点,直面通信效率瓶颈、内存墙制约、可靠性短板三大技术挑战,通过新型高速互联总线实现384张卡互联成为一个超级云服务器,最高提供300Pflops的算力规模,比英伟达NVL72 180Pflops的算力规模提升了67%。

同时,华为云CloudMatrix 384超节点具备MoE亲和、以网强算、以存强算、长稳可靠、朝推夜训、即开即用六大技术优势。

在CloudMatrix 384超节点的分布式推理平台的加持下,通过高速互联总线,能够实现一卡一专家高效分布式推理,单卡的MoE计算和通信效率大幅提升。而MatrixLink服务具有两层网络:超节点内部的ScaleUp总线网络和跨超节点间的ScaleOut网络,可以让超节点内384张高速互联,时延低至微秒。

除此之外,华为云首创的EMS弹性内存存储,通过内存池化技术,实现显存和算力解绑,可大幅提升资源利用率、性能和吞吐量,比如用EMS替代NPU中的显存,可使得首Token时延降低,最高降幅可达80%;昇腾云脑运维“1-3-10”标准还将硬件故障感知率从40%提升至90%。

avatar

新程序已上线 管理员

刚刚发布了:1篇 新内容
查阅文章

三月七日,沙湖道中遇雨。雨具先去,同行皆狼狈,余独不觉。已而遂晴,故作此词。莫听穿林打叶声,何妨吟啸且徐行。竹杖芒鞋轻胜马,谁怕?一蓑烟雨任平生。料峭春风吹酒醒,微冷,山头斜照却相迎。回首向来萧瑟处,归去,也无风雨也无晴。

发布评论

验证码
评论列表 (有 4 条评论)
222 2019-07-18 1# 回复
测试

QQ交谈

在线咨询:QQ交谈

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

电话联系

400-800-000

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

我的微信