5月23日,“鲲鹏昇腾开发者大会2025”上,华为昇腾计算业务总裁张迪煊围绕“一起昇腾 共绽光芒”解读了昇腾AI的技术战略与生态布局。他表示,昇腾异构计算架构CANN(Compute Architecture for Neural Networks)作为昇腾AI的核心软件平台,始终以“使能每一位创新者”为目标,坚持深度开放策略,持续技术创新,释放硬件极致潜能,推动AI开发效率与性能的双重突破。本次大会带来了多项重磅技术升级,并通过构建全面开放的创新生态与极致效能的算力底座,携手全球开发者加速AI技术向千行万业渗透,以智能算力革命重塑产业创新范式。
生态构建开发者赋能:从人才培养到生态共建 激活产业创新活力
昇腾CANN以"使能每一位创新者"为核心理念,自2023年宣布深度开放以来,通过多维协同创新构建开发者友好型AI生态,当前由6000+认证开发者组成的创新社区持续释放技术势能。截至目前,已携手互联网、运营商、老牌金沙投网 等30多个伙伴,创新开发260多个高性能算子,大幅提升业务场景性能表现。
CANN在技术创新之路上成果丰硕。在操作系统层面,打造多样化OS,兼容鸿蒙、欧拉等,为开发运行筑牢根基。CANN开源算子加速库、通信算法、Ascend C、集合通信库等组件已在Gitee社区上线260+算子、10+通信算法参考样例,显著提升开发效率。整图优化方面,提供内存复用、自动调度等加速技术,加速模型计算效率。
这种"基础层开放+应用层共创"的双轮驱动模式,不仅重塑了AI算力效能边界,更推动了AI产业链的协同进化,形成从技术突破到商业转化的生态闭环。
深度开放再升级:分层架构匹配多元开发场景 开发效率显著提升
在AI开发效率成为产业竞争焦点的当下,昇腾CANN通过分层开放架构实现技术普惠化跃迁,构建起覆盖算子开发、系统调优到编译链优化的全场景赋能体系,实现“效率与性能兼得”的开发体验升级:
最佳实践赋能,降低开发门槛:发布CATLASS算子模板库,分层提供Device层调用接口、Kernel层完整实现及Block/Tile/Basic层拆解源码,实现Matmul开发周期缩至50%;开源Ascend C 2.0并提供丰富开发接口,结合算子加速库(AOL)与集合通信库(HCCL),搭配Gitee社区参考样例,助力开发者快速完成算子开发与调优。
开放底层原子能力,释放极致性能:开放190+runtime运行时接口,提供底层原子级能力,支持灵活组合,允许开发者直接调用NPU硬件的原子级能力,实现整图调度优化与硬件性能极限挖掘。
毕昇编译器构建开放生态,兼容主流开发体系:毕昇编译器以“全链路优化+生态兼容”为核心,打造开发者友好型工具链。在编译优化层面,前端支持异构混合编程,中端优化使算子性能提升20%+,后端实现内存问题分钟级定位;在生态开放层面,开放AscendNPU IR接口,实现开发者“无感迁移”开发体验,同时通过开源社区持续输出技术能力,推动昇腾与全球AI开发生态的深度融合。在生态建设上,通过毕昇编译器的升级与开放,实现与Triton、FlagTree等第三方编程框架的无感对接。
昇腾CANN核心技术引领:计算-内存-通信"三驾马车"重构AI算力基因
伴随AI技术持续突破,模型优化技术从“模型结构创新”延伸到“训推全流程”算法创新,从模型层面算法优化,下探到底层硬件资源的极致利用。CANN是充分释放处理器极致性能的关键,今年昇腾在计算加速、通信加速、内存优化三大领域协同发力,持续释放硬件价值,创新加速技术,以满足前沿模型架构及工程创新的发展诉求。
在计算优化领域,通过MLAPO融合算子技术,将MoE模型中13个串行小算子整合为超级大算子,结合Vector与Cube计算单元并行处理,使计算耗时从109ms降至45ms,性能提升超142%,显著释放硬件计算潜力。
通信效率突破上,NPUDirect通信算法革新传统RDMA异步通信模式,实现“单消息一次同步”机制,使小包通信耗时降低90%,整网通信时延减少50%,在大规模MoE模型推理中大幅提升数据传输效率。
内存管理方面,创新多重地址映射技术,动态切分物理内存适配虚拟地址,有效拼接不连续空闲内存,将内存利用率提升20%以上,破解动态shape场景下的碎片难题。
三大技术协同突破,构建起昇腾CANN“计算高效、通信敏捷、内存精细”的底层技术体系,为AI模型训推全流程提供极致算力支撑,引领AI基础设施性能跃迁。
从分层开放的生态裂变到计算-内存-通信的原子级突破,昇腾CANN正以"技术纵深的突破与生态广度的延展"双轮驱动,重塑AI产业的创新范式。这不仅是一场硬件算力的革命,更是一场开发者与技术的共进化。在这场波澜壮阔的算力跃升征途中,昇腾CANN不仅是中国AI创新的技术底座,更是全球开发者突破想象边界的星辰大海——以开放之姿,与时代共昇腾;以极致之力,与未来共绽放。