AI 模型训练好之后最终还是要投入生产环境,这时候就会发现编译器几乎是绕不开的话题,尤其是在边缘设备部署 AI 模型时,模型能否发挥优势还要取决于它所运行的硬件,了解模型在不同硬件加速器上的编译和优化变得非常重要。
理想情况下,编译器无需算法工程师来操心,但是现在的编译器远没有那么智能。随着 AI 应用在边缘的落地,AI 编译器的开发也越来越多,以弥补 AI 模型和算力硬件之间的差距-MLIR ,TVM,XLA,PyTorch Glow,cuDNN 等。
PyTorch 创始人 Soumith Chintala 认为,随着深度学习的成熟应用,大公司之间的竞争将会变为编译器的竞争,了解编译原理可 ...
TPU-MLIR 开源 AI 编译器的视频教程,已经同步更新 B 站、知乎、CSDN 等平台,旨在通过一系列的课程让观众一步步深入了解 AI 编译器的原理及开发。
视频分享主要基于算能的开源工具链 TPU-MLIR 展开,内容会涵盖 MLIR 基本语法以及编译器中各类优化操作的实现细节,如图优化,int8 量化,算子切分和地址分配等。
AI 编译器主要功能:简化网络搭建、提升网络性能#计算机中的传统编译器,可以将各种高级语言例如 C++、Python 等编程语言转为统一的计算机可理解的低级语言,本质上 AI 编译器与传统编译器很相似,只不过要转换的对象变为了各种深度学习框架构建和训练出来的网络 ...