OpenAI Triton 已开始合并 AMD ROCm 代码,9 月 20 日举行开发者大会
OpenAI 声称:Triton 只要 25 行代码,代码就能在 FP16 矩阵乘法上达到与 cuBLAS 相当的举行性能。
从 Github 我们可以看到,已开月日OpenAI 已经开始在最新的始合 Triton 版本中合并 AMD ROCm 相关分支代码,也正因此暴露了很多东西。代码也就是举行说,最新 Triton 后端已适配 AMD 平台,已开月日可谓意义重大。始合
通过官方的代码说法来看,他们已经通过了“test_core.py”上的大多数单元测试环节,但由于各种原因跳过了一些测试。
注意到,OpenAI 还宣布将于 9 月 20 日上午 10 点至下午 4 点在加利福尼亚州山景城的微软硅谷园区举行 Triton 开发者大会,而日程安排中就包括“将 Triton 引入 AMD GPU”和“Triton 的英特尔 XPU”两大环节,预计 Triton 将很快摆脱英伟达 CUDA 垄断的历史。
值得一提的是,Triton 是开源的,比起闭源的 CUDA,其他硬件加速器能直接集成到 Triton 中,大大减少了为新硬件建立 AI 编译器栈的时间。
在此前发布的 PyTorch 2.0 版本中,TorchInductor 便引入了 OpenAI Triton 支持,可为多个加速器和后端自动生成快速代码,同时实现用 Python 取代 CUDA 编程来写底层硬件的代码。也就是说,Triton 已经是 PyTorch 2.0 后端编译器关键构成部分。
实际上,此前 AMD ROCm 则主要是采用 Hipify 工具实现 CUDA 兼容,而随着 AMD 开始为 RDNA 3 消费级显卡提供 ROCm 支持,预计后续将会有更多平台选择适配 AMD 硬件。
相关阅读:
《AMD 将为 RDNA 3 消费级显卡提供 ROCm 支持,从 Radeon RX 7900 XTX 和 Pro W7900 开始》
《AMD 正式推出 HIP SDK:拓展 ROCm 生态,支持运行英伟达 CUDA 应用》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。
本文地址:http://www.jiemengs.com/html/684f998381.html
版权声明
本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。