Skip to content

Commit 964fcac

Browse files
authored
更新昆仑芯的正式名称为"“昆仑芯” ,remove R200-8FS (#6684)
1 parent f998df4 commit 964fcac

18 files changed

+52
-52
lines changed

docs/eval/evaluation_of_docs_system.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -480,7 +480,7 @@ MindSpore 的有自己独立的文档分类标准和风格,所以硬套本文
480480
- PyTorch-PaddlePaddle API 映射表
481481
- 硬件支持
482482
- 飞桨产品硬件支持表
483-
- 昆仑 XPU 芯片运行飞桨
483+
- 昆仑芯 XPU 芯片运行飞桨
484484
- 海光 DCU 芯片运行飞桨
485485
- 昇腾 NPU 芯片运行飞桨
486486
- 参与开发
@@ -564,7 +564,7 @@ MindSpore 的有自己独立的文档分类标准和风格,所以硬套本文
564564
| 自定义算子 | Tensors and operations Custom layers Custom traning: walkthrough Create an op Extension types | 5 | Double Backward with Custom Functions Fusing Convolution and Batch Norm using Custom Function Custom C++ and CUDA Extensions Extending TorchScript with Custom C++ Operators Extending TorchScript with Custom C++ Classes Registering a Dispatched Operator in C++ Extending dispatcher for a new backend in C++ | 7 | 算子分类 运算重载 自定义算子(CPU) 自定义算子(GPU) 自定义算子(Ascend) 自定义算子(基于 Custom 表达) | 6 | 自定义原生算子 原生算子开发注意事项 自定义外部算子 自定义 Python 算子 API 介绍 API 示例 本地开发指南 提交 PR 注意事项 FAQ | 9 |
565565
| 分布式训练 | Distributed training with Kereas Distributed training with DTensors Using DTensors with Keras Custom training loops Multi-worker training with Keras Multi-worker training with CTL Parameter Server Training Distributed input Distributed training | 9 | PyTorch Distributed Overview Single-Machine Model Parallel Best PracticesGetting Started with Distributed Data Parallel Writing Distributed Applications with PyTorch Getting Started with Fully Sharded Data Prallel Customize Process Group Backends Using Cpp Extension Getting Started with Distributed RPC Framework Implementing a Parameter Server Using Distributed RPC Framework Distributed Pipeline Parallelsim using RPC Implementing Batch RPC Processing Using Asynchronous Executions Combining Distributed DataPrallel with Distributed RPC Framework Training Transformer models using Pipeline Parallelism Training Transformer models using Distributed Data Parallel and Pipeline Parallelism Distributed Training with Uneven Inputs Using the Join Context Manager | 16 | 分布式并行总览 分布式集合通信原语 分布式并行训练基础样例(Ascend) 分布式并行训练基础样例(GPU) 分布式推理 保存和加载模型(HyBrid Parallel 模式) 分布式并行训练 Transformer 模型 鹏程·盘古模型网络多维度混合并行解析 分布式故障恢复 | 9 | 单机多卡训练 分布式训练开始 使用 FleetAPI 进行分布式训练 | 3 |
566566
| 框架设计文档 | Random number generation | 1 | 分散在 API 文档、源码中,其实比较丰富。30+ | 30+ | 设计白皮书 全场景统一 函数式微分编程 动静态图结合 异构并行训练 分布式并行 中间表达 MindIR 高性能数据处理引擎 图算融合加速引擎 二阶优化 可视化调试调优 安全可信 术语 | 13 | | 0 |
567-
| 其它 | Integrated gradients Uncertainty quantification with SNGP Probabilistic regression Keras 一级标题下的 13 篇文章 Thinking in TensorFlow 2 Data input pipelines 一级标题下的 3 篇 GPU TPU | 20 | Learn the Basics Quickstart Deep Learning with PyTorch: A 60 Minute Blitz Building a Convolution/Batch Norm fuser in FX Building a Simple CPU Performance Profiler with FX Channels Last Memory Format in PyTorch Forward-mode Automatic Differentiation Using the PyTorch C++ Frontend Dynamic Parallelism in TorchScript Autograd in C++ Frontend Static Quantization with Eager Model in PyTorch | 11 | 基本介绍 快速入门 进阶案例:线性拟合 混合精度 梯度累积算法 自适应梯度求和算法 降维训练算法 | 7 | 10 分钟快速上手飞桨 使用线性回归预测波士顿房价 模型导出 ONNX 协议 飞桨产品硬件支持表 昆仑 XPU 芯片运行飞桨 海光 DCU 芯片运行飞桨 昇腾 NPU 芯片运行飞桨 环境变量 FLAGS 下 9 篇 hello paddle:从普通程序走向机器学习程序 通过 AutoEncoder 实现时序数据异常检测 广播介绍 自动混合精度训练 梯度裁剪 升级指南 | 20+ |
567+
| 其它 | Integrated gradients Uncertainty quantification with SNGP Probabilistic regression Keras 一级标题下的 13 篇文章 Thinking in TensorFlow 2 Data input pipelines 一级标题下的 3 篇 GPU TPU | 20 | Learn the Basics Quickstart Deep Learning with PyTorch: A 60 Minute Blitz Building a Convolution/Batch Norm fuser in FX Building a Simple CPU Performance Profiler with FX Channels Last Memory Format in PyTorch Forward-mode Automatic Differentiation Using the PyTorch C++ Frontend Dynamic Parallelism in TorchScript Autograd in C++ Frontend Static Quantization with Eager Model in PyTorch | 11 | 基本介绍 快速入门 进阶案例:线性拟合 混合精度 梯度累积算法 自适应梯度求和算法 降维训练算法 | 7 | 10 分钟快速上手飞桨 使用线性回归预测波士顿房价 模型导出 ONNX 协议 飞桨产品硬件支持表 昆仑芯 XPU 芯片运行飞桨 海光 DCU 芯片运行飞桨 昇腾 NPU 芯片运行飞桨 环境变量 FLAGS 下 9 篇 hello paddle:从普通程序走向机器学习程序 通过 AutoEncoder 实现时序数据异常检测 广播介绍 自动混合精度训练 梯度裁剪 升级指南 | 20+ |
568568

569569
可以看除,PaddlePaddle 在文档上是比较完备的,在本文划分的 19 个具体领域中的 17 个领域中都已有文档,包括:
570570

docs/guides/06_distributed_training/deployment_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -12,7 +12,7 @@ PaddlePaddle 分布式对不同系统和硬件的支持情况如下表所示,
1212
* -
1313
- CPU
1414
- GPU
15-
- 昆仑 XPU
15+
- 昆仑芯 XPU
1616
- 海光 DCU
1717
- 昇腾 NPU
1818
* - Linux

docs/guides/06_distributed_training/ps/cluster_overview_ps_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -86,7 +86,7 @@ RPC&NCCL 混合通信可以将部分稀疏参数采用 RPC 协议跨节点通信
8686
1. 定制化 GPU 机型,调整机器内 CPU 与 GPU 的硬件配比。
8787
2. 混布 CPU 和 GPU 机器节点,来调整机器间的硬件配比。
8888

89-
基于这两种解决方案,飞桨框架 2.0 版本创新性地推出了通用异构参数服务器功能(HeterPS)。一举解除了传统参数服务器模式下,Worker 节点必须严格使用同一种硬件型号的枷锁,使训练任务对硬件型号不敏感,即可以同时使用不同的硬件混合异构训练,如 CPU、AI 专用芯片(如百度昆仑 XPU)以及不同型号的 GPU 如 v100、P40、K40 等。同时还可以解决大规模稀疏特征模型训练场景下 IO 占比过高导致的芯片资源利用率过低的问题。通过异构参数服务器训练模式,用户可以在硬件异构集群中部署分布式训练任务,例如云服务器集群,高效利用不同算力芯片,为用户提供更高吞吐、更低资源消耗的训练能力。
89+
基于这两种解决方案,飞桨框架 2.0 版本创新性地推出了通用异构参数服务器功能(HeterPS)。一举解除了传统参数服务器模式下,Worker 节点必须严格使用同一种硬件型号的枷锁,使训练任务对硬件型号不敏感,即可以同时使用不同的硬件混合异构训练,如 CPU、AI 专用芯片(如百度昆仑芯 XPU)以及不同型号的 GPU 如 v100、P40、K40 等。同时还可以解决大规模稀疏特征模型训练场景下 IO 占比过高导致的芯片资源利用率过低的问题。通过异构参数服务器训练模式,用户可以在硬件异构集群中部署分布式训练任务,例如云服务器集群,高效利用不同算力芯片,为用户提供更高吞吐、更低资源消耗的训练能力。
9090

9191
.. image:: ../images/heterps.jpeg
9292
:width: 600

docs/guides/beginner/train_eval_predict_cn.ipynb

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -111,7 +111,7 @@
111111
"\n",
112112
"> 注:\n",
113113
"> * 本文仅以单机单卡场景为例,介绍模型训练的方法,如果需要使用单机多卡、多机多卡训练,请参考如下章节:[分布式训练](../06_distributed_training/index_cn.html)。\n",
114-
"> * 飞桨框架除了支持在 CPU、GPU 上训练,还支持在百度昆仑 XPU、华为昇腾 NPU 等 AI 计算处理器上训练,对应的训练指导请参考 [硬件支持](../hardware_support/index_cn.html) 章节。\n"
114+
"> * 飞桨框架除了支持在 CPU、GPU 上训练,还支持在百度昆仑芯 XPU、华为昇腾 NPU 等 AI 计算处理器上训练,对应的训练指导请参考 [硬件支持](../hardware_support/index_cn.html) 章节。\n"
115115
]
116116
},
117117
{

docs/guides/hardware_support/hardware_info_cn.md

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -10,7 +10,7 @@
1010
| 服务端 GPU | | NVIDIA | Ada Lovelace、Hopper、 Ampere、Turing、 Volta 架构 | [安装](https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/pip/linux-pip.html) | [源码编译](https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/compile/linux-compile.html) | ✔️ | |
1111
| AI 加速芯片 | 达芬奇 | 华为 | 昇腾 910 系列 | [安装](./npu/install_cn.html#wheel) | [源码编译](./npu/install_cn.html) | | ✔️ |
1212
| AI 加速芯片 | GPGPU | 海光 | 海光 Z100 系列 | [安装](./dcu/install_cn.html#wheel) | [源码编译](./dcu/install_cn.html) | | [支持模型](./dcu/support_cn.html) |
13-
| AI 加速芯片 | XPU | 百度 | 昆仑 R200、R300 等 | [安装](./xpu/install_cn.html#wheel) | [源码编译](./xpu/install_cn.html#xpu) | | [支持模型](./xpu/support_cn.html) |
13+
| AI 加速芯片 | XPU | 百度 | 昆仑芯 R200、R300 等 | [安装](./xpu/install_cn.html#wheel) | [源码编译](./xpu/install_cn.html#xpu) | | [支持模型](./xpu/support_cn.html) |
1414
| AI 加速芯片 | IPU | Graphcore | GC200 | | | | ✔️ |
1515
| AI 加速芯片 | MLU | 寒武纪 | MLU370 系列 | [安装](./mlu/install_cn.html#wheel) | [源码编译](./mlu/install_cn.html) | | [支持模型](./mlu/support_cn.html) |
1616
| AI 加速芯片 | | 天数智芯 | 天垓 100 | [安装](https://gitee.com/deep-spark/deepsparkhub/blob/master/docker/Iluvatar/README.md) || | | ✔️ |
@@ -29,7 +29,7 @@
2929
| AI 加速芯片 | MLU | 寒武纪 | MLU370 系列 | | [源码编译](./mlu/install_cn.html) | | ✔️ |
3030
| AI 加速芯片 | MUSA | 摩尔线程 | MTT S 系列 GPU | | | | |
3131
| AI 加速芯片 | GPGPU | 海光 | 海光 Z100 系列 | | [源码编译](https://www.paddlepaddle.org.cn/inference/master/guides/hardware_support/dcu_hygon_cn.html) | | [支持模型](./dcu/support_cn.html) |
32-
| AI 加速芯片 | XPU | 百度 | 昆仑 R200、R300 等 | | [源码编译](https://www.paddlepaddle.org.cn/inference/master/guides/hardware_support/xpu_kunlun_cn.html) | | [支持模型](./xpu/support_cn.html) |
32+
| AI 加速芯片 | XPU | 百度 | 昆仑芯 R200、R300 等 | | [源码编译](https://www.paddlepaddle.org.cn/inference/master/guides/hardware_support/xpu_kunlun_cn.html) | | [支持模型](./xpu/support_cn.html) |
3333
| 服务端 CPU | ARM | 飞腾 | FT-2000+/64、S2500 | |[源码编译](../../install/compile/arm-compile.html#anchor-1) | | |
3434
| 服务端 CPU | ARM | 华为 | 鲲鹏 920 2426SK | |[源码编译](../../install/compile/arm-compile.html) | | |
3535
| 服务端 CPU | MIPS | 龙芯 | 龙芯 3A4000、3A5000、3C5000L | |[源码编译](../../install/compile/mips-compile.html#anchor-0) | | |
@@ -49,7 +49,7 @@
4949
| AI 加速芯片 | | 瑞芯微 | RK18xx 系列 | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/rockchip_npu.html#id5) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/rockchip_npu.html#id1) |
5050
| AI 加速芯片 | | 联发科 | NeuroPilot APU | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/mediatek_apu.html#id1) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/mediatek_apu.html#id1) |
5151
| AI 加速芯片 | | Imagination | PowerVR 2NX | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/huawei_kirin_npu.html#id5) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/huawei_kirin_npu.html#id1) |
52-
| AI 加速芯片 | | 百度 | 昆仑 R200、R300 等 | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/baidu_xpu.html#id4) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/baidu_xpu.html#id1) |
52+
| AI 加速芯片 | | 百度 | 昆仑芯 R200、R300 等 | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/baidu_xpu.html#id4) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/baidu_xpu.html#id1) |
5353
| AI 加速芯片 | | 寒武纪 | 思元系列芯片 | | [源码编译](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/cambricon_mlu.html#cankaoshiliyanshi) | | [支持模型](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/cambricon_mlu.html#paddle) |
5454
| AI 加速芯片 | | 比特大陆 | 算丰 BM16 系列芯片 | | [源码编译](https://paddlelite.paddlepaddle.org.cn/demo_guides/bitmain.html#id5) | | [支持模型](https://paddlelite.paddlepaddle.org.cn/demo_guides/bitmain.html#id1) |
5555
| AI 加速芯片 | | 紫光展锐 | T820 | | [源码编译](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/android_nnapi.html#android-nnapi-paddle-lite) | | [支持模型](https://www.paddlepaddle.org.cn/lite/develop/demo_guides/android_nnapi.html#paddle) |

docs/guides/hardware_support/index_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -7,7 +7,7 @@
77
你可以通过以下内容,了解飞桨框架硬件支持相关的内容:
88

99
- `飞桨硬件支持 <./hardware_info_cn.html>`_ : 说明飞桨产品支持的硬件。
10-
- `昆仑 XPU 芯片运行飞桨 <./xpu/index_cn.html>`_ : 介绍如何在昆仑 XPU 芯片环境上安装和使用飞桨。
10+
- `昆仑芯 XPU 芯片运行飞桨 <./xpu/index_cn.html>`_ : 介绍如何在昆仑芯 XPU 芯片环境上安装和使用飞桨。
1111
- `海光 DCU 芯片运行飞桨 <./dcu/index_cn.html>`_ : 介绍如何在海光 DCU 芯片环境上安装和使用飞桨。
1212
- `昇腾 NPU 芯片运行飞桨 <./npu/index_cn.html>`_ : 介绍如何在昇腾 NPU 芯片环境上安装和使用飞桨。
1313
- `寒武纪 MLU 芯片运行飞桨 <./mlu/index_cn.html>`_ : 介绍如何在寒武纪 MLU 芯片环境上安装和使用飞桨。

docs/guides/hardware_support/xpu/example_cn.md

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -1,10 +1,10 @@
1-
# 昆仑 XPU 运行示例
1+
# 昆仑芯 XPU 运行示例
22

3-
**预先要求**:请先根据文档 [昆仑 XPU 安装说明](./install_cn.html) 准备昆仑 XPU 运行环境,建议以下步骤都在 docker 环境中运行。
3+
**预先要求**:请先根据文档 [昆仑芯 XPU 安装说明](./install_cn.html) 准备昆仑芯 XPU 运行环境,建议以下步骤都在 docker 环境中运行。
44

55
## 训练示例
66

7-
[ResNet50_vd](https://github.com/PaddlePaddle/PaddleClas/blob/release/2.5/docs/zh_CN/quick_start/quick_start_classification_new_user.md) 模型为例,介绍如何使用昆仑 XPU 进行训练。
7+
[ResNet50_vd](https://github.com/PaddlePaddle/PaddleClas/blob/release/2.5/docs/zh_CN/quick_start/quick_start_classification_new_user.md) 模型为例,介绍如何使用昆仑芯 XPU 进行训练。
88

99
### 一、下载套件代码
1010

@@ -65,7 +65,7 @@ python tools/eval.py -c ./ppcls/configs/quick_start/ResNet50_vd.yaml \
6565

6666
## 推理示例
6767

68-
[ResNet50](https://paddle-inference-dist.bj.bcebos.com/Paddle-Inference-Demo/resnet50.tgz) 模型为例,介绍如何使用昆仑 XPU 进行推理。
68+
[ResNet50](https://paddle-inference-dist.bj.bcebos.com/Paddle-Inference-Demo/resnet50.tgz) 模型为例,介绍如何使用昆仑芯 XPU 进行推理。
6969

7070
### 一、下载推理程序
7171

docs/guides/hardware_support/xpu/index_cn.rst

Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -1,16 +1,16 @@
11
.. _cn_xpu_information:
22

33
####################
4-
昆仑 XPU 芯片
4+
昆仑芯 XPU 芯片
55
####################
66

7-
百度昆仑 AI 计算处理器(Baidu KUNLUN AI Computing Processor)是百度集十年 AI 产业技术实践于 2019 年推出的全功能 AI 芯片。基于自主研发的先进 XPU 架构,为云端和边缘端的人工智能业务而设计。 百度昆仑与飞桨及其他国产软硬件强强组合,打造一个全面领先的国产化 AI 技术生态,部署和应用于诸多 “人工智能+“的行业领域,包括智能云和高性能计算,智慧制造、智慧城市和安防等。更多昆仑 XPU 芯片详情及技术指标请 `点击这里 <https://www.kunlunxin.com/>`_ 。
7+
百度昆仑芯 AI 计算处理器(Baidu KUNLUN AI Computing Processor)是百度集十年 AI 产业技术实践于 2019 年推出的全功能 AI 芯片。基于自主研发的先进 XPU 架构,为云端和边缘端的人工智能业务而设计。 百度昆仑芯与飞桨及其他国产软硬件强强组合,打造一个全面领先的国产化 AI 技术生态,部署和应用于诸多 “人工智能+“的行业领域,包括智能云和高性能计算,智慧制造、智慧城市和安防等。更多昆仑芯 XPU 芯片详情及技术指标请 `点击这里 <https://www.kunlunxin.com/>`_ 。
88

9-
飞桨框架支持基于昆仑 XPU 芯片的训练和推理,请参考以下内容快速体验:
9+
飞桨框架支持基于昆仑芯 XPU 芯片的训练和推理,请参考以下内容快速体验:
1010

11-
- `昆仑 XPU 安装说明 <./install_cn.html>`_ : 昆仑 XPU 安装说明
12-
- `昆仑 XPU 运行示例 <./example_cn.html>`_ : 昆仑 XPU 运行示例
13-
- `昆仑 XPU 支持模型 <./support_cn.html>`_ : 昆仑 XPU 支持模型
11+
- `昆仑芯 XPU 安装说明 <./install_cn.html>`_ : 昆仑芯 XPU 安装说明
12+
- `昆仑芯 XPU 运行示例 <./example_cn.html>`_ : 昆仑芯 XPU 运行示例
13+
- `昆仑芯 XPU 支持模型 <./support_cn.html>`_ : 昆仑芯 XPU 支持模型
1414

1515
.. toctree::
1616
:hidden:

docs/guides/hardware_support/xpu/install_cn.md

Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -1,20 +1,20 @@
1-
# 昆仑 XPU 安装说明
1+
# 昆仑芯 XPU 安装说明
22

33
飞桨框架 XPU 版支持昆仑芯 XPU 的训练和推理,提供两种安装方式:
44

55
1. 通过飞桨官网发布的 wheel 包安装
66
2. 通过源代码编译安装得到 wheel 包
77

8-
## 昆仑 XPU 系统要求
8+
## 昆仑芯 XPU 系统要求
99

1010
| 要求类型 | 要求内容 |
1111
| --------- | -------- |
12-
| 芯片型号 | 昆仑芯 2 代,包括 R200、R300、R200-8F、R200-8FS、RG800 |
12+
| 芯片型号 | 昆仑芯 2 代,包括 R200、R300、R200-8F、RG800 |
1313
| 操作系统 | Linux 操作系统,包括 Ubuntu、CentOS、KylinV10 |
1414

1515
## 运行环境准备
1616

17-
推荐使用飞桨官方发布的昆仑 XPU 开发镜像,该镜像预装有昆仑基础运行环境库(XRE)。
17+
推荐使用飞桨官方发布的昆仑芯 XPU 开发镜像,该镜像预装有昆仑芯基础运行环境库(XRE)。
1818

1919
```bash
2020
# 拉取镜像
@@ -26,7 +26,7 @@ docker run -it --name paddle-xpu-dev -v $(pwd):/work \
2626
--cap-add=SYS_PTRACE --security-opt seccomp=unconfined \
2727
registry.baidubce.com/device/paddle-xpu:ubuntu20-x86_64-gcc84-py310 /bin/bash
2828

29-
# 检查容器内是否可以正常识别昆仑 XPU 设备
29+
# 检查容器内是否可以正常识别昆仑芯 XPU 设备
3030
xpu_smi
3131

3232
# 预期得到输出如下
@@ -55,7 +55,7 @@ Driver Version: 4.0
5555

5656
## 安装飞桨框架
5757

58-
**注意**:当前飞桨 develop 分支仅支持 X86 架构,如需昆仑 XPU 的 ARM 架构支持,请切换到 [release/2.6](https://www.paddlepaddle.org.cn/documentation/docs/zh/2.6/guides/hardware_support/xpu/install_cn.html) 分支。
58+
**注意**:当前飞桨 develop 分支仅支持 X86 架构,如需昆仑芯 XPU 的 ARM 架构支持,请切换到 [release/2.6](https://www.paddlepaddle.org.cn/documentation/docs/zh/2.6/guides/hardware_support/xpu/install_cn.html) 分支。
5959

6060
### 安装方式一:wheel 包安装
6161

docs/guides/hardware_support/xpu/support_cn.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -1,4 +1,4 @@
1-
# 昆仑 XPU 支持模型
1+
# 昆仑芯 XPU 支持模型
22

33
飞桨框架在昆仑芯 XPU 上经验证的模型的支持情况如下:
44

0 commit comments

Comments
 (0)