Skip to content

Commit 0604a87

Browse files
committed
Merge remote-tracking branch 'upstream/develop' into fix1009
2 parents ccc284e + 83aa4ff commit 0604a87

File tree

7 files changed

+202
-82
lines changed

7 files changed

+202
-82
lines changed

docs/api/paddle/distributed/parallelize_cn.rst

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -9,7 +9,7 @@ parallelize
99

1010

1111
.. note::
12-
如果提供的 ``config`` 的键中不包含 ``dp_config````mp_config`` 与 ``pp_config`` 中的任何字段,则本函数会直接返回 model 与 optimizer。
12+
如果提供的 ``config`` 的键中不包含 ``dp_config````mp_config`` 与 ``pp_config`` 中的任何字段,则本函数会直接返回 model 与 optimizer。
1313

1414

1515
参数
@@ -20,21 +20,21 @@ parallelize
2020
- **mesh** (paddle.distributed.ProcessMesh,可选) - 模型与优化器(如提供)并行所发生的进程空间。最佳用法:在调用本 API 之前,通过
2121
调用 ``paddle.distributed.set_mesh`` 方法来配置 mesh 信息,并将本 API 的 mesh 参数设置为 None。注意,如果您通过本 API 传递
2222
了 mesh 信息,传入的 mesh 会覆盖外部设置的 mesh。
23-
- **config** (dict,可选) - 用来指导并行化的配置。该配置是一个字典,键的值可以从``dp_config````mp_config`` 与
23+
- **config** (dict,可选) - 用来指导并行化的配置。该配置是一个字典,键的值可以从 ``dp_config````mp_config`` 与
2424
``pp_config`` 中进行选择,分别来指导数据并行、模型并行与流水线并行的并行化。一个合法的 config 可以是: ``{"dp_config":
2525
请参考本文档 dp_config 部分以获取更多内容, "mp_config": 请参考本文档 mp_config 部分以获取更多内容,
26-
"pp_config": 请参考本文档 pp_config 部分以获取更多内容}``。
26+
"pp_config": 请参考本文档 pp_config 部分以获取更多内容}``
2727

2828
dp_config (dict):指导数据并行的配置。该配置是一个字典,字典的键为 ``sharding_level`` 对应的值可以从 ``0/1/2/3`` 中选择。
29-
分别代表数据并行、sharding 并行 stage 1/2/3。一个合法的 dp_config 可以是:``{"sharding_level": 2}``.
29+
分别代表数据并行、sharding 并行 stage 1/2/3。一个合法的 dp_config 可以是:``{"sharding_level": 2}`` .
3030

3131
mp_config (dict):指导模型并行的配置。该配置是一个字典,字典的键为 ``parallelize_plan`` 对应值仍然为一个字典,将标识的 Layer 的
3232
名字或一个参数的名字与对应的策略进行映射。注意:这里被标识的 Layer 的名字可以按照正则字符串的格式来书写。注意:如果将一个参数的名字与
3333
策略进行映射,该参数的名字必须以 weight 或者 bias 结尾。所有合法的策略包含:``ColWiseParallel``,``RowWiseParallel``,
3434
``SequenceParallelBegin``,``SequenceParallelDisable``,``SequenceParallelEnable``,``SequenceParallelEnd``,
3535
``PrepareLayerInput`` 和 ``PrepareLayerOutput``。一个合法的 mp_config 可以是: ``{"parallelize_plan":
3636
{"llama.embed_tokens": ColWiseParallel(), "llama.norm": SequenceParallelEnable(),
37-
"lm_head.weight": ColWiseParallel()}}``。
37+
"lm_head.weight": ColWiseParallel()}}``
3838

3939
pp_config (dict):指导流水线并行的配置。该配置是一个字典,字典的键为 ``split_spec`` 与 ``global_spec`` (可选)。``split_spec``
4040
可以是一个字典或者是一个字符串。如果 ``split_spec`` 是一个字典,它将标识的 Layer 的名字与一个 ``SplitPoint`` 的值进行映射。

docs/api/paddle/static/IpuStrategy_cn.rst

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -137,7 +137,7 @@ COPY-FROM: paddle.static.IpuStrategy.disable_pattern
137137
register_patch(self)
138138
'''''''''
139139

140-
注册 patch function 以支持 IPU 上的动转静功能。该函数仅应在 IPU 动转静时使用,注册的函数会影响原动转静的逻辑,可通过``release_patch``释放注册的函数。
140+
注册 patch function 以支持 IPU 上的动转静功能。该函数仅应在 IPU 动转静时使用,注册的函数会影响原动转静的逻辑,可通过 ``release_patch`` 释放注册的函数。
141141

142142
**代码示例**
143143

@@ -183,19 +183,19 @@ COPY-FROM: paddle.static.IpuStrategy.parse_optimizer
183183
num_ipus
184184
'''''''''
185185

186-
返回 IpuStrategy 实例中的 IPU 设备个数,类型为 ``Int``。
186+
返回 IpuStrategy 实例中的 IPU 设备个数,类型为 ``Int``
187187

188188
is_training
189189
'''''''''
190190

191-
返回 IpuStrategy 实例中的计算模式是训练模式或推理模式,类型为 ``Bool``。
191+
返回 IpuStrategy 实例中的计算模式是训练模式或推理模式,类型为 ``Bool``
192192

193193
enable_pipelining
194194
'''''''''
195195

196-
返回 IpuStrategy 实例中是否使能数据流水线功能,类型为 ``Bool``。
196+
返回 IpuStrategy 实例中是否使能数据流水线功能,类型为 ``Bool``
197197

198198
enable_fp16
199199
'''''''''
200200

201-
返回 IpuStrategy 实例中是否使能 float16 计算图,类型为 ``Bool``。
201+
返回 IpuStrategy 实例中是否使能 float16 计算图,类型为 ``Bool``

docs/api/paddle/static/nn/embedding_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -66,7 +66,7 @@ embedding
6666
- **size** (tuple|list) - embedding 矩阵的维度。必须包含两个元素,第一个元素为 vocab_size(词表大小),第二个为 emb_size(embedding 层维度)。
6767
- **is_sparse** (bool,可选) - 是否使用稀疏的更新方式,这个参数只会影响反向的梯度更新的性能,sparse 更新速度更快,推荐使用稀疏更新的方式。但某些 optimizer 不支持 sparse 更新,比如 :ref:`cn_api_paddle_optimizer_Adadelta` 、 :ref:`cn_api_paddle_optimizer_Adamax`,此时 is_sparse 必须为 False。默认为 False。
6868
- **is_distributed** (bool,可选) - 是否使用分布式的方式存储 embedding 矩阵,仅在多机分布式 cpu 训练中使用。默认为 False。
69-
- **padding_idx** (int|long|None,可选) - padding_idx 需在区间 ``[-vocab_size, vocab_size)``,否则不生效,``padding_idx < 0`` 时,padding_idx 会被改成``vocab_size + padding_idx``,input 中等于 padding_index 的 id 对应的 embedding 信息会被设置为 0,且这部分填充数据在训练时将不会被更新。如果为 None,不作处理,默认为 None。
69+
- **padding_idx** (int|long|None,可选) - padding_idx 需在区间 ``[-vocab_size, vocab_size)`` ,否则不生效, ``padding_idx < 0`` 时,padding_idx 会被改成 ``vocab_size + padding_idx`` ,input 中等于 padding_index 的 id 对应的 embedding 信息会被设置为 0,且这部分填充数据在训练时将不会被更新。如果为 None,不作处理,默认为 None。
7070
- **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为 None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_paddle_ParamAttr`。此外,可以通过 ``param_attr`` 参数加载用户自定义或预训练的词向量。只需将本地词向量转为 numpy 数据格式,且保证本地词向量的 shape 和 embedding 的 ``size`` 参数一致,然后使用 :ref:`cn_api_paddle_to_tensor` 进行初始化,即可实现加载自定义或预训练的词向量。
7171
- **dtype** (str|paddle.dtype|np.dtype,可选) - 输出 Tensor 的数据类型,数据类型必须为:float32 或 float64,默认为 float32。
7272

docs/api/paddle/vision/ops/distribute_fpn_proposals_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -25,7 +25,7 @@ distribute_fpn_proposals
2525
- **refer_level** (int) - 具有指定比例的 FPN 层的引用级别。
2626
- **refer_scale** (int) - 具有指定级别的 FPN 层的引用比例。
2727
- **pixel_offset** (bool, 可选)- 是否有像素偏移。如果是 True, 在计算形状大小时时会偏移 1。默认值为 False。
28-
- **rois_num** (Tensor, 可选): 每张图所包含的 RoI 数量。是形状为[B]的 1-D Tensor, 数据类型为 int32。其中 B 是图像数量。如果``rois_num`` 不为 None, 将会返回一个形状为[B]的 1-D Tensor, 其中每个元素是每张图在对应层级上的 RoI 数量。默认值为 None。
28+
- **rois_num** (Tensor, 可选): 每张图所包含的 RoI 数量。是形状为[B]的 1-D Tensor, 数据类型为 int32。其中 B 是图像数量。如果 ``rois_num`` 不为 None, 将会返回一个形状为[B]的 1-D Tensor, 其中每个元素是每张图在对应层级上的 RoI 数量。默认值为 None。
2929
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
3030

3131
返回

docs/dev_guides/custom_device_docs/custom_runtime_cn.rst

Lines changed: 39 additions & 39 deletions
Original file line numberDiff line numberDiff line change
@@ -16,45 +16,45 @@
1616
Device 接口
1717
############
1818

19-
+---------------------------+----------------------------------------------+------+
20-
| 接口名称 | 功能简介 | 必选 |
21-
+===========================+==============================================+======+
22-
| initialize | 初始化硬件后端。 | N |
23-
+---------------------------+----------------------------------------------+------+
24-
| finalize | 去初始化硬件后端。 | N |
25-
+---------------------------+----------------------------------------------+------+
26-
| init_device | 初始化指定硬件设备。 | N |
27-
+---------------------------+----------------------------------------------+------+
28-
| deinit_device | 去初始化指定硬件设备。 | N |
29-
+---------------------------+----------------------------------------------+------+
30-
| set_device | 设置当前使用的硬件设备。 | Y |
31-
+---------------------------+----------------------------------------------+------+
32-
| get_device | 获取当前使用的硬件设备。 | Y |
33-
+---------------------------+----------------------------------------------+------+
34-
| synchronize_device | 同步指定的硬件设备。 | Y |
35-
+---------------------------+----------------------------------------------+------+
36-
| get_device_count | 查询可用设备数量。 | Y |
37-
+---------------------------+----------------------------------------------+------+
38-
| get_device_list | 查询可用设备号。 | Y |
39-
+---------------------------+----------------------------------------------+------+
40-
| get_compute_capability | 查询设备算力。 | Y |
41-
+---------------------------+----------------------------------------------+------+
42-
| get_runtime_version | 查询运行时版本号。 | Y |
43-
+---------------------------+----------------------------------------------+------+
44-
| get_driver_version | 查询驱动版本号。 | Y |
45-
+---------------------------+----------------------------------------------+------+
46-
| get_multi_process | 获取设备上的 MultiProcessor 数量。 | N |
47-
+---------------------------+----------------------------------------------+------+
48-
| get_max_threads_per_mp | 获取设备每个 MultiProcessor 上的最大线程数。 | N |
49-
+---------------------------+----------------------------------------------+------+
50-
| get_max_threads_per_block | 获取设备每个 Block 能够运行的最大线程数。 | N |
51-
+---------------------------+----------------------------------------------+------+
52-
| get_max_grid_dim_size | 获取设备最大网格维度大小。 | N |
53-
+---------------------------+----------------------------------------------+------+
54-
| init_eigen_device | 初始化 Eigen GPU 设备对象。 | N |
55-
+---------------------------+----------------------------------------------+------+
56-
| destroy_eigen_device | 销毁 Eigen GPU 设备对象。 | N |
57-
+---------------------------+----------------------------------------------+------+
19+
+---------------------------+-----------------------------------------------+------+
20+
| 接口名称 | 功能简介 | 必选 |
21+
+===========================+===============================================+======+
22+
| initialize | 初始化硬件后端。 | N |
23+
+---------------------------+-----------------------------------------------+------+
24+
| finalize | 去初始化硬件后端。 | N |
25+
+---------------------------+-----------------------------------------------+------+
26+
| init_device | 初始化指定硬件设备。 | N |
27+
+---------------------------+-----------------------------------------------+------+
28+
| deinit_device | 去初始化指定硬件设备。 | N |
29+
+---------------------------+-----------------------------------------------+------+
30+
| set_device | 设置当前使用的硬件设备。 | Y |
31+
+---------------------------+-----------------------------------------------+------+
32+
| get_device | 获取当前使用的硬件设备。 | Y |
33+
+---------------------------+-----------------------------------------------+------+
34+
| synchronize_device | 同步指定的硬件设备。 | Y |
35+
+---------------------------+-----------------------------------------------+------+
36+
| get_device_count | 查询可用设备数量。 | Y |
37+
+---------------------------+-----------------------------------------------+------+
38+
| get_device_list | 查询可用设备号。 | Y |
39+
+---------------------------+-----------------------------------------------+------+
40+
| get_compute_capability | 查询设备算力。 | Y |
41+
+---------------------------+-----------------------------------------------+------+
42+
| get_runtime_version | 查询运行时版本号。 | Y |
43+
+---------------------------+-----------------------------------------------+------+
44+
| get_driver_version | 查询驱动版本号。 | Y |
45+
+---------------------------+-----------------------------------------------+------+
46+
| get_multi_process | 获取设备上的 MultiProcessor 数量。 | N |
47+
+---------------------------+-----------------------------------------------+------+
48+
| get_max_threads_per_mp | 获取设备每个 MultiProcessor 上的最大线程数。 | N |
49+
+---------------------------+-----------------------------------------------+------+
50+
| get_max_threads_per_block | 获取设备每个 Block 能够运行的最大线程数。 | N |
51+
+---------------------------+-----------------------------------------------+------+
52+
| get_max_grid_dim_size | 获取设备最大网格维度大小。 | N |
53+
+---------------------------+-----------------------------------------------+------+
54+
| init_eigen_device | 初始化 Eigen GPU 设备对象。 | N |
55+
+---------------------------+-----------------------------------------------+------+
56+
| destroy_eigen_device | 销毁 Eigen GPU 设备对象。 | N |
57+
+---------------------------+-----------------------------------------------+------+
5858

5959

6060
Memory 接口

0 commit comments

Comments
 (0)