Skip to content
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
12 changes: 6 additions & 6 deletions docs/api/paddle/static/IpuStrategy_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -7,7 +7,7 @@ IpuStrategy
.. py:class:: paddle.static.IpuStrategy()


``IpuStrategy`` 使用户能更精准地控制 :ref:`cn_api_paddle_static_IpuCompiledProgram` 中计算图的建造方法。
``IpuStrategy`` 使用户能更精准地控制 :ref:`cn_api_paddle_static_IpuCompiledProgram` 中计算图的建造方法。


返回
Expand Down Expand Up @@ -137,7 +137,7 @@ COPY-FROM: paddle.static.IpuStrategy.disable_pattern
register_patch(self)
'''''''''

注册 patch function 以支持 IPU 上的动转静功能。该函数仅应在 IPU 动转静时使用,注册的函数会影响原动转静的逻辑,可通过``release_patch``释放注册的函数。
注册 patch function 以支持 IPU 上的动转静功能。该函数仅应在 IPU 动转静时使用,注册的函数会影响原动转静的逻辑,可通过 ``release_patch`` 释放注册的函数。

**代码示例**

Expand Down Expand Up @@ -183,19 +183,19 @@ COPY-FROM: paddle.static.IpuStrategy.parse_optimizer
num_ipus
'''''''''

返回 IpuStrategy 实例中的 IPU 设备个数,类型为 ``Int``。
返回 IpuStrategy 实例中的 IPU 设备个数,类型为 ``Int``

is_training
'''''''''

返回 IpuStrategy 实例中的计算模式是训练模式或推理模式,类型为 ``Bool``。
返回 IpuStrategy 实例中的计算模式是训练模式或推理模式,类型为 ``Bool``

enable_pipelining
'''''''''

返回 IpuStrategy 实例中是否使能数据流水线功能,类型为 ``Bool``。
返回 IpuStrategy 实例中是否使能数据流水线功能,类型为 ``Bool``

enable_fp16
'''''''''

返回 IpuStrategy 实例中是否使能 float16 计算图,类型为 ``Bool``。
返回 IpuStrategy 实例中是否使能 float16 计算图,类型为 ``Bool``
4 changes: 2 additions & 2 deletions docs/api/paddle/static/nn/embedding_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -16,7 +16,7 @@ embedding
输出的 Tensor 的 shape 是将输入 Tensor shape 的会在输出的 embedding 最后追加一维 emb_size。

.. note::
input 中的 id 必须满足 ``0 =< id < size[0]``,否则程序会抛异常退出。
input 中的 id 必须满足 ``0 =< id < size[0]`` ,否则程序会抛异常退出。


::
Expand Down Expand Up @@ -66,7 +66,7 @@ embedding
- **size** (tuple|list) - embedding 矩阵的维度。必须包含两个元素,第一个元素为 vocab_size(词表大小),第二个为 emb_size(embedding 层维度)。
- **is_sparse** (bool,可选) - 是否使用稀疏的更新方式,这个参数只会影响反向的梯度更新的性能,sparse 更新速度更快,推荐使用稀疏更新的方式。但某些 optimizer 不支持 sparse 更新,比如 :ref:`cn_api_paddle_optimizer_Adadelta` 、 :ref:`cn_api_paddle_optimizer_Adamax`,此时 is_sparse 必须为 False。默认为 False。
- **is_distributed** (bool,可选) - 是否使用分布式的方式存储 embedding 矩阵,仅在多机分布式 cpu 训练中使用。默认为 False。
- **padding_idx** (int|long|None,可选) - padding_idx 需在区间 ``[-vocab_size, vocab_size)``,否则不生效,``padding_idx < 0`` 时,padding_idx 会被改成``vocab_size + padding_idx``,input 中等于 padding_index 的 id 对应的 embedding 信息会被设置为 0,且这部分填充数据在训练时将不会被更新。如果为 None,不作处理,默认为 None。
- **padding_idx** (int|long|None,可选) - padding_idx 需在区间 ``[-vocab_size, vocab_size)`` ,否则不生效, ``padding_idx < 0`` 时,padding_idx 会被改成 ``vocab_size + padding_idx`` ,input 中等于 padding_index 的 id 对应的 embedding 信息会被设置为 0,且这部分填充数据在训练时将不会被更新。如果为 None,不作处理,默认为 None。
- **param_attr** (ParamAttr,可选) - 指定权重参数属性的对象。默认值为 None,表示使用默认的权重参数属性。具体用法请参见 :ref:`cn_api_paddle_ParamAttr`。此外,可以通过 ``param_attr`` 参数加载用户自定义或预训练的词向量。只需将本地词向量转为 numpy 数据格式,且保证本地词向量的 shape 和 embedding 的 ``size`` 参数一致,然后使用 :ref:`cn_api_paddle_to_tensor` 进行初始化,即可实现加载自定义或预训练的词向量。
- **dtype** (str|paddle.dtype|np.dtype,可选) - 输出 Tensor 的数据类型,数据类型必须为:float32 或 float64,默认为 float32。

Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/vision/ops/distribute_fpn_proposals_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -25,7 +25,7 @@ distribute_fpn_proposals
- **refer_level** (int) - 具有指定比例的 FPN 层的引用级别。
- **refer_scale** (int) - 具有指定级别的 FPN 层的引用比例。
- **pixel_offset** (bool, 可选)- 是否有像素偏移。如果是 True, 在计算形状大小时时会偏移 1。默认值为 False。
- **rois_num** (Tensor, 可选): 每张图所包含的 RoI 数量。是形状为[B]的 1-D Tensor, 数据类型为 int32。其中 B 是图像数量。如果``rois_num`` 不为 None, 将会返回一个形状为[B]的 1-D Tensor, 其中每个元素是每张图在对应层级上的 RoI 数量。默认值为 None。
- **rois_num** (Tensor, 可选): 每张图所包含的 RoI 数量。是形状为[B]的 1-D Tensor, 数据类型为 int32。其中 B 是图像数量。如果 ``rois_num`` 不为 None, 将会返回一个形状为[B]的 1-D Tensor, 其中每个元素是每张图在对应层级上的 RoI 数量。默认值为 None。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

返回
Expand Down