Skip to content

Commit d5b5f41

Browse files
haowang101779990xsrobin
authored andcommitted
dygraph API translation & bug fix (PaddlePaddle#998)
* dygraph translation * cn doc bug fix * translate dygraph according to 1.5.1 website + bug fix
1 parent a1b022c commit d5b5f41

File tree

6 files changed

+1710
-13
lines changed

6 files changed

+1710
-13
lines changed

doc/fluid/api_cn/dygraph_cn.rst

Lines changed: 1695 additions & 0 deletions
Large diffs are not rendered by default.

doc/fluid/api_cn/fluid_cn.rst

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,5 @@
11
#################
2-
fluid
2+
fluid
33
#################
44

55
.. _cn_api_fluid_BuildStrategy:
@@ -1600,9 +1600,9 @@ LoD是多层序列(Level of Details)的缩写,通常用于不同长度的
16001600

16011601
举例:
16021602

1603-
X 为 LoDTensor,它包含两个序列。第一个长度是2,第二个长度是3。
1603+
X 为 LoDTensor,它包含两个逻辑子序列。第一个长度是2,第二个长度是3。
16041604

1605-
从Lod中可以计算出X的第一维度为5, 因为5=2+3, 说明X中有5个序列。在X中的每个序列中的每个元素有2列,因此X的shape为[5,2]。
1605+
从Lod中可以计算出X的第一维度为5, 因为5=2+3。在X中的每个序列中的每个元素有2列,因此X的shape为[5,2]。
16061606

16071607
::
16081608

@@ -1613,7 +1613,7 @@ X 为 LoDTensor,它包含两个序列。第一个长度是2,第二个长度
16131613
x.shape = [5, 2]
16141614

16151615

1616-
LoD可以有多个level(例如,一个段落可以有多个句子,一个句子可以有多个单词)。下面的例子中,Y为LoDTensor ,lod_level为2。表示有2个序列,第一个序列的长度是2(有2个子序列),第二个序列的长度是1。第一序列的两个子序列长度分别为2和2。第二个序列的子序列的长度是3。
1616+
LoD可以有多个level(例如,一个段落可以有多个句子,一个句子可以有多个单词)。下面的例子中,Y为LoDTensor ,lod_level为2。表示有2个逻辑序列,第一个逻辑序列的长度是2(有2个子序列),第二个逻辑序列的长度是1。第一个逻辑序列的两个子序列长度分别为2和2。第二个序列的子序列的长度是3。
16171617

16181618

16191619
::
@@ -1634,7 +1634,7 @@ LoD可以有多个level(例如,一个段落可以有多个句子,一个句
16341634

16351635
在上面的描述中,LoD是基于长度的。在paddle内部实现中,lod是基于偏移的。因此,在内部,y.lod表示为[[0,2,3],[0,2,4,7]](基于长度的Lod表示为为[[2-0,3-2],[2-0,4-2,7-4]])。
16361636

1637-
可以将LoD理解为recursive_sequence_length(递归序列长度)。此时,LoD必须是基于长度的。由于历史原因当LoD在API中被称为lod时,它可能是基于偏移的。用户应该注意。
1637+
可以将LoD理解为recursive_sequence_length(递归序列长度)。此时,LoD必须是基于长度的。由于历史原因当LoD在API中被称为lod时,它可能是基于偏移的。用户应该注意。
16381638

16391639

16401640

doc/fluid/api_cn/index_cn.rst

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -13,6 +13,7 @@ API
1313
clip_cn.rst
1414
data_feeder_cn.rst
1515
dataset_cn.rst
16+
dygraph_cn.rst
1617
executor_cn.rst
1718
initializer_cn.rst
1819
io_cn.rst
@@ -25,3 +26,4 @@ API
2526
transpiler_cn.rst
2627
data/dataset_cn.rst
2728
data/data_reader_cn.rst
29+

doc/fluid/api_cn/layers_cn/io_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -287,7 +287,7 @@ open_files
287287
Preprocessor
288288
-------------------------------
289289

290-
.. py:class:: class paddle.fluid.layers.Preprocessor(reader, name=None)
290+
.. py:class:: paddle.fluid.layers.Preprocessor(reader, name=None)
291291
292292
reader变量中数据预处理块。
293293

doc/fluid/api_cn/layers_cn/learning_rate_scheduler_cn.rst

Lines changed: 3 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -42,7 +42,7 @@ exponential_decay
4242
.. py:function:: paddle.fluid.layers.exponential_decay(learning_rate,decay_steps,decay_rate,staircase=False)
4343
4444
在学习率上运用指数衰减。
45-
训练模型时,在训练过程中通常推荐降低学习率。每次 ``decay_steps`` 步骤中用 ``decay_rate`` 衰减学习率。
45+
训练模型时,推荐在训练过程中降低学习率。每次 ``decay_steps`` 步骤中用 ``decay_rate`` 衰减学习率。
4646

4747
.. code-block:: text
4848
@@ -92,7 +92,7 @@ inverse_time_decay
9292
9393
在初始学习率上运用逆时衰减。
9494

95-
训练模型时,在训练过程中通常推荐降低学习率。通过执行该函数,将对初始学习率运用逆向衰减函数。
95+
训练模型时,最好在训练过程中降低学习率。通过执行该函数,将对初始学习率运用逆向衰减函数。
9696

9797
.. code-block:: python
9898
@@ -282,7 +282,7 @@ piecewise_decay
282282
learning_rate = 0.1
283283
284284
参数:
285-
- **boundaries** -一列代表步数的数字
285+
- **boundaries** -一列代表步数的数字
286286
- **values** -一列学习率的值,从不同的步边界中挑选
287287

288288
返回:衰减的学习率

doc/fluid/api_cn/layers_cn/nn_cn.rst

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -426,15 +426,15 @@ batch_norm
426426
- **input** (Variable) - 输入变量的排序,可以为 2, 3, 4, 5
427427
- **act** (string,默认None)- 激活函数类型,linear|relu|prelu|...
428428
- **is_test** (bool,默认False) - 指示它是否在测试阶段。
429-
- **momentum** (float,默认0.9)- 此值用于计算 moving_mean and moving_var. 更新公式为: :math:`\(moving\_mean = moving\_mean * momentum + new\_mean * (1. - momentum)\)` :math:`\(moving\_var = moving\_var * momentum + new\_var * (1. - momentum)\)` , 默认值0.9.
429+
- **momentum** (float,默认0.9)- 此值用于计算 moving_mean moving_var更新公式为: :math:`moving\_mean = moving\_mean * momentum + new\_mean * (1. - momentum)` , :math:`moving\_var = moving\_var * momentum + new\_var * (1. - momentum)` , 默认值0.9.
430430
- **epsilon** (float,默认1e-05)- 加在分母上为了数值稳定的值。默认值为1e-5。
431431
- **param_attr** (ParamAttr|None) - batch_norm参数范围的属性,如果设为None或者是ParamAttr的一个属性,batch_norm创建ParamAttr为param_attr。如果没有设置param_attr的初始化函数,参数初始化为Xavier。默认:None
432432
- **bias_attr** (ParamAttr|None) - batch_norm bias参数的属性,如果设为None或者是ParamAttr的一个属性,batch_norm创建ParamAttr为bias_attr。如果没有设置bias_attr的初始化函数,参数初始化为0。默认:None
433433
- **data_layout** (string,默认NCHW) - NCHW|NHWC
434434
- **in_place** (bool,默认False)- 得出batch norm可复用记忆的输入和输出
435435
- **name** (string,默认None)- 该层名称(可选)。若设为None,则自动为该层命名
436-
- **moving_mean_name** (string,默认None)- moving_mean的名称,存储全局Mean。如果将其设置为None, ``batch_norm``将随机命名全局平均值;否则, `batch_norm`将命名全局平均值为``moving_mean_name``
437-
- **moving_variance_name** (string,默认None)- moving_variance的名称,存储全局变量。如果将其设置为None,``batch_norm``将随机命名全局方差;否则, `batch_norm`将命名全局方差为``moving_mean_name``
436+
- **moving_mean_name** (string,默认None)- moving_mean的名称,存储全局Mean。如果将其设置为None, ``batch_norm`` 将随机命名全局平均值;否则, ``batch_norm`` 将命名全局平均值为 ``moving_mean_name``
437+
- **moving_variance_name** (string,默认None)- moving_variance的名称,存储全局变量。如果将其设置为None, ``batch_norm`` 将随机命名全局方差;否则, ``batch_norm`` 将命名全局方差为 ``moving_variance_name``
438438
- **do_model_average_for_mean_and_var** (bool,默认False)- 是否为mean和variance做模型均值
439439
- **fuse_with_relu** (bool)- 如果为True,batch norm后该操作符执行relu
440440
- **use_global_stats** (bool, Default False) – 是否使用全局均值和方差。 在预测或测试模式下,将use_global_stats设置为true或将is_test设置为true,并且行为是等效的。 在训练模式中,当设置use_global_stats为True时,在训练期间也使用全局均值和方差。
@@ -3105,7 +3105,7 @@ embedding
31053105
- **size** (tuple|list)-查找表参数的维度。应当有两个参数,一个代表嵌入矩阵字典的大小,一个代表每个嵌入向量的大小。
31063106
- **is_sparse** (bool)-代表是否用稀疏更新的标志
31073107
- **is_distributed** (bool)-是否从远程参数服务端运行查找表
3108-
- **padding_idx** (int|long|None)-如果为 ``None`` ,对查找结果无影响。如果padding_idx不为空,表示一旦查找表中找到input中对应的 ``padding_idz``,则用0填充输出结果。如果 :math:`padding_{i}dx<0` ,在查找表中使用的 ``padding_idx`` 值为 :math:`size[0]+dim` 。
3108+
- **padding_idx** (int|long|None)-如果为 ``None`` ,对查找结果无影响。如果padding_idx不为空,表示一旦查找表中找到input中对应的 ``padding_idz``,则用0填充输出结果。如果 :math:`padding\_idx<0` ,在查找表中使用的 ``padding_idx`` 值为 :math:`size[0]+dim` 。
31093109
- **param_attr** (ParamAttr)-该层参数
31103110
- **dtype** (np.dtype|core.VarDesc.VarType|str)-数据类型:float32,float_16,int等。
31113111

0 commit comments

Comments
 (0)