Skip to content

Commit 03a7fcb

Browse files
authored
flags classify and del releasenotes (PaddlePaddle#1104)
1 parent 709169e commit 03a7fcb

21 files changed

+1869
-1743
lines changed

doc/fluid/api/index_en.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -5,7 +5,7 @@ API Reference
55
.. toctree::
66
:maxdepth: 1
77

8-
../flags_en.rst
8+
99
../api_guides/index_en.rst
1010
fluid.rst
1111
average.rst

doc/fluid/flags/cudnn_cn.rst

Lines changed: 71 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,71 @@
1+
2+
cudnn
3+
==================
4+
5+
6+
conv_workspace_size_limit
7+
*******************************************
8+
(始于0.13.0)
9+
10+
用于选择cuDNN卷积算法的工作区限制大小(单位为MB)。cuDNN的内部函数在这个内存限制范围内获得速度最快的匹配算法。通常,在较大的工作区内可以选择更快的算法,但同时也会显著增加内存空间。用户需要在内存和速度之间进行权衡。
11+
12+
取值范围
13+
---------------
14+
Uint64型,缺省值为4096。即4G内存工作区。
15+
16+
示例
17+
-------
18+
FLAGS_conv_workspace_size_limit=1024 - 将用于选择cuDNN卷积算法的工作区限制大小设置为1024MB。
19+
20+
21+
cudnn_batchnorm_spatial_persistent
22+
*******************************************
23+
(始于1.4.0)
24+
25+
表示是否在batchnorm中使用新的批量标准化模式CUDNN_BATCHNORM_SPATIAL_PERSISTENT函数。
26+
27+
取值范围
28+
---------------
29+
Bool型,缺省值为False。
30+
31+
示例
32+
-------
33+
FLAGS_cudnn_batchnorm_spatial_persistent=True - 开启CUDNN_BATCHNORM_SPATIAL_PERSISTENT模式。
34+
35+
注意
36+
-------
37+
此模式在某些任务中可以更快,因为将为CUDNN_DATA_FLOAT和CUDNN_DATA_HALF数据类型选择优化路径。我们默认将其设置为False的原因是此模式可能使用原子整数缩减(scaled atomic integer reduction)而导致某些输入数据范围的数字溢出。
38+
39+
40+
cudnn_deterministic
41+
*******************************************
42+
(始于0.13.0)
43+
44+
cuDNN对于同一操作有几种算法,一些算法结果是非确定性的,如卷积算法。该flag用于调试。它表示是否选择cuDNN中的确定性函数。
45+
46+
取值范围
47+
---------------
48+
Bool型,缺省值为False。
49+
50+
示例
51+
-------
52+
FLAGS_cudnn_deterministic=True - 选择cuDNN中的确定性函数。
53+
54+
注意
55+
-------
56+
现在,在cuDNN卷积和池化Operator中启用此flag。确定性算法速度可能较慢,因此该flag通常用于调试。
57+
58+
59+
cudnn_exhaustive_search
60+
*******************************************
61+
(始于1.2.0)
62+
63+
表示是否使用穷举搜索方法来选择卷积算法。在cuDNN中有两种搜索方法,启发式搜索和穷举搜索。穷举搜索尝试所有cuDNN算法以选择其中最快的算法。此方法非常耗时,所选择的算法将针对给定的层规格进行缓存。 一旦更改了图层规格(如batch大小,feature map大小),它将再次搜索。
64+
65+
取值范围
66+
---------------
67+
Bool型,缺省值为False。
68+
69+
示例
70+
-------
71+
FLAGS_cudnn_exhaustive_search=True - 使用穷举搜索方法来选择卷积算法。

doc/fluid/flags/cudnn_en.rst

Lines changed: 71 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,71 @@
1+
==================
2+
cudnn
3+
==================
4+
5+
6+
conv_workspace_size_limit
7+
*******************************************
8+
(since 0.13.0)
9+
10+
The workspace limit size in MB unit for choosing cuDNN convolution algorithms. The inner funciton of cuDNN obtain the fastest suited algorithm that fits within this memory limit. Usually, large workspace size may lead to choose faster algorithms, but significant increasing memory workspace. Users need to trade-off between memory and speed.
11+
12+
Values accepted
13+
---------------
14+
Uint64. The default value is 4096. That is to say, 4G memory workspace.
15+
16+
Example
17+
-------
18+
FLAGS_conv_workspace_size_limit=1024 set the workspace limit size for choosing cuDNN convolution algorithms to 1024MB.
19+
20+
21+
cudnn_batchnorm_spatial_persistent
22+
*******************************************
23+
(since 1.4.0)
24+
25+
Indicates whether to use the new batch normalization mode CUDNN_BATCHNORM_SPATIAL_PERSISTENT function in batchnorm.
26+
27+
Values accepted
28+
---------------
29+
Bool. The default value is False.
30+
31+
Example
32+
-------
33+
FLAGS_cudnn_batchnorm_spatial_persistent=True will enable the CUDNN_BATCHNORM_SPATIAL_PERSISTENT mode.
34+
35+
Note
36+
-------
37+
This mode can be faster in some tasks because an optimized path will be selected for CUDNN_DATA_FLOAT and CUDNN_DATA_HALF data types. The reason we set it to False by default is that this mode may use scaled atomic integer reduction which may cause a numerical overflow for some input data range.
38+
39+
40+
cudnn_deterministic
41+
*******************************************
42+
(since 0.13.0)
43+
44+
For one operation, cuDNN has several algorithms, some algorithm results are non-deterministic, like convolution algorithms. This flag is used for debugging. It indicates whether to choose the deterministic in cuDNN.
45+
46+
Values accepted
47+
---------------
48+
Bool. The default value is False.
49+
50+
Example
51+
-------
52+
FLAGS_cudnn_deterministic=True will choose the deterministic in cuDNN.
53+
54+
Note
55+
-------
56+
Now this flag is enabled in cuDNN convolution and pooling operator. The deterministic algorithms may slower, so this flag is generally used for debugging.
57+
58+
59+
cudnn_exhaustive_search
60+
*******************************************
61+
(since 1.2.0)
62+
63+
Whether to use exhaustive search method to choose convolution algorithms. There are two search methods, heuristic search and exhaustive search in cuDNN. The exhaustive search attempts all cuDNN algorithms to choose the fastest algorithm. This method is time-consuming, the choosed algorithm will be cached for the given layer specifications. Once the layer specifications (like batch size, feature map size) are changed, it will search again.
64+
65+
Values accepted
66+
---------------
67+
Bool. The default value is False.
68+
69+
Example
70+
-------
71+
FLAGS_cudnn_exhaustive_search=True will use exhaustive search method to choose convolution algorithms.

doc/fluid/flags/data_cn.rst

Lines changed: 46 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,46 @@
1+
2+
数值计算
3+
==================
4+
5+
6+
enable_cublas_tensor_op_math
7+
*******************************************
8+
(始于1.2.0)
9+
10+
该flag表示是否使用Tensor Core,但可能会因此降低部分精确度。
11+
12+
取值范围
13+
---------------
14+
Bool型,缺省值为False。
15+
16+
示例
17+
-------
18+
enable_cublas_tensor_op_math=True - 使用Tensor Core。
19+
20+
21+
use_mkldnn
22+
*******************************************
23+
(始于0.13.0)
24+
25+
在预测或训练过程中,可以通过该选项选择使用Intel MKL-DNN(https://github.com/intel/mkl-dnn)库运行。
26+
“用于深度神经网络的英特尔(R)数学核心库(Intel(R) MKL-DNN)”是一个用于深度学习应用程序的开源性能库。该库加速了英特尔(R)架构上的深度学习应用程序和框架。Intel MKL-DNN包含矢量化和线程化构建建块,您可以使用它们来实现具有C和C ++接口的深度神经网络(DNN)。
27+
28+
取值范围
29+
---------------
30+
Bool型,缺省值为False。
31+
32+
示例
33+
-------
34+
FLAGS_use_mkldnn=True - 开启使用MKL-DNN运行。
35+
36+
注意
37+
-------
38+
FLAGS_use_mkldnn仅用于python训练和预测脚本。要在CAPI中启用MKL-DNN,请设置选项 -DWITH_MKLDNN=ON。
39+
英特尔MKL-DNN支持英特尔64架构和兼容架构。
40+
该库对基于以下设备的系统进行了优化:
41+
英特尔SSE4.1支持的英特尔凌动(R)处理器;
42+
第4代,第5代,第6代,第7代和第8代英特尔(R)Core(TM)处理器;
43+
英特尔(R)Xeon(R)处理器E3,E5和E7系列(原Sandy Bridge,Ivy Bridge,Haswell和Broadwell);
44+
英特尔(R)Xeon(R)可扩展处理器(原Skylake和Cascade Lake);
45+
英特尔(R)Xeon Phi(TM)处理器(原Knights Landing and Knights Mill);
46+
兼容处理器。

doc/fluid/flags/data_en.rst

Lines changed: 45 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,45 @@
1+
2+
data processing
3+
==================
4+
5+
enable_cublas_tensor_op_math
6+
*******************************************
7+
(since 1.2.0)
8+
9+
This Flag indicates whether to use Tensor Core, but it may lose some precision.
10+
11+
Values accepted
12+
---------------
13+
Bool. The default value is False.
14+
15+
Example
16+
-------
17+
enable_cublas_tensor_op_math=True will use Tensor Core.
18+
19+
20+
use_mkldnn
21+
*******************************************
22+
(since 0.13.0)
23+
24+
Give a choice to run with Intel MKL-DNN (https://github.com/intel/mkl-dnn) library on inference or training.
25+
26+
Intel(R) Math Kernel Library for Deep Neural Networks (Intel(R) MKL-DNN) is an open-source performance library for deep-learning applications. The library accelerates deep-learning applications and frameworks on Intel(R) architecture. Intel MKL-DNN contains vectorized and threaded building blocks that you can use to implement deep neural networks (DNN) with C and C++ interfaces.
27+
28+
Values accepted
29+
---------------
30+
Bool. The default value is False.
31+
32+
Example
33+
-------
34+
FLAGS_use_mkldnn=True will enable running with MKL-DNN support.
35+
36+
Note
37+
-------
38+
FLAGS_use_mkldnn is only used for python training and inference scripts. To enable MKL-DNN in CAPI, set build option -DWITH_MKLDNN=ON
39+
Intel MKL-DNN supports Intel 64 architecture and compatible architectures. The library is optimized for the systems based on:
40+
Intel Atom(R) processor with Intel SSE4.1 support
41+
4th, 5th, 6th, 7th, and 8th generation Intel(R) Core(TM) processor
42+
Intel(R) Xeon(R) processor E3, E5, and E7 family (formerly Sandy Bridge, Ivy Bridge, Haswell, and Broadwell)
43+
Intel(R) Xeon(R) Scalable processors (formerly Skylake and Cascade Lake)
44+
Intel(R) Xeon Phi(TM) processors (formerly Knights Landing and Knights Mill)
45+
and compatible processors.

doc/fluid/flags/debug_cn.rst

Lines changed: 82 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,82 @@
1+
2+
调试
3+
==================
4+
5+
6+
check_nan_inf
7+
********************
8+
(始于0.13.0)
9+
10+
用于调试。它用于检查Operator的结果是否含有Nan或Inf。
11+
12+
取值范围
13+
---------------
14+
Bool型,缺省值为False。
15+
16+
示例
17+
-------
18+
FLAGS_check_nan_inf=True - 检查Operator的结果是否含有Nan或Inf。
19+
20+
21+
cpu_deterministic
22+
*******************************************
23+
(始于0.15.0)
24+
25+
该flag用于调试。它表示是否在CPU侧确定计算结果。 在某些情况下,不同求和次序的结果可能不同,例如,`a+b+c+d` 的结果可能与 `c+a+b+d` 的结果不同。
26+
27+
取值范围
28+
---------------
29+
Bool型,缺省值为False。
30+
31+
示例
32+
-------
33+
FLAGS_cpu_deterministic=True - 在CPU侧确定计算结果。
34+
35+
36+
enable_rpc_profiler
37+
*******************************************
38+
(始于1.0.0)
39+
40+
是否启用RPC分析器。
41+
42+
取值范围
43+
----------------
44+
Bool型,缺省值为False。
45+
46+
示例
47+
-------
48+
FLAGS_enable_rpc_profiler=True - 启用RPC分析器并在分析器文件中记录时间线。
49+
50+
51+
multiple_of_cupti_buffer_size
52+
*******************************************
53+
(始于1.4.0)
54+
55+
该flag用于分析。它表示CUPTI设备缓冲区大小的倍数。如果在profiler过程中程序挂掉或者在chrome://tracing中加载timeline文件时出现异常,请尝试增大此值。
56+
57+
取值范围
58+
---------------
59+
Int32型,缺省值为1。
60+
61+
示例
62+
-------
63+
FLAGS_multiple_of_cupti_buffer_size=1 - 将CUPTI设备缓冲区大小的倍数设为1。
64+
65+
66+
reader_queue_speed_test_mode
67+
*******************************************
68+
(始于1.1.0)
69+
70+
将pyreader数据队列设置为测试模式。在测试模式下,pyreader将缓存一些数据,然后执行器将读取缓存的数据,因此阅读器不会成为瓶颈。
71+
72+
取值范围
73+
---------------
74+
Bool型,缺省值为False。
75+
76+
示例
77+
-------
78+
FLAGS_reader_queue_speed_test_mode=True - 启用pyreader测试模式。
79+
80+
注意
81+
-------
82+
仅当使用py_reader时该flag才有效。

0 commit comments

Comments
 (0)