Skip to content

Commit 7a29904

Browse files
authored
retry: fix: add missing space after back quotation marks (#7462)
1 parent 3727859 commit 7a29904

File tree

928 files changed

+3843
-3843
lines changed

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

928 files changed

+3843
-3843
lines changed

docs/api/paddle/CPUPlace_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -8,7 +8,7 @@ CPUPlace
88
99
1010
11-
``CPUPlace`` 是一个设备描述符,指定 ``CPUPlace`` ``Tensor`` 将被自动分配在该设备上,并且模型将会运行在该设备上。
11+
``CPUPlace`` 是一个设备描述符,指定 ``CPUPlace`` ``Tensor`` 将被自动分配在该设备上,并且模型将会运行在该设备上。
1212

1313
代码示例
1414
::::::::::::

docs/api/paddle/CUDAPinnedPlace_cn.rst

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -8,8 +8,8 @@ CUDAPinnedPlace
88
99
1010
11-
``CUDAPinnedPlace`` 是一个设备描述符,它所指代的页锁定内存由 CUDA 函数 ``cudaHostAlloc()`` 在主机内存上分配,主机的操作系统将不会对这块内存进行分页和交换操作,可以通过直接内存访问技术访问,加速主机和 GPU 之间的数据拷贝。
12-
有关 CUDA 的数据转移和 ``pinned memory``,参见 `官方文档 <https://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html#pinned-memory>`_ 。
11+
``CUDAPinnedPlace`` 是一个设备描述符,它所指代的页锁定内存由 CUDA 函数 ``cudaHostAlloc()`` 在主机内存上分配,主机的操作系统将不会对这块内存进行分页和交换操作,可以通过直接内存访问技术访问,加速主机和 GPU 之间的数据拷贝。
12+
有关 CUDA 的数据转移和 ``pinned memory`` ,参见 `官方文档 <https://docs.nvidia.com/cuda/cuda-c-best-practices-guide/index.html#pinned-memory>`_ 。
1313

1414
代码示例
1515
::::::::::::

docs/api/paddle/CUDAPlace_cn.rst

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -9,12 +9,12 @@ CUDAPlace
99
1010
1111
12-
``CUDAPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 的 GPU 设备。
13-
每个 ``CUDAPlace`` 有一个 ``dev_id`` (设备 id)来表明当前的 ``CUDAPlace`` 所代表的显卡编号,编号从 0 开始。
14-
``dev_id`` 不同的 ``CUDAPlace`` 所对应的内存不可相互访问。
12+
``CUDAPlace`` 是一个设备描述符,表示一个分配或将要分配 ``Tensor`` 的 GPU 设备。
13+
每个 ``CUDAPlace`` 有一个 ``dev_id`` (设备 id)来表明当前的 ``CUDAPlace`` 所代表的显卡编号,编号从 0 开始。
14+
``dev_id`` 不同的 ``CUDAPlace`` 所对应的内存不可相互访问。
1515
这里编号指的是可见显卡的逻辑编号,而不是显卡实际的编号。
16-
可以通过 ``CUDA_VISIBLE_DEVICES`` 环境变量限制程序能够使用的 GPU 设备,程序启动时会遍历当前的可见设备,并从 0 开始为这些设备编号。
17-
如果没有设置 ``CUDA_VISIBLE_DEVICES``,则默认所有的设备都是可见的,此时逻辑编号与实际编号是相同的。
16+
可以通过 ``CUDA_VISIBLE_DEVICES`` 环境变量限制程序能够使用的 GPU 设备,程序启动时会遍历当前的可见设备,并从 0 开始为这些设备编号。
17+
如果没有设置 ``CUDA_VISIBLE_DEVICES`` ,则默认所有的设备都是可见的,此时逻辑编号与实际编号是相同的。
1818

1919
参数
2020
::::::::::::

docs/api/paddle/DataParallel_cn.rst

Lines changed: 9 additions & 9 deletions
Original file line numberDiff line numberDiff line change
@@ -8,19 +8,19 @@ DataParallel
88
99
通过数据并行模式执行动态图模型。
1010

11-
目前,``DataParallel`` 仅支持以多进程的方式执行动态图模型。
11+
目前, ``DataParallel`` 仅支持以多进程的方式执行动态图模型。
1212

1313
支持两种使用方式:
1414

15-
1. 使用 ``paddle.distributed.spawn`` 方法启动,例如:
15+
1. 使用 ``paddle.distributed.spawn`` 方法启动,例如:
1616

17-
``python demo.py`` (spawn need to be called in ``__main__`` method)
17+
``python demo.py`` (spawn need to be called in ``__main__`` method)
1818

19-
2. 使用 ``paddle.distributed.launch`` 方法启动,例如:
19+
2. 使用 ``paddle.distributed.launch`` 方法启动,例如:
2020

21-
``python -m paddle.distributed.launch –selected_gpus=0,1 demo.py``
21+
``python -m paddle.distributed.launch –selected_gpus=0,1 demo.py``
2222

23-
其中 ``demo.py`` 脚本的代码可以是下面的示例代码。
23+
其中 ``demo.py`` 脚本的代码可以是下面的示例代码。
2424

2525
参数
2626
::::::::::::
@@ -33,7 +33,7 @@ DataParallel
3333

3434
返回
3535
::::::::::::
36-
支持数据并行的 ``Layer``。
36+
支持数据并行的 ``Layer``
3737

3838
代码示例
3939
::::::::::::
@@ -64,7 +64,7 @@ state_dict(destination=None, include_sublayers=True)
6464

6565
**参数**
6666

67-
- **destination** (dict,可选) - 如果提供 ``destination``,则所有参数和持久的 buffers 都将存放在 ``destination`` 中。默认值:None。
67+
- **destination** (dict,可选) - 如果提供 ``destination`` ,则所有参数和持久的 buffers 都将存放在 ``destination`` 中。默认值:None。
6868
- **include_sublayers** (bool,可选) - 如果设置为 True,则包括子层的参数和 buffers。默认值:True。
6969

7070
**返回**
@@ -78,7 +78,7 @@ COPY-FROM: paddle.DataParallel.state_dict
7878
set_state_dict(state_dict, use_structured_name=True)
7979
'''''''''
8080

81-
根据传入的 ``state_dict`` 设置 parameters 和持久的 buffers。所有 parameters 和 buffers 将由 ``state_dict`` 中的 ``Tensor`` 设置。
81+
根据传入的 ``state_dict`` 设置 parameters 和持久的 buffers。所有 parameters 和 buffers 将由 ``state_dict`` 中的 ``Tensor`` 设置。
8282

8383
**参数**
8484

docs/api/paddle/LazyGuard_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -7,7 +7,7 @@ LazyGuard
77
88
99
10-
LazyGuard 是一个用于设置模型(继承自 ``paddle.nn.Layer`` ) 中参数延迟初始化的上下文管理器。配合使用 python 的 ``with`` 语句来将 ``with LazyGuard():`` 代码块下所有模型在实例化时,其内部的参数均不会立即申请内存空间。
10+
LazyGuard 是一个用于设置模型(继承自 ``paddle.nn.Layer`` ) 中参数延迟初始化的上下文管理器。配合使用 python 的 ``with`` 语句来将 ``with LazyGuard():`` 代码块下所有模型在实例化时,其内部的参数均不会立即申请内存空间。
1111

1212

1313
代码示例

0 commit comments

Comments
 (0)