Skip to content

Commit 080c36b

Browse files
Merge branch 'develop' into update-cI
2 parents bc1b173 + 6f40997 commit 080c36b

17 files changed

+226
-6
lines changed

docs/api/paddle/cuda/Overview_cn.rst

Lines changed: 7 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -31,3 +31,10 @@ PyTorch 兼容函数
3131
" :ref:`memory_allocated <cn_api_paddle_cuda_memory_allocated>` ", "返回当前设备上分配的内存总量"
3232
" :ref:`memory_reserved <cn_api_paddle_cuda_memory_reserved>` ", "返回当前设备上由缓存分配器管理的内存总量"
3333
" :ref:`set_device <cn_api_paddle_cuda_set_device>` ", "设置当前设备"
34+
" :ref:`Stream <cn_api_paddle_cuda_Stream>` ", "CUDA 流类"
35+
" :ref:`get_stream_from_external <cn_api_paddle_cuda_get_stream_from_external>` ", "从外部流创建 Paddle 流"
36+
" :ref:`device <cn_api_paddle_cuda_device>` ", "临时选择设备使用"
37+
" :ref:`manual_seed <cn_api_paddle_cuda_manual_seed>` ", "设置设备随机种子"
38+
" :ref:`max_memory_allocated <cn_api_paddle_cuda_max_memory_allocated>` ", "获取最大内存分配量"
39+
" :ref:`reset_peak_memory_stats <cn_api_paddle_cuda_reset_peak_memory_stats>` ", "重置峰值内存统计"
40+
" :ref:`get_device_capability <cn_api_paddle_cuda_get_device_capability>` ", "返回指定设备的计算能力"

docs/api/paddle/cuda/Stream_cn.rst

Lines changed: 18 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,18 @@
1+
.. _cn_api_paddle_cuda_Stream:
2+
3+
Stream
4+
------
5+
6+
.. py:class:: paddle.cuda.Stream(device=None, priority=0, blocking=False)
7+
8+
CUDA 流类,用于管理异步操作。
9+
10+
参数
11+
::::::::::::
12+
- **device** (int|paddle.Place|str|int|None) - 设备 ID 或设备对象
13+
- **priority** (int, 可选) - 流的优先级,默认为 None; 可以是 1 或-1(高优先级)或 0 或 2(低优先级)。默认情况下,流具有优先级 0。
14+
- **blocking** (bool|None,可选) - stream 是否同步执行。默认值为 False。
15+
16+
代码示例
17+
::::::::::::
18+
COPY-FROM: paddle.cuda.Stream

docs/api/paddle/cuda/device_cn.rst

Lines changed: 17 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,17 @@
1+
.. _cn_api_paddle_cuda_device:
2+
3+
device
4+
------
5+
6+
.. py:function:: paddle.cuda.device(device=None)
7+
8+
获取或设置当前 CUDA 设备。本函数与 :ref:`cn_api_paddle_device_device` 功能一致
9+
10+
参数
11+
::::::::::::
12+
- **device** (int|str|paddle.Place|None) - 设备、设备的 id 或设备的字符串名称,如 npu:x',从中获取设备的属性。 如果设备为 None,则该设备为当前设备,默认值:None。
13+
14+
15+
代码示例
16+
::::::::::::
17+
COPY-FROM: paddle.cuda.device
Lines changed: 20 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,20 @@
1+
.. _cn_api_paddle_cuda_get_device_capability:
2+
3+
get_device_capability
4+
---------------------
5+
6+
.. py:function:: paddle.cuda.get_device_capability(device=None)
7+
8+
获取设备计算能力。
9+
10+
参数
11+
::::::::::::
12+
- **device** (int|str|paddle.Place|None) - 设备、设备的 id 或设备的字符串名称,如 ``npu:x``,从中获取设备的属性。如果输入为 None,则该设备为当前设备。
13+
14+
返回
15+
::::::::::::
16+
tuple: (主版本号, 次版本号)
17+
18+
代码示例
19+
::::::::::::
20+
COPY-FROM: paddle.cuda.get_device_capability
Lines changed: 21 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,21 @@
1+
.. _cn_api_paddle_cuda_get_stream_from_external:
2+
3+
get_stream_from_external
4+
------------------------
5+
6+
.. py:function:: paddle.cuda.get_stream_from_external(data_ptr, device=None)
7+
8+
从外部创建的 CUDA 流创建 Paddle 流对象。
9+
10+
参数
11+
::::::::::::
12+
- **data_ptr** (int) - 外部 CUDA 流的指针值
13+
- **device** (int, 可选) - 设备 ID,默认为 None
14+
15+
返回
16+
::::::::::::
17+
paddle.cuda.Stream: 包装后的 Paddle 流对象
18+
19+
代码示例
20+
::::::::::::
21+
COPY-FROM: paddle.cuda.get_stream_from_external
Lines changed: 16 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,16 @@
1+
.. _cn_api_paddle_cuda_manual_seed:
2+
3+
manual_seed
4+
-----------
5+
6+
.. py:function:: paddle.cuda.manual_seed(seed)
7+
8+
为当前设备置随机种子。与 :ref:`cn_api_paddle_device_manual_seed` 功能一致。
9+
10+
参数
11+
::::::::::::
12+
- **seed** (int) - 随机种子值
13+
14+
代码示例
15+
::::::::::::
16+
COPY-FROM: paddle.cuda.manual_seed
Lines changed: 24 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,24 @@
1+
.. _cn_api_paddle_cuda_max_memory_allocated:
2+
3+
max_memory_allocated
4+
--------------------
5+
6+
.. py:function:: paddle.cuda.max_memory_allocated(device=None)
7+
8+
返回给定设备上分配给 Tensor 的显存峰值统计。
9+
10+
.. note::
11+
Paddle 中分配给 Tensor 的显存块大小会进行 256 字节对齐,因此可能大于 Tensor 实际需要的显存大小。例如,一个 shape 为[1]的 float32 类型 Tensor 会占用 256 字节的显存,即使存储一个 float32 类型数据实际只需要 4 字节。
12+
:ref:`cn_api_paddle_device_max_memory_allocated` 功能一致
13+
14+
参数
15+
::::::::::::
16+
- **device** (int|paddle.Place|str|None) - 设备、设备的 id 或设备的字符串名称,如 ``npu:x``,从中获取设备的属性。 如果设备为 None,则该设备为当前设备,默认值:None。
17+
18+
返回
19+
::::::::::::
20+
int: 最大已分配内存量(字节)
21+
22+
代码示例
23+
::::::::::::
24+
COPY-FROM: paddle.cuda.max_memory_allocated
Lines changed: 21 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,21 @@
1+
.. _cn_api_paddle_cuda_reset_peak_memory_stats:
2+
3+
reset_peak_memory_stats
4+
-----------------------
5+
6+
.. py:function:: paddle.cuda.reset_peak_memory_stats(device=None)
7+
8+
重置所有设备的峰值内存统计信息。
9+
此方法重置程序执行期间为每个设备记录的峰值内存使用情况。
10+
它将所有设备的峰值内存使用率设置为零。
11+
:ref:`cn_api_paddle_device_reset_peak_memory_stats` 功能一致
12+
13+
参数
14+
::::::::::::
15+
- **device** (int|paddle.Place|str|None) - 设备、设备的 id 或设备的字符串名称,如 npu:x',从中获取设备的属性。 如果设备为 None,则该设备为当前设备,默认值:None。
16+
17+
代码示例
18+
::::::::::::
19+
.. code-block:: python
20+
>>> import paddle
21+
>>> paddle.cuda.reset_peak_memory_stats(0)

docs/api/paddle/device/Overview_cn.rst

Lines changed: 5 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -33,18 +33,22 @@ paddle.device 目录下包含 cuda 目录和 xpu 目录, cuda 目录中存放
3333
" :ref:`get_available_device <cn_api_paddle_device_get_available_device>` ", "获得所有可用的设备"
3434
" :ref:`get_cudnn_version <cn_api_paddle_device_get_cudnn_version>` ", "获得 cudnn 的版本"
3535
" :ref:`get_device_properties <cn_api_paddle_device_get_device_properties>` ", "返回指定设备的属性"
36+
" :ref:`get_device_capability <cn_api_paddle_device_get_device_capability>` ", "返回指定设备的计算能力"
3637
" :ref:`max_memory_allocated <cn_api_paddle_device_max_memory_allocated>` ", "返回给定设备上分配给 Tensor 的内存峰值统计"
3738
" :ref:`max_memory_reserved <cn_api_paddle_device_max_memory_reserved>` ", "返回给定设备上由内存分配器管理的内存峰值统计"
3839
" :ref:`memory_allocated <cn_api_paddle_device_memory_allocated>` ", "返回给定设备上当前分配给 Tensor 的内存大小"
3940
" :ref:`memory_reserved <cn_api_paddle_device_memory_reserved>` ", "返回给定设备上当前由内存分配器管理的内存大小"
4041
" :ref:`reset_max_memory_allocated <cn_api_paddle_device_reset_max_memory_allocated>` ", "重置给定设备上分配给 Tensor 的内存峰值统计"
4142
" :ref:`reset_max_memory_reserved <cn_api_paddle_device_reset_max_memory_reserved>` ", "重置给定设备上由内存分配器管理的内存峰值统计"
43+
" :ref:`reset_peak_memory_stats <cn_api_paddle_device_reset_peak_memory_stats>` ", "重置峰值内存统计"
4244
" :ref:`set_device <cn_api_paddle_device_set_device>` ", "指定 OP 运行的全局设备"
4345
" :ref:`get_device <cn_api_paddle_device_get_device>` ", "获得 OP 运行的全局设备"
4446
" :ref:`is_available <cn_api_paddle_device_is_available>` ", "检查设备是否可用"
4547
" :ref:`get_rng_state <cn_api_paddle_device_get_rng_state>` ", "获取随机数生成器状态"
4648
" :ref:`set_rng_state <cn_api_paddle_device_set_rng_state>` ", "设置随机数生成器状态"
47-
49+
" :ref:`device <_cn_api_paddle_device_device>` ", "临时使用设备"
50+
" :ref:`get_device_name <cn_api_paddle_device_get_device_name>` ", "返回指定设备的名称"
51+
" :ref:`manual_seed <_cn_api_paddle_device_manual_seed>` ", "设置当前设备的随机数种子"
4852
.. _cn_device_compile:
4953

5054
编译环境检测

docs/api/paddle/device/Stream_cn.rst

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -11,7 +11,7 @@ custom device stream 的句柄。
1111
::::::::::::
1212

1313
- **device** (paddle.CUDAPlace|paddle.CustomPlace|str) - 希望分配 stream 的设备或设备类型。如果为 None,则为当前期望的 place。默认值为 None。
14-
- **priority** (int|None,可选) - stream 的优先级。优先级可以为 1(高优先级)或者 2(正常优先级)。如果优先级为 None,优先级为 2(正常优先级)。默认值为 None
14+
- **priority** (int|None,可选) - (int, 可选) - 流的优先级,默认为 None; 可以是 1 或-1(高优先级)或 0 或 2(低优先级)。默认情况下,流具有优先级 0
1515
- **blocking** (bool|None,可选) - stream 是否同步执行。默认值为 False。
1616

1717

0 commit comments

Comments
 (0)