Skip to content

Commit 56af65e

Browse files
authored
Sot guide:update the use case. (#6710)
* add sot guard * move to the paddle_v3_features * change directory of images * fix by review
1 parent 7b5b5eb commit 56af65e

File tree

1 file changed

+92
-94
lines changed
  • docs/guides/paddle_v3_features

1 file changed

+92
-94
lines changed

docs/guides/paddle_v3_features/sot.md

Lines changed: 92 additions & 94 deletions
Original file line numberDiff line numberDiff line change
@@ -1,14 +1,14 @@
11
# 动转静 SOT 原理及使用
22

3-
#### **一、背景与动机**
3+
## **一、背景与动机**
44

55
因为动态图和静态图在性能和用户体验、二次开发上各有优劣,深度学习框架在架构层统一动静概念并实现用户的最佳一致性使用体验,是极具挑战性的。飞桨从用户体验角度出发,着眼于训练、推理,并紧跟大模型时代的场景需求,直面技术难题,解决用户在性能,部署和大模型定制化的痛点。但是随着技术的演进,传统的基于 AST 变换的动静统一策略开始无法处理日益复杂的用户模型,在一些不常用的语法和太过于动态的场景下会出现转写失败的情况,而转写一旦失败,意味着后续基于静态图的优化工作没有任何一个可以被运用。AST 转写方案虽然具有高层级,易于转写的特性,但由于 Python 是一门纯动态语言,以及 Paddle 静态化数据表示能力的有限性,现在的 AST 方案存在如下局限性:
66

77
- **难以处理动态和静态相互混合的场景**。例如 numpy 和 tensor 的互相转换,见样例代码;
88

99
- **控制流和容器的混合使用时有边界 case**,经常出现解析出错或者是无法完全表示的情况;
1010

11-
- **不支持源码加密场景下使用,完备性存在上限**。比如在 C++ 端执行的 Python 代码无法进行 AST 转写,或者对于 .pyc 文件无法处理(某些加密场景等)
11+
- **不支持源码加密场景下使用,完备性存在上限**。比如在 C++ 端执行的 Python 代码无法进行 AST 转写,或者对于 `.pyc` 文件无法处理(某些加密场景等)
1212

1313

1414
一个在套件和用户使用中经典的场景如下:
@@ -32,41 +32,41 @@ unsupport_func(x) # raise error
3232

3333
为了解决极具灵活性的 Python 语言与深度学习框架中间表示巨大的差异性鸿沟问题,飞桨在动转静模块中引入了字节码符号化模拟执行机制(即 Symbolic OpCode Translator,简称 SOT),在字节码层级分析和模拟执行动态图模型代码,动态抽取静态组网代码,构建成为一个新的等价的 Python 函数,消除语言与表示之间的鸿沟,实现动态图到静态图的等价转写。同时这种字节码模拟执行机制,可以自适应选择触发子图级别的打断机制(即 Graph Break),实现控制流代码保持动态图运行的效果。
3434

35-
#### 二、概要介绍
35+
## 二、概要介绍
3636

37-
##### **自适应打断机制:**
37+
### **自适应打断机制:**
3838

39-
在新的 SOT 方案中引入了自适应打断机制来获得 100%理论动转静成功率。在旧的动转静 AST 方案中,是以源码转写的方式对整图进行转写,当遇到无法静态化的 Op 时,AST 整图转写失败。新的 SOT 方案中,首先将源码转写的方式升级为了字节码转写,当遇到无法静态化的 Op 时,我们将整图切分为子图,并使用**字节码进行粘连**,以达到转写成功的目的。在自适应打断机制加持下,用户动态图编写可以更加随意,并在子图层面享受动转静和编译器加速。
39+
在新的 SOT 方案中引入了自适应打断机制来获得 100% 理论动转静成功率。在旧的动转静 AST 方案中,是以源码转写的方式对整图进行转写,当遇到无法静态化的 Op 时,AST 整图转写失败。新的 SOT 方案中,首先将源码转写的方式升级为了字节码转写,当遇到无法静态化的 Op 时,我们将整图切分为子图,并使用**字节码进行粘连**,以达到转写成功的目的。在自适应打断机制加持下,用户动态图编写可以更加随意,并在子图层面享受动转静和编译器加速。
4040

41-
<figure align="center">
42-
<img src="https://raw.githubusercontent.com/PaddlePaddle/docs/develop/docs/guides/paddle_v3_features/images/sot/sot_vs_ast.png" style="zoom:80%"/>
43-
</figure>
41+
<p align="center">
42+
<img src="https://raw.githubusercontent.com/PaddlePaddle/docs/develop/docs/guides/paddle_v3_features/images/sot/sot_vs_ast.png" width="80%"/>
43+
</p>
4444

4545

46-
##### 执行流程:
46+
### 执行流程:
4747

4848
在新的 SOT 流程下,动转静是在字节码层面进行分析的,SOT 会先利用注册的 Python EvalFrame Hooker 获取到用户函数运行时的字节码和 PyFrame 上下文信息(包含了局部变量,参数等),然后使用内部实现的**字节码模拟执行器**来进行模拟执行,最后得到一个可以替换原来字节码的新 PyCodeObject 对象。模拟执行器会识别出用户函数中需要静态化的字节码和无法静态化的字节码,对于无法静态化的字节码使用打断功能会回退到动态图执行,对于可以静态化的字节码会生成一个静态图来进行替换。当第二次执行时,SOT 会先判断是否命中了上次转写的缓存,如果命中了缓存就可以直接获取上次转写的 PyCodeObject 重用。下图是整个 SOT 的执行流程。
4949

50-
<figure align="center">
51-
<img src="https://raw.githubusercontent.com/PaddlePaddle/docs/develop/docs/guides/paddle_v3_features/images/sot/sot_procedure.svg" style="zoom:80%"/>
52-
</figure>
50+
<p align="center">
51+
<img src="https://raw.githubusercontent.com/PaddlePaddle/docs/develop/docs/guides/paddle_v3_features/images/sot/sot_procedure.svg" width="80%"/>
52+
</p>
5353

54-
#### 三、框架架构
54+
## 三、框架架构
5555

56-
<figure align="center">
57-
<img src="https://raw.githubusercontent.com/PaddlePaddle/docs/develop/docs/guides/paddle_v3_features/images/sot/sot_framework.png" style="zoom:80%"/>
58-
</figure>
56+
<p align="center">
57+
<img src="https://raw.githubusercontent.com/PaddlePaddle/docs/develop/docs/guides/paddle_v3_features/images/sot/sot_framework.png" width="80%"/>
58+
</p>
5959

6060

6161
上图展示了 SOT 的所有组件,针对一些名词和模块,这里进行一个简单的介绍:
6262

63-
##### **一、EvalFrame Hooker 模块**
63+
### **一、EvalFrame Hooker 模块**
6464

65-
Python 在 2016 年的 PEP523 提案支持了自定义回调函数,将默认的执行器替换为用户自定义的解释函数。这个机制结合子图 fallback 方案的需求,我们在 Paddle 的 Pybind 层暴露了 `paddle.fluid.core.set_eval_frame` 接口。
65+
Python 在 2016 年的 PEP523 提案支持了自定义回调函数,将默认的执行器替换为用户自定义的解释函数。这个机制结合子图 fallback 方案的需求,我们在 Paddle 的 Pybind 层暴露了 `paddle.core.set_eval_frame` 接口。
6666

67-
##### **二、字节码模拟器(OpcodeExecutor)模块**
67+
### **二、字节码模拟器(OpcodeExecutor)模块**
6868

69-
这个部分是 SOT 方案的核心,主要的功能是我们需要模拟获取到的 PyobjectCode,并进行动态和静态代码分离,因此字节码模拟器是将 Python 函数映射为新的 Python 函数的模块。对于不同的静态化程度的函数,**字节码模拟器**会将一个函数对应于下面几种可能的情况:
69+
这个部分是 SOT 方案的核心,主要的功能是我们需要模拟获取到的 PyCodeObject,并进行动态和静态代码分离,因此字节码模拟器是将 Python 函数映射为新的 Python 函数的模块。对于不同的静态化程度的函数,**字节码模拟器**会将一个函数对应于下面几种可能的情况:
7070

7171
1. 若能够**完全静态化**目标函数,则需要返回一个新的可执行函数,该函数能够构建目标函数对应的子图;
7272
2. 若只能**部分静态化**目标函数,同样需要返回一个新的可执行函数,该函数将可静态化部分抽取为子图,并将无法静态化的部分抽取为子函数(可能代表着不同分支),通过 Eval Frame 机制进行递归的处理。
@@ -79,7 +79,7 @@ Python 在 2016 年的 PEP523 提案支持了自定义回调函数,将默认
7979
- 支持子函数递归模拟。
8080
- 完备的字节码支持,完备的版本支持。我们支持 python3.8 - python3.12 的几乎 90%常见字节码模拟。
8181

82-
##### **三、自适应子图打断模块:**
82+
### **三、自适应子图打断模块:**
8383

8484
**对于控制流 If、For 依赖 Tensor 的场景,需要打断构图并静态化部分函数,子图打断能力是 SOT 能够达到近 100%成功率的核心组件。**
8585

@@ -90,150 +90,148 @@ Python 在 2016 年的 PEP523 提案支持了自定义回调函数,将默认
9090

9191
基于不同的场景我们设计了不同的异常传播途径和不同的处理逻辑。
9292

93-
##### **四、Tracker、Guard、缓存模块:**
93+
### **四、Tracker、Guard、缓存模块:**
9494

9595
子图 Fallback 的整体实现可以认为是将用户函数原始字节码转换为新的字节码,**为了避免每次传入相同输入都会重新触发开销昂贵的字节码转换操作,我们需要增加缓存机制来复用之前转写过的代码,实现 JIT 的效果。**
9696

9797
但并不是任何字节码成功转换一次后第二次都是可以直接复用的,因为我们字节码的转换是基于 Frame 的初始状态进行模拟执行得到的,也就是说**转换后的字节码强依赖于 Frame 的初始状态**。当初始状态发生改变,最后转换后的字节码很有可能发生改变,因此我们需要一种机制来根据 Frame 初始状态来判断缓存过的字节码是否有效。这种转换复用的机制我们称为 Guard 函数,而 Guard 函数生成依赖字节码模拟过程中记录的每个模拟变量的 Tracker。
9898

99-
##### **五、副作用处理模块:**
99+
### **五、副作用处理模块:**
100100

101101
**SideEffect 是指代码执行过程中除了函数返回值之外,还对调用方产生了额外的影响,比如修改全局变量、修改可变的共享变量等。**
102102

103103
在模拟执行过程中,我们的代码是在虚拟环境下执行的,在该过程中不应该也不会对真实环境进行修改。而如果用户代码产生了 SideEffect,我们需要在生成的代码里反映出相应的 SideEffect,即在字节码生成步骤中增加 SideEffect 的处理部分。副作用模块就是专门记录并处理副作用正确性的功能模块。
104104

105-
##### **六、StatementIR 模块:**
105+
### **六、StatementIR 模块:**
106106

107107
**StatementIR 是 Paddle 动转静模块与子图 FallBack 的一个『中间桥梁』,它达到了动转静复用的目的。**
108108

109109
StatementIR 与 Program 类似,都是表征计算的一个结构。**在字节码执行过程中,我们需要将所有的组网代码都『临时记录』下来,并最后将他们组网成为一个 Program 。**这里的组网代码记录的载体就是 StatementIR 。在函数结束的时刻,我们会将记录下来的 StatementIR 转化为一个函数。与原来的用户代码不同,由 StatementIR 转化为的函数可以确保一定可以动转静。这样我们可以复用原来的动转静 to_static 函数来实现静态图的执行。
110110

111-
#### 四、对比 AST 方案
111+
## 四、对比 AST 方案
112112

113113
SOT 方案相比于 AST 方案有如下的优势:
114114

115-
1. 【成功率提升】SOT 在遇到不支持的语法时会自动打断,并将不支持部分运行在动态图下,因此理论上可以达到近 100%的成功率。见图 1
115+
1. 【成功率提升】SOT 在遇到不支持的语法时会自动打断,并将不支持部分运行在动态图下,因此理论上可以达到近 100% 的成功率。
116116
2. 【转写完备性】SOT 只依赖 Python 字节码,针对无法获取源码的场景,也可以得到运行,获取正确的结果。
117117
3. 【控制流支持】SOT 因为支持自适应子图打断,因此可以不静态图化某些容器操作,可以更好的处理控制流与容器。不需要在静态图底层支持太多的容器类结构,比如 TensorArray 或者是 TensorDict。
118118
4. 【自适应打断子图】SOT 支持自适应打断子图。在无法静态化时,主动打断组网、运行静态图并获取输出,然后在进行新一轮的组网。因此可以在自图层面享受静态图和编译器的加速收益。
119119

120120
**注意:在 Save/Load 模式下需要整图导出,会自动切换到 AST 模式进行运行。**
121121

122-
#### 五、开始使用
122+
## 五、开始使用
123123

124-
##### 使用 SOT 模式(默认模式)
124+
### 使用 SOT 模式(默认模式)
125125

126126
目前 SOT 模式是动转静的默认转写模式。用户只需要使用默认的 paddle.jit.to_static 就可以,下面是一个 SOT 动转静的使用样例:
127127

128128
```python
129129
import paddle
130130
from paddle.jit import to_static
131131
from paddle.static import InputSpec
132+
import numpy as np
133+
import random
134+
135+
# set seed for determinated output
136+
paddle.seed(2024)
137+
np.random.seed(2024)
138+
random.seed(2024)
132139

133140
class SimpleNet(paddle.nn.Layer):
134141
def __init__(self):
135142
super().__init__()
136143
self.linear = paddle.nn.Linear(10, 3)
137144

138145
def forward(self, x, y):
139-
out = self.linear(x)
140-
out = out + y
141-
return out
146+
x = self.linear(x)
147+
x = x + y
148+
np_x = x.numpy()
149+
np_x = np.sum(np_x) * 2
150+
return paddle.to_tensor(np_x)
142151

143152
net = SimpleNet()
144153

145-
# 通过 InputSpec 设置 Placeholder 信息
146-
x_spec = InputSpec(shape=[None, 10], name='x')
147-
y_spec = InputSpec(shape=[3], name='y')
148-
149-
net = paddle.jit.to_static(net, input_spec=[x_spec, y_spec], full_graph=False) # 动静转换, full_graph=False 表示 SOT 模式,默认值也是 False。
154+
net = paddle.jit.to_static(net, full_graph=False) # 动静转换, full_graph=False 表示 SOT 模式
150155
x = paddle.randn((10, 10))
151156
y = paddle.randn((3,))
152-
out = net (x, y)
153-
print (out)
154-
print (net.forward.get_concrete_program(x, y)[0].main_program) # <- 注意:SOT 模式下不支持获取 Program 行为,因为子图模式下没有完整的 Program。
157+
out = net(x, y)
158+
print(out)
155159
```
156160

157161
输出如下:
158162

159163
```bash
160-
Tensor(shape=[10, 3], dtype=float32, place=Place(gpu:0), stop_gradient=False,
161-
[[-1.13304663, -1.19968796, -1.05041265],
162-
[ 0.37486398, 0.76203460, -0.54747498],
163-
[ 1.39876842, 0.94538993, -0.28967816],
164-
[ 2.42383242, -0.10507777, 0.30874157],
165-
[ 2.08622670, -0.79925627, -0.49995136],
166-
[ 1.65675533, 0.24002212, 0.80648553],
167-
[ 1.07202315, -0.34463969, 0.41640472],
168-
[ 1.69436383, 0.56513381, -1.73116791],
169-
[ 3.01677823, -0.55843627, -0.02577722],
170-
[ 1.15339053, -0.49237141, -3.45497799]])
171-
Traceback (most recent call last):
172-
File "ttt.py", line 26, in <module>
173-
print (net.forward.get_concrete_program(x, y)[0].main_program)
174-
File "/home/ssd2/xiongkun/Paddle/build/python/paddle/jit/dy2static/program_translator.py", line 706, in _raise_error
175-
raise RuntimeError(error_template.format(func=func_str))
176-
RuntimeError: Can't call get_concrete_program when full_graph=False. Use paddle.jit.to_static(full_graph=True) instead. # <-------- SOT 模式下不支持获取 Program 行为,因为子图模式下没有完整的 Program。
164+
Tensor(shape=[], dtype=float64, place=Place(gpu:0), stop_gradient=True,
165+
54.16428375)
177166
```
178167

179-
##### 使用 AST 模式
168+
### 使用 AST 模式
180169

181170
如果确定自己的代码完全可以静态化,用户可以手动打开 AST 模式,通常 AST 模式成功率会更低,但是调度开销会更小,同时支持部署推理。
182171

183172
```python
184173
import paddle
185174
from paddle.jit import to_static
186175
from paddle.static import InputSpec
176+
import numpy as np
177+
import random
178+
179+
# set seed for determinated output
180+
paddle.seed(2024)
181+
np.random.seed(2024)
182+
random.seed(2024)
187183

188184
class SimpleNet(paddle.nn.Layer):
189185
def __init__(self):
190186
super().__init__()
191187
self.linear = paddle.nn.Linear(10, 3)
192188

193189
def forward(self, x, y):
194-
out = self.linear(x)
195-
out = out + y
196-
return out
190+
x = self.linear(x)
191+
x = x + y
192+
np_x = x.numpy()
193+
np_x = np.sum(np_x) * 2
194+
return paddle.to_tensor(np_x)
197195

198196
net = SimpleNet()
199197

200-
# 通过 InputSpec 设置 Placeholder 信息
201-
x_spec = InputSpec(shape=[None, 10], name='x')
202-
y_spec = InputSpec(shape=[3], name='y')
203-
204-
net = paddle.jit.to_static(net, input_spec=[x_spec, y_spec], full_graph=True) # 动静转换, full_graph=True 表示 AST 模式
198+
net = paddle.jit.to_static(net, full_graph=True) # 动静转换, full_graph=True 表示 AST 模式
205199
x = paddle.randn((10, 10))
206200
y = paddle.randn((3,))
207-
out = net (x, y)
208-
print (out)
209-
print (net.forward.get_concrete_program(x, y)[0].main_program)
201+
out = net(x, y)
202+
print(out)
210203
```
211204

212-
AST 模式输入如下:
213-
205+
在这个 Case 中,AST 模式下会报错,因为我们尝试混合使用 numpy 和 paddle api,导致无法整图静态化。
214206
```bash
215-
Tensor(shape=[10, 3], dtype=float32, place=Place(gpu:0), stop_gradient=False,
216-
[[ 1.70835090, 0.04221007, 0.72964853],
217-
[ 1.06365979, -1.06133056, 2.97515416],
218-
[ 0.44468573, -2.35942101, 1.45011353],
219-
[ 2.00858140, 0.98059273, -0.00995971],
220-
[-1.75421762, 0.83125985, -1.23860013],
221-
[ 1.77828634, 0.49190426, 1.12450254],
222-
[ 0.77791607, -0.10514683, 0.54133219],
223-
[-0.19535027, 1.00009346, 0.84831667],
224-
[ 3.16381860, -0.42790833, 1.11170506],
225-
[ 0.48884904, 0.07793605, -0.26775491]])
226-
{ // block_idx:0 parent_idx:-1 forward_idx:-1 backward_idx:-1
227-
var x : LOD_TENSOR.shape(-1, 10).dtype(float32).stop_gradient(True)
228-
var y : LOD_TENSOR.shape(3,).dtype(float32).stop_gradient(True)
229-
persist trainable param linear_0.w_0 : LOD_TENSOR.shape(10, 3).dtype(float32).stop_gradient(False)
230-
persist trainable param linear_0.b_0 : LOD_TENSOR.shape(3,).dtype(float32).stop_gradient(False)
231-
var linear_0.tmp_0 : LOD_TENSOR.shape(-1, 3).dtype(float32).stop_gradient(False)
232-
var linear_0.tmp_1 : LOD_TENSOR.shape(-1, 3).dtype(float32).stop_gradient(False)
233-
var tmp_0 : LOD_TENSOR.shape(-1, 3).dtype(float32).stop_gradient(False)
234-
235-
{Out=['linear_0.tmp_0']} = matmul_v2(inputs={X=['x'], Y=['linear_0.w_0']}, op_device = , op_namescope = /, op_role = 0, op_role_var = [], trans_x = False, trans_y = False, with_quant_attr = False)
236-
{Out=['linear_0.tmp_1']} = elementwise_add(inputs={X=['linear_0.tmp_0'], Y=['linear_0.b_0']}, axis = -1, op_device = , op_namescope = /, op_role = 0, op_role_var = [], with_quant_attr = False)
237-
{Out=['tmp_0']} = elementwise_add(inputs={X=['linear_0.tmp_1'], Y=['y']}, axis = -1, op_device = , op_namescope = /, op_role = 0, op_role_var = [], with_quant_attr = False)
238-
}
207+
Traceback (most recent call last):
208+
File "ttt.py", line 29, in <module>
209+
out = net(x, y)
210+
File "/home/ssd2/xiongkun/Paddle/build/python/paddle/nn/layer/layers.py", line 1484, in __call__
211+
return self.forward(*inputs, **kwargs)
212+
File "/home/ssd2/xiongkun/Paddle/build/python/paddle/jit/dy2static/program_translator.py", line 502, in __call__
213+
return self._perform_call(*args, **kwargs)
214+
File "/home/ssd2/xiongkun/Paddle/build/python/paddle/jit/dy2static/program_translator.py", line 822, in _perform_call
215+
error_data.raise_new_exception()
216+
File "/home/ssd2/xiongkun/Paddle/build/python/paddle/jit/dy2static/error.py", line 448, in raise_new_exception
217+
raise new_exception from None
218+
TypeError: In transformed code:
219+
220+
File "ttt.py", line 21, in forward
221+
x = x + y
222+
np_x = x.numpy()
223+
np_x = np.sum(np_x) * 2
224+
~~~~~~~~~~~~~~~~~~~~~~~ <--- HERE
225+
return paddle.to_tensor(np_x)
226+
227+
File "<__array_function__ internals>", line 200, in sum
228+
229+
File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/numpy/core/fromnumeric.py", line 2324, in sum
230+
return _wrapreduction(a, np.add, 'sum', axis, dtype, out, keepdims=keepdims,
231+
File "/root/miniconda3/envs/py38/lib/python3.8/site-packages/numpy/core/fromnumeric.py", line 84, in _wrapreduction
232+
return reduction(axis=axis, out=out, **passkwargs)
233+
234+
TypeError: Code 'np_x = np.sum(np_x) * 2' called numpy API np.sum, please use Paddle API to replace it.
235+
values will be changed to variables by dy2static, numpy api can not handle variables
236+
239237
```

0 commit comments

Comments
 (0)