Skip to content

Commit 7bbfc1a

Browse files
authored
modified desciption of mask (#7318)
modified: model_convert/convert_from_pytorch/api_difference/functional/torch.nn.functional.scaled_dot_product_attention.md
1 parent 1cd6325 commit 7bbfc1a

File tree

1 file changed

+1
-1
lines changed

1 file changed

+1
-1
lines changed

docs/guides/model_convert/convert_from_pytorch/api_difference/functional/torch.nn.functional.scaled_dot_product_attention.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -21,7 +21,7 @@ paddle.nn.functional.scaled_dot_product_attention(query, key, value, attn_mask=N
2121
| query | query | 注意力模块中的查询张量。 |
2222
| key | key | 注意力模块中的关键张量。 |
2323
| value | value | 注意力模块中的值张量。 |
24-
| attn_mask | attn_mask | 与添加到注意力分数的 `query``key``value` 类型相同的浮点掩码, 默认值为 `None`|
24+
| attn_mask | attn_mask | 与添加到注意力分数的 `query``key``value` 类型相同的浮点掩码或者 bool 掩码, 默认值为 `None`|
2525
| dropout_p | dropout_p | `dropout` 的比例, 默认值为 0.00 即不进行正则化。 |
2626
| is_causal | is_causal | 是否启用因果关系, 默认值为 `False` 即不启用。 |
2727
| scale | - | 在 softmax 之前应用的缩放因子。默认与 Paddle 行为一致。Paddle 无此参数,暂无转写方式。 |

0 commit comments

Comments
 (0)