diff --git a/.claude/skills/compatibility-testing/SKILL.md b/.claude/skills/compatibility-testing/SKILL.md new file mode 100644 index 0000000..ba769b2 --- /dev/null +++ b/.claude/skills/compatibility-testing/SKILL.md @@ -0,0 +1,268 @@ +# compatibility-testing + +PaddlePaddle 与 PyTorch C++ API 兼容性测试开发规范。 + +## 触发条件 + +适用场景: +- 编写或扩展 `PaddleCppAPITest\test` 下的兼容性测试 +- 验证 Paddle 兼容层与 PyTorch 对同一 API 的行为一致性 +- 定位某个接口在两个框架间的输出差异 + +## 测试目标 + +**测试范围**:覆盖 `Paddle\paddle\phi\api\include\compat` 目录下**所有**接口,包括但不限于: + +| 目录 | 接口类型 | 示例 | +|------|---------|------| +| `ATen/ops/` | ATen 算子 | `abs.h`, `sum.h`, `reshape.h`, `zeros.h` ... | +| `ATen/core/` | ATen 核心类型 | `Tensor.h`, `TensorBody.h`, `TensorAccessor.h` ... | +| `ATen/` | ATen 基础 | `Tensor.h`, `Device.h`, `DeviceGuard.h` ... | +| `c10/core/` | C10 核心 | `ScalarType.h`, `TensorOptions.h`, `Storage.h` ... | +| `c10/util/` | C10 工具 | `Optional.h`, `ArrayRef.h`, `Half.h` ... | +| `c10/cuda/` | C10 CUDA | `CUDAStream.h`, `CUDAGuard.h`, `CUDAException.h` ... | +| `torch/` | Torch 包装 | `all.h`, `cuda.h`, `extension.h` ... | +| `utils/` | 工具函数 | `scalar_type_conversion.h`, `int_array_ref_conversion.h` ... | + +> `AbsTest.cpp`(位于 `test/ops/` 仅为示例)仅作为**参考**,展示测试文件结构和输出格式。 + +## 项目约定 + +- 构建系统通过 `CMakeLists.txt` 中的 `create_paddle_tests()` 函数同时生成 `torch_*` 和 `paddle_*` 两套可执行文件 +- 测试二进制运行时自动以自身文件名命名输出文件(如 `torch_AbsTest.txt`),由 `main.cpp` 中的 `g_custom_param` 传递 +- 结果对比依赖文本 diff,因此输出格式的确定性至关重要 + +## 测试文件结构 + +### 文件头与命名空间 + +测试文件统一位于 `PaddleCppAPITest\test`,与 compat 接口目录结构对应。参考以下结构(以 `AbsTest.cpp` 为示例): + +```cpp +#include +#include +#include // 按需替换为目标算子头文件 +#include // 辅助构造用 +#include + +#include +#include + +#include "../../src/file_manager.h" + +extern paddle_api_test::ThreadSafeParam g_custom_param; + +namespace at { +namespace test { + +using paddle_api_test::FileManerger; +using paddle_api_test::ThreadSafeParam; + +class AbsTest : public ::testing::Test { + protected: + void SetUp() override { + // 构造基准输入 tensor + } + at::Tensor test_tensor; +}; + +// 测试用例 ... + +} // namespace test +} // namespace at +``` + +**关键约束**: +- 命名空间固定为 `at::test`,保证与 ATen 类型系统的直接可见性 +- `g_custom_param` 是全局线程安全参数,存储当前运行的输出文件名,由 `main.cpp` 在 `RUN_ALL_TESTS()` 前注入 +- 测试类命名格式 `Test`,文件名与之一致 + +### 结果输出函数 + +每个测试文件包含一个静态输出函数,负责将 tensor 结果序列化到文件。该函数是跨框架对比的唯一数据源,格式必须确定且可复现: + +```cpp +static void write_abs_result_to_file(FileManerger* file, const at::Tensor& result) { + *file << std::to_string(result.dim()) << " "; + *file << std::to_string(result.numel()) << " "; + float* data = result.data_ptr(); + for (int64_t i = 0; i < result.numel(); ++i) { + *file << std::to_string(data[i]) << " "; + } +} +``` + +注意: +- 第一个测试用例调用 `file.createFile()` 创建文件,后续用例调用 `file.openAppend()` 追加 +- 对于多 dtype 支持的算子,需按 `result.scalar_type()` 分发到对应的 `data_ptr()` 类型 + +## Shape 覆盖要求 + +测试 shape 的选择直接影响边界条件的暴露率。以下为四个必选维度区间,每个新算子测试须至少各取一例: + +### 标量 (0-d tensor) +- `{}` — 零维标量,部分算子(如 `sum` 不指定 dim)的返回类型 +- 注意:`{1}` 是 1-d tensor,**不是**标量 + +### 小 shape(元素数 ≤ 64) +- 典型值:`{4}`、`{2, 3}`、`{2, 3, 4}` +- 便于手工验证数值正确性 + +### 大 shape(元素数 ≥ 10000) +- 典型值:`{10000}`、`{100, 100}`、`{10, 20, 30, 40}` +- 主要暴露精度累积误差和内存布局差异 + +### 边界 shape +- 含零维度:`{0}`、`{2, 0}`、`{1, 0, 3}` — 验证空 tensor 语义 +- 全一维度:`{1, 1, 1}` — 常触发 squeeze/broadcast 的特殊路径 +- 经 `transpose()` / `as_strided()` 产生的非连续 tensor — 验证 stride 处理的正确性 + +## Dtype 覆盖要求 + +以下为 ATen 支持的标准标量类型,通过 `at::TensorOptions().dtype()` 或 shorthand 常量指定。新增测试至少需要覆盖 `kFloat`、`kDouble`、`kInt`、`kLong` 四种基础类型,其余按算子语义酌情补充: + +| 标量类型 | ATen 常量 | C++ 对应类型 | 适用注意 | +|---------|-----------|-------------|---------| +| float32 | `at::kFloat` | `float` | 多数算子的默认 dtype | +| float64 | `at::kDouble` | `double` | 精度基准,常用于 reference 比较 | +| int32 | `at::kInt` | `int32_t` | 整型算子、索引 | +| int64 | `at::kLong` | `int64_t` | shape / dim 参数的底层类型 | +| int16 | `at::kShort` | `int16_t` | 较少使用,部分量化场景 | +| int8 | `at::kChar` | `int8_t` | 不要与 `kByte` (uint8) 混淆 | +| uint8 | `at::kByte` | `uint8_t` | 常见于图像数据 | +| bool | `at::kBool` | `bool` | 比较算子的返回类型 | + +> Paddle 兼容层的 dtype 映射与 PyTorch 存在细微差异(例如默认 dtype 可能不同),输出对比时需关注此类隐式转换。 + +## 异常行为测试 + +部分算子在非法输入下的异常行为可能在两个框架间存在差异(一个抛异常、另一个返回 NaN 或空 tensor)。此类差异需显式捕获并记录: + +```cpp +TEST_F(SomeOpTest, InvalidInputHandling) { + try { + at::Tensor result = at::some_op(invalid_tensor); + // 未抛异常 — 正常记录结果 + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + write_someop_result_to_file(&file, result); + file.saveFile(); + } catch (const c10::Error& e) { + // ATen/c10 层异常 + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + file << "c10::Error: " << e.what(); + file.saveFile(); + } catch (const std::exception& e) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + file << "exception: " << e.what(); + file.saveFile(); + } +} +``` + +> 捕获时优先匹配 `c10::Error`(ATen 的标准异常类型),再兜底 `std::exception`。异常信息写入输出文件后可直接 diff,两框架的异常消息不要求完全一致,但**是否抛异常**须一致。 + +## 输出格式 + +输出文件采用空格分隔的纯文本,按以下字段顺序逐 tensor 追加: + +``` + [ ...] ... +``` + +示例(一个 shape 为 `{2, 3}` 的 float tensor): +``` +2 6 2 3 1.000000 2.000000 3.000000 4.000000 5.000000 6.000000 +``` + +注意事项: +- 浮点值通过 `std::to_string()` 序列化,精度为 6 位有效数字 +- 不同测试用例的输出依次追加到同一文件中,以换行或空格分隔,顺序由 GTest 的用例注册顺序决定 + +## 调试手段 + +### 运行时 tensor 状态检查 + +```cpp +std::cout << "shape: " << result.sizes() + << " dtype: " << result.scalar_type() + << " contiguous: " << result.is_contiguous() + << " device: " << result.device() << std::endl; +``` + +### 逐元素打印 + +```cpp +auto* data = result.data_ptr(); +for (int64_t i = 0; i < result.numel(); ++i) { + std::cout << "[" << i << "] " << data[i] << "\n"; +} +``` + +### GTest 断言附加信息 + +```cpp +EXPECT_EQ(result.dim(), 2) << "Unexpected rank for input shape " << input.sizes(); +EXPECT_TRUE(result.is_contiguous()) << "Non-contiguous result from reshape"; +``` + +### 仅运行单个测试 + +```bash +./torch/torch_AbsTest --gtest_filter="AbsTest.EdgeValues" +``` + +## 新算子测试检查清单 + +新增测试前逐项确认,标注 `*` 的为强制项: + +**Shape 维度** +- [ ] `*` 标量 (0-d tensor) +- [ ] `*` 小 shape (元素数 ≤ 64) +- [ ] `*` 大 shape (元素数 ≥ 10000) +- [ ] 含零维度 (`{0}`, `{2, 0}`) +- [ ] 全一维度 (`{1, 1, 1}`) +- [ ] 非连续 tensor (经 `transpose` / `narrow` / `as_strided`) + +**Dtype** +- [ ] `*` float32 +- [ ] `*` float64 +- [ ] `*` int32 +- [ ] `*` int64 +- [ ] bool +- [ ] int8 / uint8 / int16(视算子支持情况) + +**值域** +- [ ] `*` 正数 +- [ ] `*` 负数 +- [ ] `*` 零 +- [ ] NaN / Inf / -Inf +- [ ] 极值 (`1e38f`, `1e-38f`) +- [ ] 正负零区分 (`+0.0` vs `-0.0`) + +**API 变体** +- [ ] 函数式调用 (`at::abs(t)`) +- [ ] 原地操作 (`at::abs_(t)` 或 `t.abs_()`) +- [ ] out= 重载 (`at::abs_out(out, t)`) +- [ ] keepdim 参数(归约类算子) +- [ ] dim / axis 参数(含负索引) + +**输出** +- [ ] `*` 第一个用例使用 `createFile()`,后续使用 `openAppend()` +- [ ] `*` 通过 `write__result_to_file()` 统一输出 +- [ ] 多 dtype 场景按 `scalar_type()` 分发 `data_ptr()` + +## 输出文件路径 + +默认输出目录:`/tmp/paddle_cpp_api_test/`(由 `FileManerger::basic_path_` 控制)。 + +文件名自动取可执行文件名 + `.txt`: +- `torch_AbsTest` → `/tmp/paddle_cpp_api_test/torch_AbsTest.txt` +- `paddle_AbsTest` → `/tmp/paddle_cpp_api_test/paddle_AbsTest.txt` + +如需自定义路径,在构造 `FileManerger` 时传入完整文件名即可覆盖(但通常不建议,以保持批量对比脚本的兼容性)。 diff --git a/README.md b/README.md index 933309e..963b909 100644 --- a/README.md +++ b/README.md @@ -60,6 +60,12 @@ ninja ctest ``` +#### 运行对比脚本 + +```bash +cd .. && ./test/result_cmp.sh build +``` + ## 代码风格 项目已配置以下代码风格工具: @@ -67,3 +73,25 @@ ctest - **clang-format**: C++ 代码格式化 - **Ruff**: Python 代码检查 - **pre-commit**: Git 提交前检查 + +## 兼容性测试 Skill + +项目内置了 Claude Code Skill(`.claude/skills/compatibility-testing/`),用于规范化 Paddle/PyTorch C++ API 兼容性测试的编写流程。该 Skill 在涉及 API 测试编写、跨框架对比验证等场景时自动激活。 + +### 适用场景 + +- 新增 ATen 算子的兼容性测试(如 `test/ops/AbsTest.cpp`) +- 排查 Paddle 与 PyTorch 在特定算子上的行为差异 +- 扩展现有测试的 shape / dtype 覆盖范围 + +### 规范内容 + +| 类别 | 说明 | +|------|------| +| 文件结构 | 统一的头文件引用、`at::test` 命名空间、`FileManerger` 结果输出 | +| Shape 覆盖 | 标量 `{}`、小 shape、大 shape(10000+)、含零维度、非连续内存布局 | +| Dtype 覆盖 | `kFloat` / `kDouble` / `kInt` / `kLong` / `kBool` 等 8 种标准类型 | +| 算子分类 | Creation、Math、Shape、Indexing、Comparison、Reduction 六大类 | +| 对比流程 | 同源代码分别编译 Torch / Paddle 版本,通过输出文件 diff 验证一致性 | + +完整指南见 [SKILL.md](.claude/skills/compatibility-testing/SKILL.md)。 diff --git a/test/DeviceTest.cpp b/test/DeviceTest.cpp new file mode 100644 index 0000000..f50a86d --- /dev/null +++ b/test/DeviceTest.cpp @@ -0,0 +1,327 @@ +#include +#include +#include +#include + +#include +#include + +#include "../src/file_manager.h" + +extern paddle_api_test::ThreadSafeParam g_custom_param; + +namespace at { +namespace test { + +using paddle_api_test::FileManerger; +using paddle_api_test::ThreadSafeParam; + +class DeviceTest : public ::testing::Test { + protected: + void SetUp() override {} +}; + +// 辅助函数:将 Device 结果写入文件 +static void write_device_result_to_file(FileManerger* file, + const c10::Device& device) { + *file << std::to_string(static_cast(device.type())) << " "; + *file << std::to_string(static_cast(device.index())) << " "; + *file << (device.is_cuda() ? "1" : "0") << " "; + *file << (device.is_cpu() ? "1" : "0") << " "; + *file << (device.has_index() ? "1" : "0") << " "; + *file << device.str() << " "; +} + +// ==================== Device 构造函数测试 ==================== + +// 测试 Device(DeviceType, DeviceIndex) 构造函数 +TEST_F(DeviceTest, ConstructorWithTypeAndIndex) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.createFile(); + + // CPU 设备,默认 index=0 + c10::Device cpu_device(c10::kCPU); + write_device_result_to_file(&file, cpu_device); + + // CPU 设备,显式 index=0 + c10::Device cpu_device_0(c10::kCPU, 0); + write_device_result_to_file(&file, cpu_device_0); + + // CUDA 设备,index=0 + c10::Device cuda_device_0(c10::kCUDA, 0); + write_device_result_to_file(&file, cuda_device_0); + + // CUDA 设备,index=1 + c10::Device cuda_device_1(c10::kCUDA, 1); + write_device_result_to_file(&file, cuda_device_1); + + file.saveFile(); +} + +// 测试 Device(std::string) 字符串构造 +TEST_F(DeviceTest, ConstructorWithString) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + // "cpu" 字符串 + c10::Device cpu_str("cpu"); + write_device_result_to_file(&file, cpu_str); + + // "cpu:0" 字符串 + c10::Device cpu0_str("cpu:0"); + write_device_result_to_file(&file, cpu0_str); + + // "cuda" 字符串 + c10::Device cuda_str("cuda"); + write_device_result_to_file(&file, cuda_str); + + // "cuda:0" 字符串 + c10::Device cuda0_str("cuda:0"); + write_device_result_to_file(&file, cuda0_str); + + // "cuda:1" 字符串 + c10::Device cuda1_str("cuda:1"); + write_device_result_to_file(&file, cuda1_str); + + file.saveFile(); +} + +// ==================== Device 属性测试 ==================== + +// 测试 index() 和 has_index() +TEST_F(DeviceTest, IndexAndHasIndex) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + // CPU 设备 + c10::Device cpu_device(c10::kCPU); + file << std::to_string(cpu_device.index()) << " "; + file << (cpu_device.has_index() ? "1" : "0") << " "; + + // CUDA 设备 index=0 + c10::Device cuda_0(c10::kCUDA, 0); + file << std::to_string(cuda_0.index()) << " "; + file << (cuda_0.has_index() ? "1" : "0") << " "; + + // CUDA 设备 index=1 + c10::Device cuda_1(c10::kCUDA, 1); + file << std::to_string(cuda_1.index()) << " "; + file << (cuda_1.has_index() ? "1" : "0") << " "; + + // 字符串构造的设备 + c10::Device cpu_str("cpu"); + file << std::to_string(cpu_str.index()) << " "; + file << (cpu_str.has_index() ? "1" : "0") << " "; + + c10::Device cuda0_str("cuda:0"); + file << std::to_string(cuda0_str.index()) << " "; + file << (cuda0_str.has_index() ? "1" : "0") << " "; + + file.saveFile(); +} + +// 测试 type() 设备类型 +TEST_F(DeviceTest, DeviceType) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + c10::Device cpu_device(c10::kCPU); + file << std::to_string(static_cast(cpu_device.type())) << " "; + + c10::Device cuda_device(c10::kCUDA, 0); + file << std::to_string(static_cast(cuda_device.type())) << " "; + + // 从字符串解析 + c10::Device cpu_str("cpu"); + file << std::to_string(static_cast(cpu_str.type())) << " "; + + c10::Device cuda_str("cuda:0"); + file << std::to_string(static_cast(cuda_str.type())) << " "; + + file.saveFile(); +} + +// 测试 is_cuda() 和 is_cpu() +TEST_F(DeviceTest, IsCudaAndIsCpu) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + // CPU 设备 + c10::Device cpu_device(c10::kCPU); + file << (cpu_device.is_cpu() ? "1" : "0") << " "; + file << (cpu_device.is_cuda() ? "1" : "0") << " "; + + // CUDA 设备 + c10::Device cuda_device(c10::kCUDA, 0); + file << (cuda_device.is_cpu() ? "1" : "0") << " "; + file << (cuda_device.is_cuda() ? "1" : "0") << " "; + + // 字符串构造的 CPU + c10::Device cpu_str("cpu"); + file << (cpu_str.is_cpu() ? "1" : "0") << " "; + file << (cpu_str.is_cuda() ? "1" : "0") << " "; + + // 字符串构造的 CUDA + c10::Device cuda_str("cuda:0"); + file << (cuda_str.is_cpu() ? "1" : "0") << " "; + file << (cuda_str.is_cuda() ? "1" : "0") << " "; + + file.saveFile(); +} + +// 测试 str() 字符串表示 +TEST_F(DeviceTest, ToString) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + c10::Device cpu_device(c10::kCPU); + file << cpu_device.str() << " "; + + c10::Device cuda_0(c10::kCUDA, 0); + file << cuda_0.str() << " "; + + c10::Device cuda_1(c10::kCUDA, 1); + file << cuda_1.str() << " "; + + c10::Device cpu_str("cpu:0"); + file << cpu_str.str() << " "; + + c10::Device cuda_str("cuda:1"); + file << cuda_str.str() << " "; + + file.saveFile(); +} + +// ==================== Device 比较测试 ==================== + +// 测试 operator== +TEST_F(DeviceTest, Equality) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + // 相同设备 + c10::Device cpu1(c10::kCPU); + c10::Device cpu2(c10::kCPU); + file << (cpu1 == cpu2 ? "1" : "0") << " "; + + // 相同类型不同 index + c10::Device cuda0(c10::kCUDA, 0); + c10::Device cuda1(c10::kCUDA, 1); + file << (cuda0 == cuda1 ? "1" : "0") << " "; + + // 不同类型 + c10::Device cpu(c10::kCPU); + c10::Device cuda(c10::kCUDA, 0); + file << (cpu == cuda ? "1" : "0") << " "; + + // 字符串构造 vs 构造函数 + c10::Device cpu_cons(c10::kCPU); + c10::Device cpu_str("cpu"); + file << (cpu_cons == cpu_str ? "1" : "0") << " "; + + c10::Device cuda0_cons(c10::kCUDA, 0); + c10::Device cuda0_str("cuda:0"); + file << (cuda0_cons == cuda0_str ? "1" : "0") << " "; + + file.saveFile(); +} + +// ==================== Tensor 与 Device 交互测试 ==================== + +// 测试 Tensor 的 device() 方法 +TEST_F(DeviceTest, TensorDevice) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + // 默认 CPU tensor + at::Tensor cpu_tensor = at::zeros({2, 3}); + c10::Device cpu_dev = cpu_tensor.device(); + write_device_result_to_file(&file, cpu_dev); + + // 指定 CPU device 的 tensor + at::Tensor cpu_tensor2 = + at::zeros({2, 3}, at::TensorOptions().device(c10::kCPU)); + c10::Device cpu_dev2 = cpu_tensor2.device(); + write_device_result_to_file(&file, cpu_dev2); + + // 使用 TensorOptions 构造 + at::Tensor cpu_tensor3 = + at::zeros({2, 3}, at::TensorOptions().device(c10::Device(c10::kCPU))); + c10::Device cpu_dev3 = cpu_tensor3.device(); + write_device_result_to_file(&file, cpu_dev3); + + file.saveFile(); +} + +// 测试 TensorOptions 设置 device +TEST_F(DeviceTest, TensorOptionsDevice) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + // 使用 TensorOptions 设置 CPU + at::TensorOptions opts_cpu = at::TensorOptions().device(c10::kCPU); + at::Tensor tensor_cpu = at::zeros({2, 2}, opts_cpu); + c10::Device dev_cpu = tensor_cpu.device(); + write_device_result_to_file(&file, dev_cpu); + + file.saveFile(); +} + +// ==================== Device 常量测试 ==================== + +// 测试 kCPU 和 kCUDA 常量 +TEST_F(DeviceTest, DeviceConstants) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + // 使用 kCPU 常量 + c10::Device dev_kcpu(c10::kCPU); + write_device_result_to_file(&file, dev_kcpu); + + // 使用 kCUDA 常量 + c10::Device dev_kcuda(c10::kCUDA, 0); + write_device_result_to_file(&file, dev_kcuda); + + // 在 TensorOptions 中使用 + at::Tensor tensor_kcpu = + at::zeros({2}, at::TensorOptions().device(c10::kCPU)); + write_device_result_to_file(&file, tensor_kcpu.device()); + + file.saveFile(); +} + +// ==================== Device 边界情况测试 ==================== + +// 测试负索引 +TEST_F(DeviceTest, NegativeIndex) { + auto file_name = g_custom_param.get(); + FileManerger file(file_name); + file.openAppend(); + + // CUDA 负索引 - 应该返回 -1 + c10::Device cuda_neg(c10::kCUDA, -1); + file << std::to_string(static_cast(cuda_neg.type())) << " "; + file << std::to_string(static_cast(cuda_neg.index())) << " "; + file << (cuda_neg.has_index() ? "1" : "0") << " "; + + // CPU 负索引 + c10::Device cpu_neg(c10::kCPU, -1); + file << std::to_string(static_cast(cpu_neg.type())) << " "; + file << std::to_string(static_cast(cpu_neg.index())) << " "; + file << (cpu_neg.has_index() ? "1" : "0") << " "; + + file.saveFile(); +} + +} // namespace test +} // namespace at