diff --git a/llvm/include/llvm/CodeGen/ValueTypes.td b/llvm/include/llvm/CodeGen/ValueTypes.td index 28216a7a55398..1e9632357edd0 100644 --- a/llvm/include/llvm/CodeGen/ValueTypes.td +++ b/llvm/include/llvm/CodeGen/ValueTypes.td @@ -101,244 +101,248 @@ def v256i1 : VTVec<256, i1, 26>; // 256 x i1 vector value def v512i1 : VTVec<512, i1, 27>; // 512 x i1 vector value def v1024i1 : VTVec<1024, i1, 28>; // 1024 x i1 vector value def v2048i1 : VTVec<2048, i1, 29>; // 2048 x i1 vector value - -def v128i2 : VTVec<128, i2, 30>; // 128 x i2 vector value -def v256i2 : VTVec<256, i2, 31>; // 256 x i2 vector value - -def v64i4 : VTVec<64, i4, 32>; // 64 x i4 vector value -def v128i4 : VTVec<128, i4, 33>; // 128 x i4 vector value - -def v1i8 : VTVec<1, i8, 34>; // 1 x i8 vector value -def v2i8 : VTVec<2, i8, 35>; // 2 x i8 vector value -def v3i8 : VTVec<3, i8, 36>; // 3 x i8 vector value -def v4i8 : VTVec<4, i8, 37>; // 4 x i8 vector value -def v8i8 : VTVec<8, i8, 38>; // 8 x i8 vector value -def v16i8 : VTVec<16, i8, 39>; // 16 x i8 vector value -def v32i8 : VTVec<32, i8, 40>; // 32 x i8 vector value -def v64i8 : VTVec<64, i8, 41>; // 64 x i8 vector value -def v128i8 : VTVec<128, i8, 42>; // 128 x i8 vector value -def v256i8 : VTVec<256, i8, 43>; // 256 x i8 vector value -def v512i8 : VTVec<512, i8, 44>; // 512 x i8 vector value -def v1024i8 : VTVec<1024, i8, 45>; // 1024 x i8 vector value - -def v1i16 : VTVec<1, i16, 46>; // 1 x i16 vector value -def v2i16 : VTVec<2, i16, 47>; // 2 x i16 vector value -def v3i16 : VTVec<3, i16, 48>; // 3 x i16 vector value -def v4i16 : VTVec<4, i16, 49>; // 4 x i16 vector value -def v8i16 : VTVec<8, i16, 50>; // 8 x i16 vector value -def v16i16 : VTVec<16, i16, 51>; // 16 x i16 vector value -def v32i16 : VTVec<32, i16, 52>; // 32 x i16 vector value -def v64i16 : VTVec<64, i16, 53>; // 64 x i16 vector value -def v128i16 : VTVec<128, i16, 54>; // 128 x i16 vector value -def v256i16 : VTVec<256, i16, 55>; // 256 x i16 vector value -def v512i16 : VTVec<512, i16, 56>; // 512 x i16 vector value - -def v1i32 : VTVec<1, i32, 57>; // 1 x i32 vector value -def v2i32 : VTVec<2, i32, 58>; // 2 x i32 vector value -def v3i32 : VTVec<3, i32, 59>; // 3 x i32 vector value -def v4i32 : VTVec<4, i32, 60>; // 4 x i32 vector value -def v5i32 : VTVec<5, i32, 61>; // 5 x i32 vector value -def v6i32 : VTVec<6, i32, 62>; // 6 x f32 vector value -def v7i32 : VTVec<7, i32, 63>; // 7 x f32 vector value -def v8i32 : VTVec<8, i32, 64>; // 8 x i32 vector value -def v9i32 : VTVec<9, i32, 65>; // 9 x i32 vector value -def v10i32 : VTVec<10, i32, 66>; // 10 x i32 vector value -def v11i32 : VTVec<11, i32, 67>; // 11 x i32 vector value -def v12i32 : VTVec<12, i32, 68>; // 12 x i32 vector value -def v16i32 : VTVec<16, i32, 69>; // 16 x i32 vector value -def v32i32 : VTVec<32, i32, 70>; // 32 x i32 vector value -def v64i32 : VTVec<64, i32, 71>; // 64 x i32 vector value -def v128i32 : VTVec<128, i32, 72>; // 128 x i32 vector value -def v256i32 : VTVec<256, i32, 73>; // 256 x i32 vector value -def v512i32 : VTVec<512, i32, 74>; // 512 x i32 vector value -def v1024i32 : VTVec<1024, i32, 75>; // 1024 x i32 vector value -def v2048i32 : VTVec<2048, i32, 76>; // 2048 x i32 vector value - -def v1i64 : VTVec<1, i64, 77>; // 1 x i64 vector value -def v2i64 : VTVec<2, i64, 78>; // 2 x i64 vector value -def v3i64 : VTVec<3, i64, 79>; // 3 x i64 vector value -def v4i64 : VTVec<4, i64, 80>; // 4 x i64 vector value -def v8i64 : VTVec<8, i64, 81>; // 8 x i64 vector value -def v16i64 : VTVec<16, i64, 82>; // 16 x i64 vector value -def v32i64 : VTVec<32, i64, 83>; // 32 x i64 vector value -def v64i64 : VTVec<64, i64, 84>; // 64 x i64 vector value -def v128i64 : VTVec<128, i64, 85>; // 128 x i64 vector value -def v256i64 : VTVec<256, i64, 86>; // 256 x i64 vector value - -def v1i128 : VTVec<1, i128, 87>; // 1 x i128 vector value - -def v1f16 : VTVec<1, f16, 88>; // 1 x f16 vector value -def v2f16 : VTVec<2, f16, 89>; // 2 x f16 vector value -def v3f16 : VTVec<3, f16, 90>; // 3 x f16 vector value -def v4f16 : VTVec<4, f16, 91>; // 4 x f16 vector value -def v8f16 : VTVec<8, f16, 92>; // 8 x f16 vector value -def v16f16 : VTVec<16, f16, 93>; // 16 x f16 vector value -def v32f16 : VTVec<32, f16, 94>; // 32 x f16 vector value -def v64f16 : VTVec<64, f16, 95>; // 64 x f16 vector value -def v128f16 : VTVec<128, f16, 96>; // 128 x f16 vector value -def v256f16 : VTVec<256, f16, 97>; // 256 x f16 vector value -def v512f16 : VTVec<512, f16, 98>; // 512 x f16 vector value - -def v1bf16 : VTVec<1, bf16, 99>; // 1 x bf16 vector value -def v2bf16 : VTVec<2, bf16, 100>; // 2 x bf16 vector value -def v3bf16 : VTVec<3, bf16, 101>; // 3 x bf16 vector value -def v4bf16 : VTVec<4, bf16, 102>; // 4 x bf16 vector value -def v8bf16 : VTVec<8, bf16, 103>; // 8 x bf16 vector value -def v16bf16 : VTVec<16, bf16, 104>; // 16 x bf16 vector value -def v32bf16 : VTVec<32, bf16, 105>; // 32 x bf16 vector value -def v64bf16 : VTVec<64, bf16, 106>; // 64 x bf16 vector value -def v128bf16 : VTVec<128, bf16, 107>; // 128 x bf16 vector value - -def v1f32 : VTVec<1, f32, 108>; // 1 x f32 vector value -def v2f32 : VTVec<2, f32, 109>; // 2 x f32 vector value -def v3f32 : VTVec<3, f32, 110>; // 3 x f32 vector value -def v4f32 : VTVec<4, f32, 111>; // 4 x f32 vector value -def v5f32 : VTVec<5, f32, 112>; // 5 x f32 vector value -def v6f32 : VTVec<6, f32, 113>; // 6 x f32 vector value -def v7f32 : VTVec<7, f32, 114>; // 7 x f32 vector value -def v8f32 : VTVec<8, f32, 115>; // 8 x f32 vector value -def v9f32 : VTVec<9, f32, 116>; // 9 x f32 vector value -def v10f32 : VTVec<10, f32, 117>; // 10 x f32 vector value -def v11f32 : VTVec<11, f32, 118>; // 11 x f32 vector value -def v12f32 : VTVec<12, f32, 119>; // 12 x f32 vector value -def v16f32 : VTVec<16, f32, 120>; // 16 x f32 vector value -def v32f32 : VTVec<32, f32, 121>; // 32 x f32 vector value -def v64f32 : VTVec<64, f32, 122>; // 64 x f32 vector value -def v128f32 : VTVec<128, f32, 123>; // 128 x f32 vector value -def v256f32 : VTVec<256, f32, 124>; // 256 x f32 vector value -def v512f32 : VTVec<512, f32, 125>; // 512 x f32 vector value -def v1024f32 : VTVec<1024, f32, 126>; // 1024 x f32 vector value -def v2048f32 : VTVec<2048, f32, 127>; // 2048 x f32 vector value - -def v1f64 : VTVec<1, f64, 128>; // 1 x f64 vector value -def v2f64 : VTVec<2, f64, 129>; // 2 x f64 vector value -def v3f64 : VTVec<3, f64, 130>; // 3 x f64 vector value -def v4f64 : VTVec<4, f64, 131>; // 4 x f64 vector value -def v8f64 : VTVec<8, f64, 132>; // 8 x f64 vector value -def v16f64 : VTVec<16, f64, 133>; // 16 x f64 vector value -def v32f64 : VTVec<32, f64, 134>; // 32 x f64 vector value -def v64f64 : VTVec<64, f64, 135>; // 64 x f64 vector value -def v128f64 : VTVec<128, f64, 136>; // 128 x f64 vector value -def v256f64 : VTVec<256, f64, 137>; // 256 x f64 vector value - -def nxv1i1 : VTScalableVec<1, i1, 138>; // n x 1 x i1 vector value -def nxv2i1 : VTScalableVec<2, i1, 139>; // n x 2 x i1 vector value -def nxv4i1 : VTScalableVec<4, i1, 140>; // n x 4 x i1 vector value -def nxv8i1 : VTScalableVec<8, i1, 141>; // n x 8 x i1 vector value -def nxv16i1 : VTScalableVec<16, i1, 142>; // n x 16 x i1 vector value -def nxv32i1 : VTScalableVec<32, i1, 143>; // n x 32 x i1 vector value -def nxv64i1 : VTScalableVec<64, i1, 144>; // n x 64 x i1 vector value - -def nxv1i8 : VTScalableVec<1, i8, 145>; // n x 1 x i8 vector value -def nxv2i8 : VTScalableVec<2, i8, 146>; // n x 2 x i8 vector value -def nxv4i8 : VTScalableVec<4, i8, 147>; // n x 4 x i8 vector value -def nxv8i8 : VTScalableVec<8, i8, 148>; // n x 8 x i8 vector value -def nxv16i8 : VTScalableVec<16, i8, 149>; // n x 16 x i8 vector value -def nxv32i8 : VTScalableVec<32, i8, 150>; // n x 32 x i8 vector value -def nxv64i8 : VTScalableVec<64, i8, 151>; // n x 64 x i8 vector value - -def nxv1i16 : VTScalableVec<1, i16, 152>; // n x 1 x i16 vector value -def nxv2i16 : VTScalableVec<2, i16, 153>; // n x 2 x i16 vector value -def nxv4i16 : VTScalableVec<4, i16, 154>; // n x 4 x i16 vector value -def nxv8i16 : VTScalableVec<8, i16, 155>; // n x 8 x i16 vector value -def nxv16i16 : VTScalableVec<16, i16, 156>; // n x 16 x i16 vector value -def nxv32i16 : VTScalableVec<32, i16, 157>; // n x 32 x i16 vector value - -def nxv1i32 : VTScalableVec<1, i32, 158>; // n x 1 x i32 vector value -def nxv2i32 : VTScalableVec<2, i32, 159>; // n x 2 x i32 vector value -def nxv4i32 : VTScalableVec<4, i32, 160>; // n x 4 x i32 vector value -def nxv8i32 : VTScalableVec<8, i32, 161>; // n x 8 x i32 vector value -def nxv16i32 : VTScalableVec<16, i32, 162>; // n x 16 x i32 vector value -def nxv32i32 : VTScalableVec<32, i32, 163>; // n x 32 x i32 vector value - -def nxv1i64 : VTScalableVec<1, i64, 164>; // n x 1 x i64 vector value -def nxv2i64 : VTScalableVec<2, i64, 165>; // n x 2 x i64 vector value -def nxv4i64 : VTScalableVec<4, i64, 166>; // n x 4 x i64 vector value -def nxv8i64 : VTScalableVec<8, i64, 167>; // n x 8 x i64 vector value -def nxv16i64 : VTScalableVec<16, i64, 168>; // n x 16 x i64 vector value -def nxv32i64 : VTScalableVec<32, i64, 169>; // n x 32 x i64 vector value - -def nxv1f16 : VTScalableVec<1, f16, 170>; // n x 1 x f16 vector value -def nxv2f16 : VTScalableVec<2, f16, 171>; // n x 2 x f16 vector value -def nxv4f16 : VTScalableVec<4, f16, 172>; // n x 4 x f16 vector value -def nxv8f16 : VTScalableVec<8, f16, 173>; // n x 8 x f16 vector value -def nxv16f16 : VTScalableVec<16, f16, 174>; // n x 16 x f16 vector value -def nxv32f16 : VTScalableVec<32, f16, 175>; // n x 32 x f16 vector value - -def nxv1bf16 : VTScalableVec<1, bf16, 176>; // n x 1 x bf16 vector value -def nxv2bf16 : VTScalableVec<2, bf16, 177>; // n x 2 x bf16 vector value -def nxv4bf16 : VTScalableVec<4, bf16, 178>; // n x 4 x bf16 vector value -def nxv8bf16 : VTScalableVec<8, bf16, 179>; // n x 8 x bf16 vector value -def nxv16bf16 : VTScalableVec<16, bf16, 180>; // n x 16 x bf16 vector value -def nxv32bf16 : VTScalableVec<32, bf16, 181>; // n x 32 x bf16 vector value - -def nxv1f32 : VTScalableVec<1, f32, 182>; // n x 1 x f32 vector value -def nxv2f32 : VTScalableVec<2, f32, 183>; // n x 2 x f32 vector value -def nxv4f32 : VTScalableVec<4, f32, 184>; // n x 4 x f32 vector value -def nxv8f32 : VTScalableVec<8, f32, 185>; // n x 8 x f32 vector value -def nxv16f32 : VTScalableVec<16, f32, 186>; // n x 16 x f32 vector value - -def nxv1f64 : VTScalableVec<1, f64, 187>; // n x 1 x f64 vector value -def nxv2f64 : VTScalableVec<2, f64, 188>; // n x 2 x f64 vector value -def nxv4f64 : VTScalableVec<4, f64, 189>; // n x 4 x f64 vector value -def nxv8f64 : VTScalableVec<8, f64, 190>; // n x 8 x f64 vector value +def v4096i1 : VTVec<4096, i1, 30>; // 4096 x i1 vector value + +def v128i2 : VTVec<128, i2, 31>; // 128 x i2 vector value +def v256i2 : VTVec<256, i2, 32>; // 256 x i2 vector value + +def v64i4 : VTVec<64, i4, 33>; // 64 x i4 vector value +def v128i4 : VTVec<128, i4, 34>; // 128 x i4 vector value + +def v1i8 : VTVec<1, i8, 35>; // 1 x i8 vector value +def v2i8 : VTVec<2, i8, 36>; // 2 x i8 vector value +def v3i8 : VTVec<3, i8, 37>; // 3 x i8 vector value +def v4i8 : VTVec<4, i8, 38>; // 4 x i8 vector value +def v8i8 : VTVec<8, i8, 39>; // 8 x i8 vector value +def v16i8 : VTVec<16, i8, 40>; // 16 x i8 vector value +def v32i8 : VTVec<32, i8, 41>; // 32 x i8 vector value +def v64i8 : VTVec<64, i8, 42>; // 64 x i8 vector value +def v128i8 : VTVec<128, i8, 43>; // 128 x i8 vector value +def v256i8 : VTVec<256, i8, 44>; // 256 x i8 vector value +def v512i8 : VTVec<512, i8, 45>; // 512 x i8 vector value +def v1024i8 : VTVec<1024, i8, 46>; // 1024 x i8 vector value + +def v1i16 : VTVec<1, i16, 47>; // 1 x i16 vector value +def v2i16 : VTVec<2, i16, 48>; // 2 x i16 vector value +def v3i16 : VTVec<3, i16, 49>; // 3 x i16 vector value +def v4i16 : VTVec<4, i16, 50>; // 4 x i16 vector value +def v8i16 : VTVec<8, i16, 51>; // 8 x i16 vector value +def v16i16 : VTVec<16, i16, 52>; // 16 x i16 vector value +def v32i16 : VTVec<32, i16, 53>; // 32 x i16 vector value +def v64i16 : VTVec<64, i16, 54>; // 64 x i16 vector value +def v128i16 : VTVec<128, i16, 55>; // 128 x i16 vector value +def v256i16 : VTVec<256, i16, 56>; // 256 x i16 vector value +def v512i16 : VTVec<512, i16, 57>; // 512 x i16 vector value +def v4096i16 : VTVec<4096, i16, 58>; // 4096 x i16 vector value + +def v1i32 : VTVec<1, i32, 59>; // 1 x i32 vector value +def v2i32 : VTVec<2, i32, 60>; // 2 x i32 vector value +def v3i32 : VTVec<3, i32, 61>; // 3 x i32 vector value +def v4i32 : VTVec<4, i32, 62>; // 4 x i32 vector value +def v5i32 : VTVec<5, i32, 63>; // 5 x i32 vector value +def v6i32 : VTVec<6, i32, 64>; // 6 x f32 vector value +def v7i32 : VTVec<7, i32, 65>; // 7 x f32 vector value +def v8i32 : VTVec<8, i32, 66>; // 8 x i32 vector value +def v9i32 : VTVec<9, i32, 67>; // 9 x i32 vector value +def v10i32 : VTVec<10, i32, 68>; // 10 x i32 vector value +def v11i32 : VTVec<11, i32, 69>; // 11 x i32 vector value +def v12i32 : VTVec<12, i32, 70>; // 12 x i32 vector value +def v16i32 : VTVec<16, i32, 71>; // 16 x i32 vector value +def v32i32 : VTVec<32, i32, 72>; // 32 x i32 vector value +def v64i32 : VTVec<64, i32, 73>; // 64 x i32 vector value +def v128i32 : VTVec<128, i32, 74>; // 128 x i32 vector value +def v256i32 : VTVec<256, i32, 75>; // 256 x i32 vector value +def v512i32 : VTVec<512, i32, 76>; // 512 x i32 vector value +def v1024i32 : VTVec<1024, i32, 77>; // 1024 x i32 vector value +def v2048i32 : VTVec<2048, i32, 78>; // 2048 x i32 vector value + +def v1i64 : VTVec<1, i64, 79>; // 1 x i64 vector value +def v2i64 : VTVec<2, i64, 80>; // 2 x i64 vector value +def v3i64 : VTVec<3, i64, 81>; // 3 x i64 vector value +def v4i64 : VTVec<4, i64, 82>; // 4 x i64 vector value +def v8i64 : VTVec<8, i64, 83>; // 8 x i64 vector value +def v16i64 : VTVec<16, i64, 84>; // 16 x i64 vector value +def v32i64 : VTVec<32, i64, 85>; // 32 x i64 vector value +def v64i64 : VTVec<64, i64, 86>; // 64 x i64 vector value +def v128i64 : VTVec<128, i64, 87>; // 128 x i64 vector value +def v256i64 : VTVec<256, i64, 88>; // 256 x i64 vector value + +def v1i128 : VTVec<1, i128, 89>; // 1 x i128 vector value + +def v1f16 : VTVec<1, f16, 90>; // 1 x f16 vector value +def v2f16 : VTVec<2, f16, 91>; // 2 x f16 vector value +def v3f16 : VTVec<3, f16, 92>; // 3 x f16 vector value +def v4f16 : VTVec<4, f16, 93>; // 4 x f16 vector value +def v8f16 : VTVec<8, f16, 94>; // 8 x f16 vector value +def v16f16 : VTVec<16, f16, 95>; // 16 x f16 vector value +def v32f16 : VTVec<32, f16, 96>; // 32 x f16 vector value +def v64f16 : VTVec<64, f16, 97>; // 64 x f16 vector value +def v128f16 : VTVec<128, f16, 98>; // 128 x f16 vector value +def v256f16 : VTVec<256, f16, 99>; // 256 x f16 vector value +def v512f16 : VTVec<512, f16, 100>; // 512 x f16 vector value +def v4096f16 : VTVec<4096, f16, 101>; // 4096 x f16 vector value + +def v1bf16 : VTVec<1, bf16, 102>; // 1 x bf16 vector value +def v2bf16 : VTVec<2, bf16, 103>; // 2 x bf16 vector value +def v3bf16 : VTVec<3, bf16, 104>; // 3 x bf16 vector value +def v4bf16 : VTVec<4, bf16, 105>; // 4 x bf16 vector value +def v8bf16 : VTVec<8, bf16, 106>; // 8 x bf16 vector value +def v16bf16 : VTVec<16, bf16, 107>; // 16 x bf16 vector value +def v32bf16 : VTVec<32, bf16, 108>; // 32 x bf16 vector value +def v64bf16 : VTVec<64, bf16, 109>; // 64 x bf16 vector value +def v128bf16 : VTVec<128, bf16, 110>; // 128 x bf16 vector value +def v4096bf16 : VTVec<4096, bf16, 111>; // 4096 x bf16 vector value + +def v1f32 : VTVec<1, f32, 112>; // 1 x f32 vector value +def v2f32 : VTVec<2, f32, 113>; // 2 x f32 vector value +def v3f32 : VTVec<3, f32, 114>; // 3 x f32 vector value +def v4f32 : VTVec<4, f32, 115>; // 4 x f32 vector value +def v5f32 : VTVec<5, f32, 116>; // 5 x f32 vector value +def v6f32 : VTVec<6, f32, 117>; // 6 x f32 vector value +def v7f32 : VTVec<7, f32, 118>; // 7 x f32 vector value +def v8f32 : VTVec<8, f32, 119>; // 8 x f32 vector value +def v9f32 : VTVec<9, f32, 120>; // 9 x f32 vector value +def v10f32 : VTVec<10, f32, 121>; // 10 x f32 vector value +def v11f32 : VTVec<11, f32, 122>; // 11 x f32 vector value +def v12f32 : VTVec<12, f32, 123>; // 12 x f32 vector value +def v16f32 : VTVec<16, f32, 124>; // 16 x f32 vector value +def v32f32 : VTVec<32, f32, 125>; // 32 x f32 vector value +def v64f32 : VTVec<64, f32, 126>; // 64 x f32 vector value +def v128f32 : VTVec<128, f32, 127>; // 128 x f32 vector value +def v256f32 : VTVec<256, f32, 128>; // 256 x f32 vector value +def v512f32 : VTVec<512, f32, 129>; // 512 x f32 vector value +def v1024f32 : VTVec<1024, f32, 130>; // 1024 x f32 vector value +def v2048f32 : VTVec<2048, f32, 131>; // 2048 x f32 vector value + +def v1f64 : VTVec<1, f64, 132>; // 1 x f64 vector value +def v2f64 : VTVec<2, f64, 133>; // 2 x f64 vector value +def v3f64 : VTVec<3, f64, 134>; // 3 x f64 vector value +def v4f64 : VTVec<4, f64, 135>; // 4 x f64 vector value +def v8f64 : VTVec<8, f64, 136>; // 8 x f64 vector value +def v16f64 : VTVec<16, f64, 137>; // 16 x f64 vector value +def v32f64 : VTVec<32, f64, 138>; // 32 x f64 vector value +def v64f64 : VTVec<64, f64, 139>; // 64 x f64 vector value +def v128f64 : VTVec<128, f64, 140>; // 128 x f64 vector value +def v256f64 : VTVec<256, f64, 141>; // 256 x f64 vector value + +def nxv1i1 : VTScalableVec<1, i1, 142>; // n x 1 x i1 vector value +def nxv2i1 : VTScalableVec<2, i1, 143>; // n x 2 x i1 vector value +def nxv4i1 : VTScalableVec<4, i1, 144>; // n x 4 x i1 vector value +def nxv8i1 : VTScalableVec<8, i1, 145>; // n x 8 x i1 vector value +def nxv16i1 : VTScalableVec<16, i1, 146>; // n x 16 x i1 vector value +def nxv32i1 : VTScalableVec<32, i1, 147>; // n x 32 x i1 vector value +def nxv64i1 : VTScalableVec<64, i1, 148>; // n x 64 x i1 vector value + +def nxv1i8 : VTScalableVec<1, i8, 149>; // n x 1 x i8 vector value +def nxv2i8 : VTScalableVec<2, i8, 150>; // n x 2 x i8 vector value +def nxv4i8 : VTScalableVec<4, i8, 151>; // n x 4 x i8 vector value +def nxv8i8 : VTScalableVec<8, i8, 152>; // n x 8 x i8 vector value +def nxv16i8 : VTScalableVec<16, i8, 153>; // n x 16 x i8 vector value +def nxv32i8 : VTScalableVec<32, i8, 154>; // n x 32 x i8 vector value +def nxv64i8 : VTScalableVec<64, i8, 155>; // n x 64 x i8 vector value + +def nxv1i16 : VTScalableVec<1, i16, 156>; // n x 1 x i16 vector value +def nxv2i16 : VTScalableVec<2, i16, 157>; // n x 2 x i16 vector value +def nxv4i16 : VTScalableVec<4, i16, 158>; // n x 4 x i16 vector value +def nxv8i16 : VTScalableVec<8, i16, 159>; // n x 8 x i16 vector value +def nxv16i16 : VTScalableVec<16, i16, 160>; // n x 16 x i16 vector value +def nxv32i16 : VTScalableVec<32, i16, 161>; // n x 32 x i16 vector value + +def nxv1i32 : VTScalableVec<1, i32, 162>; // n x 1 x i32 vector value +def nxv2i32 : VTScalableVec<2, i32, 163>; // n x 2 x i32 vector value +def nxv4i32 : VTScalableVec<4, i32, 164>; // n x 4 x i32 vector value +def nxv8i32 : VTScalableVec<8, i32, 165>; // n x 8 x i32 vector value +def nxv16i32 : VTScalableVec<16, i32, 166>; // n x 16 x i32 vector value +def nxv32i32 : VTScalableVec<32, i32, 167>; // n x 32 x i32 vector value + +def nxv1i64 : VTScalableVec<1, i64, 168>; // n x 1 x i64 vector value +def nxv2i64 : VTScalableVec<2, i64, 169>; // n x 2 x i64 vector value +def nxv4i64 : VTScalableVec<4, i64, 170>; // n x 4 x i64 vector value +def nxv8i64 : VTScalableVec<8, i64, 171>; // n x 8 x i64 vector value +def nxv16i64 : VTScalableVec<16, i64, 172>; // n x 16 x i64 vector value +def nxv32i64 : VTScalableVec<32, i64, 173>; // n x 32 x i64 vector value + +def nxv1f16 : VTScalableVec<1, f16, 174>; // n x 1 x f16 vector value +def nxv2f16 : VTScalableVec<2, f16, 175>; // n x 2 x f16 vector value +def nxv4f16 : VTScalableVec<4, f16, 176>; // n x 4 x f16 vector value +def nxv8f16 : VTScalableVec<8, f16, 177>; // n x 8 x f16 vector value +def nxv16f16 : VTScalableVec<16, f16, 178>; // n x 16 x f16 vector value +def nxv32f16 : VTScalableVec<32, f16, 179>; // n x 32 x f16 vector value + +def nxv1bf16 : VTScalableVec<1, bf16, 180>; // n x 1 x bf16 vector value +def nxv2bf16 : VTScalableVec<2, bf16, 181>; // n x 2 x bf16 vector value +def nxv4bf16 : VTScalableVec<4, bf16, 182>; // n x 4 x bf16 vector value +def nxv8bf16 : VTScalableVec<8, bf16, 183>; // n x 8 x bf16 vector value +def nxv16bf16 : VTScalableVec<16, bf16, 184>; // n x 16 x bf16 vector value +def nxv32bf16 : VTScalableVec<32, bf16, 185>; // n x 32 x bf16 vector value + +def nxv1f32 : VTScalableVec<1, f32, 186>; // n x 1 x f32 vector value +def nxv2f32 : VTScalableVec<2, f32, 187>; // n x 2 x f32 vector value +def nxv4f32 : VTScalableVec<4, f32, 188>; // n x 4 x f32 vector value +def nxv8f32 : VTScalableVec<8, f32, 189>; // n x 8 x f32 vector value +def nxv16f32 : VTScalableVec<16, f32, 190>; // n x 16 x f32 vector value + +def nxv1f64 : VTScalableVec<1, f64, 191>; // n x 1 x f64 vector value +def nxv2f64 : VTScalableVec<2, f64, 192>; // n x 2 x f64 vector value +def nxv4f64 : VTScalableVec<4, f64, 193>; // n x 4 x f64 vector value +def nxv8f64 : VTScalableVec<8, f64, 194>; // n x 8 x f64 vector value // Sz = NF * MinNumElts * 8(bits) -def riscv_nxv1i8x2 : VTVecTup<16, 2, i8, 191>; // RISCV vector tuple(min_num_elts=1, nf=2) -def riscv_nxv1i8x3 : VTVecTup<24, 3, i8, 192>; // RISCV vector tuple(min_num_elts=1, nf=3) -def riscv_nxv1i8x4 : VTVecTup<32, 4, i8, 193>; // RISCV vector tuple(min_num_elts=1, nf=4) -def riscv_nxv1i8x5 : VTVecTup<40, 5, i8, 194>; // RISCV vector tuple(min_num_elts=1, nf=5) -def riscv_nxv1i8x6 : VTVecTup<48, 6, i8, 195>; // RISCV vector tuple(min_num_elts=1, nf=6) -def riscv_nxv1i8x7 : VTVecTup<56, 7, i8, 196>; // RISCV vector tuple(min_num_elts=1, nf=7) -def riscv_nxv1i8x8 : VTVecTup<64, 8, i8, 197>; // RISCV vector tuple(min_num_elts=1, nf=8) -def riscv_nxv2i8x2 : VTVecTup<32, 2, i8, 198>; // RISCV vector tuple(min_num_elts=2, nf=2) -def riscv_nxv2i8x3 : VTVecTup<48, 3, i8, 199>; // RISCV vector tuple(min_num_elts=2, nf=3) -def riscv_nxv2i8x4 : VTVecTup<64, 4, i8, 200>; // RISCV vector tuple(min_num_elts=2, nf=4) -def riscv_nxv2i8x5 : VTVecTup<80, 5, i8, 201>; // RISCV vector tuple(min_num_elts=2, nf=5) -def riscv_nxv2i8x6 : VTVecTup<96, 6, i8, 202>; // RISCV vector tuple(min_num_elts=2, nf=6) -def riscv_nxv2i8x7 : VTVecTup<112, 7, i8, 203>; // RISCV vector tuple(min_num_elts=2, nf=7) -def riscv_nxv2i8x8 : VTVecTup<128, 8, i8, 204>; // RISCV vector tuple(min_num_elts=2, nf=8) -def riscv_nxv4i8x2 : VTVecTup<64, 2, i8, 205>; // RISCV vector tuple(min_num_elts=4, nf=2) -def riscv_nxv4i8x3 : VTVecTup<96, 3, i8, 206>; // RISCV vector tuple(min_num_elts=4, nf=3) -def riscv_nxv4i8x4 : VTVecTup<128, 4, i8, 207>; // RISCV vector tuple(min_num_elts=4, nf=4) -def riscv_nxv4i8x5 : VTVecTup<160, 5, i8, 208>; // RISCV vector tuple(min_num_elts=4, nf=5) -def riscv_nxv4i8x6 : VTVecTup<192, 6, i8, 209>; // RISCV vector tuple(min_num_elts=4, nf=6) -def riscv_nxv4i8x7 : VTVecTup<224, 7, i8, 210>; // RISCV vector tuple(min_num_elts=4, nf=7) -def riscv_nxv4i8x8 : VTVecTup<256, 8, i8, 211>; // RISCV vector tuple(min_num_elts=4, nf=8) -def riscv_nxv8i8x2 : VTVecTup<128, 2, i8, 212>; // RISCV vector tuple(min_num_elts=8, nf=2) -def riscv_nxv8i8x3 : VTVecTup<192, 3, i8, 213>; // RISCV vector tuple(min_num_elts=8, nf=3) -def riscv_nxv8i8x4 : VTVecTup<256, 4, i8, 214>; // RISCV vector tuple(min_num_elts=8, nf=4) -def riscv_nxv8i8x5 : VTVecTup<320, 5, i8, 215>; // RISCV vector tuple(min_num_elts=8, nf=5) -def riscv_nxv8i8x6 : VTVecTup<384, 6, i8, 216>; // RISCV vector tuple(min_num_elts=8, nf=6) -def riscv_nxv8i8x7 : VTVecTup<448, 7, i8, 217>; // RISCV vector tuple(min_num_elts=8, nf=7) -def riscv_nxv8i8x8 : VTVecTup<512, 8, i8, 218>; // RISCV vector tuple(min_num_elts=8, nf=8) -def riscv_nxv16i8x2 : VTVecTup<256, 2, i8, 219>; // RISCV vector tuple(min_num_elts=16, nf=2) -def riscv_nxv16i8x3 : VTVecTup<384, 3, i8, 220>; // RISCV vector tuple(min_num_elts=16, nf=3) -def riscv_nxv16i8x4 : VTVecTup<512, 4, i8, 221>; // RISCV vector tuple(min_num_elts=16, nf=4) -def riscv_nxv32i8x2 : VTVecTup<512, 2, i8, 222>; // RISCV vector tuple(min_num_elts=32, nf=2) - -def x86mmx : ValueType<64, 223>; // X86 MMX value -def Glue : ValueType<0, 224>; // Pre-RA sched glue -def isVoid : ValueType<0, 225>; // Produces no value -def untyped : ValueType<8, 226> { // Produces an untyped value +def riscv_nxv1i8x2 : VTVecTup<16, 2, i8, 195>; // RISCV vector tuple(min_num_elts=1, nf=2) +def riscv_nxv1i8x3 : VTVecTup<24, 3, i8, 196>; // RISCV vector tuple(min_num_elts=1, nf=3) +def riscv_nxv1i8x4 : VTVecTup<32, 4, i8, 197>; // RISCV vector tuple(min_num_elts=1, nf=4) +def riscv_nxv1i8x5 : VTVecTup<40, 5, i8, 198>; // RISCV vector tuple(min_num_elts=1, nf=5) +def riscv_nxv1i8x6 : VTVecTup<48, 6, i8, 199>; // RISCV vector tuple(min_num_elts=1, nf=6) +def riscv_nxv1i8x7 : VTVecTup<56, 7, i8, 200>; // RISCV vector tuple(min_num_elts=1, nf=7) +def riscv_nxv1i8x8 : VTVecTup<64, 8, i8, 201>; // RISCV vector tuple(min_num_elts=1, nf=8) +def riscv_nxv2i8x2 : VTVecTup<32, 2, i8, 202>; // RISCV vector tuple(min_num_elts=2, nf=2) +def riscv_nxv2i8x3 : VTVecTup<48, 3, i8, 203>; // RISCV vector tuple(min_num_elts=2, nf=3) +def riscv_nxv2i8x4 : VTVecTup<64, 4, i8, 204>; // RISCV vector tuple(min_num_elts=2, nf=4) +def riscv_nxv2i8x5 : VTVecTup<80, 5, i8, 205>; // RISCV vector tuple(min_num_elts=2, nf=5) +def riscv_nxv2i8x6 : VTVecTup<96, 6, i8, 206>; // RISCV vector tuple(min_num_elts=2, nf=6) +def riscv_nxv2i8x7 : VTVecTup<112, 7, i8, 207>; // RISCV vector tuple(min_num_elts=2, nf=7) +def riscv_nxv2i8x8 : VTVecTup<128, 8, i8, 208>; // RISCV vector tuple(min_num_elts=2, nf=8) +def riscv_nxv4i8x2 : VTVecTup<64, 2, i8, 209>; // RISCV vector tuple(min_num_elts=4, nf=2) +def riscv_nxv4i8x3 : VTVecTup<96, 3, i8, 210>; // RISCV vector tuple(min_num_elts=4, nf=3) +def riscv_nxv4i8x4 : VTVecTup<128, 4, i8, 211>; // RISCV vector tuple(min_num_elts=4, nf=4) +def riscv_nxv4i8x5 : VTVecTup<160, 5, i8, 212>; // RISCV vector tuple(min_num_elts=4, nf=5) +def riscv_nxv4i8x6 : VTVecTup<192, 6, i8, 213>; // RISCV vector tuple(min_num_elts=4, nf=6) +def riscv_nxv4i8x7 : VTVecTup<224, 7, i8, 214>; // RISCV vector tuple(min_num_elts=4, nf=7) +def riscv_nxv4i8x8 : VTVecTup<256, 8, i8, 215>; // RISCV vector tuple(min_num_elts=4, nf=8) +def riscv_nxv8i8x2 : VTVecTup<128, 2, i8, 216>; // RISCV vector tuple(min_num_elts=8, nf=2) +def riscv_nxv8i8x3 : VTVecTup<192, 3, i8, 217>; // RISCV vector tuple(min_num_elts=8, nf=3) +def riscv_nxv8i8x4 : VTVecTup<256, 4, i8, 218>; // RISCV vector tuple(min_num_elts=8, nf=4) +def riscv_nxv8i8x5 : VTVecTup<320, 5, i8, 219>; // RISCV vector tuple(min_num_elts=8, nf=5) +def riscv_nxv8i8x6 : VTVecTup<384, 6, i8, 220>; // RISCV vector tuple(min_num_elts=8, nf=6) +def riscv_nxv8i8x7 : VTVecTup<448, 7, i8, 221>; // RISCV vector tuple(min_num_elts=8, nf=7) +def riscv_nxv8i8x8 : VTVecTup<512, 8, i8, 222>; // RISCV vector tuple(min_num_elts=8, nf=8) +def riscv_nxv16i8x2 : VTVecTup<256, 2, i8, 223>; // RISCV vector tuple(min_num_elts=16, nf=2) +def riscv_nxv16i8x3 : VTVecTup<384, 3, i8, 224>; // RISCV vector tuple(min_num_elts=16, nf=3) +def riscv_nxv16i8x4 : VTVecTup<512, 4, i8, 225>; // RISCV vector tuple(min_num_elts=16, nf=4) +def riscv_nxv32i8x2 : VTVecTup<512, 2, i8, 226>; // RISCV vector tuple(min_num_elts=32, nf=2) + +def x86mmx : ValueType<64, 227>; // X86 MMX value +def Glue : ValueType<0, 228>; // Pre-RA sched glue +def isVoid : ValueType<0, 229>; // Produces no value +def untyped : ValueType<8, 230> { // Produces an untyped value let LLVMName = "Untyped"; } -def funcref : ValueType<0, 227>; // WebAssembly's funcref type -def externref : ValueType<0, 228>; // WebAssembly's externref type -def exnref : ValueType<0, 229>; // WebAssembly's exnref type -def x86amx : ValueType<8192, 230>; // X86 AMX value -def i64x8 : ValueType<512, 231>; // 8 Consecutive GPRs (AArch64) +def funcref : ValueType<0, 231>; // WebAssembly's funcref type +def externref : ValueType<0, 232>; // WebAssembly's externref type +def exnref : ValueType<0, 233>; // WebAssembly's exnref type +def x86amx : ValueType<8192, 234>; // X86 AMX value +def i64x8 : ValueType<512, 235>; // 8 Consecutive GPRs (AArch64) def aarch64svcount - : ValueType<16, 232>; // AArch64 predicate-as-counter -def spirvbuiltin : ValueType<0, 233>; // SPIR-V's builtin type + : ValueType<16, 236>; // AArch64 predicate-as-counter +def spirvbuiltin : ValueType<0, 237>; // SPIR-V's builtin type // AMDGPU buffer fat pointer, buffer rsrc + offset, rewritten before MIR translation. // FIXME: Remove this and the getPointerType() override if MVT::i160 is added. -def amdgpuBufferFatPointer : ValueType<160, 234>; +def amdgpuBufferFatPointer : ValueType<160, 238>; // AMDGPU buffer strided pointer, buffer rsrc + index + offset, doesn't reach MIR. // FIXME: Remove this and the getPointerType() override if MVT::i82 is added. -def amdgpuBufferStridedPointer : ValueType<192, 235>; +def amdgpuBufferStridedPointer : ValueType<192, 239>; -def aarch64mfp8 : ValueType<8, 236>; // 8-bit value in FPR (AArch64) +def aarch64mfp8 : ValueType<8, 240>; // 8-bit value in FPR (AArch64) let isNormalValueType = false in { def token : ValueType<0, 504>; // TokenTy diff --git a/llvm/include/llvm/IR/Intrinsics.td b/llvm/include/llvm/IR/Intrinsics.td index a174ccbf61002..8d26961eebbf3 100644 --- a/llvm/include/llvm/IR/Intrinsics.td +++ b/llvm/include/llvm/IR/Intrinsics.td @@ -338,6 +338,8 @@ def IIT_V10 : IIT_Vec<10, 61>; def IIT_ONE_THIRD_VEC_ARG : IIT_Base<62>; def IIT_ONE_FIFTH_VEC_ARG : IIT_Base<63>; def IIT_ONE_SEVENTH_VEC_ARG : IIT_Base<64>; +def IIT_V2048: IIT_Vec<2048, 65>; +def IIT_V4096: IIT_Vec<4096, 66>; } defvar IIT_all_FixedTypes = !filter(iit, IIT_all, @@ -542,6 +544,7 @@ def llvm_v128i1_ty : LLVMType; // 128 x i1 def llvm_v256i1_ty : LLVMType; // 256 x i1 def llvm_v512i1_ty : LLVMType; // 512 x i1 def llvm_v1024i1_ty : LLVMType; //1024 x i1 +def llvm_v4096i1_ty : LLVMType; //4096 x i1 def llvm_v1i8_ty : LLVMType; // 1 x i8 def llvm_v2i8_ty : LLVMType; // 2 x i8 @@ -554,27 +557,29 @@ def llvm_v64i8_ty : LLVMType; // 64 x i8 def llvm_v128i8_ty : LLVMType; //128 x i8 def llvm_v256i8_ty : LLVMType; //256 x i8 -def llvm_v1i16_ty : LLVMType; // 1 x i16 -def llvm_v2i16_ty : LLVMType; // 2 x i16 -def llvm_v4i16_ty : LLVMType; // 4 x i16 -def llvm_v8i16_ty : LLVMType; // 8 x i16 -def llvm_v16i16_ty : LLVMType; // 16 x i16 -def llvm_v32i16_ty : LLVMType; // 32 x i16 -def llvm_v64i16_ty : LLVMType; // 64 x i16 -def llvm_v128i16_ty : LLVMType; //128 x i16 - -def llvm_v1i32_ty : LLVMType; // 1 x i32 -def llvm_v2i32_ty : LLVMType; // 2 x i32 -def llvm_v3i32_ty : LLVMType; // 3 x i32 -def llvm_v4i32_ty : LLVMType; // 4 x i32 -def llvm_v6i32_ty : LLVMType; // 6 x i32 -def llvm_v8i32_ty : LLVMType; // 8 x i32 -def llvm_v10i32_ty : LLVMType; // 10 x i32 -def llvm_v16i32_ty : LLVMType; // 16 x i32 -def llvm_v32i32_ty : LLVMType; // 32 x i32 -def llvm_v64i32_ty : LLVMType; // 64 x i32 -def llvm_v128i32_ty : LLVMType; //128 x i32 -def llvm_v256i32_ty : LLVMType; //256 x i32 +def llvm_v1i16_ty : LLVMType; // 1 x i16 +def llvm_v2i16_ty : LLVMType; // 2 x i16 +def llvm_v4i16_ty : LLVMType; // 4 x i16 +def llvm_v8i16_ty : LLVMType; // 8 x i16 +def llvm_v16i16_ty : LLVMType; // 16 x i16 +def llvm_v32i16_ty : LLVMType; // 32 x i16 +def llvm_v64i16_ty : LLVMType; // 64 x i16 +def llvm_v128i16_ty : LLVMType; // 128 x i16 +def llvm_v4096i16_ty : LLVMType; // 4096 x i16 + +def llvm_v1i32_ty : LLVMType; // 1 x i32 +def llvm_v2i32_ty : LLVMType; // 2 x i32 +def llvm_v3i32_ty : LLVMType; // 3 x i32 +def llvm_v4i32_ty : LLVMType; // 4 x i32 +def llvm_v6i32_ty : LLVMType; // 6 x i32 +def llvm_v8i32_ty : LLVMType; // 8 x i32 +def llvm_v10i32_ty : LLVMType; // 10 x i32 +def llvm_v16i32_ty : LLVMType; // 16 x i32 +def llvm_v32i32_ty : LLVMType; // 32 x i32 +def llvm_v64i32_ty : LLVMType; // 64 x i32 +def llvm_v128i32_ty : LLVMType; // 128 x i32 +def llvm_v256i32_ty : LLVMType; // 256 x i32 +def llvm_v2048i32_ty : LLVMType; // 2048 x i32 def llvm_v1i64_ty : LLVMType; // 1 x i64 def llvm_v2i64_ty : LLVMType; // 2 x i64 @@ -585,29 +590,32 @@ def llvm_v32i64_ty : LLVMType; // 32 x i64 def llvm_v1i128_ty : LLVMType; // 1 x i128 -def llvm_v2f16_ty : LLVMType; // 2 x half (__fp16) -def llvm_v4f16_ty : LLVMType; // 4 x half (__fp16) -def llvm_v8f16_ty : LLVMType; // 8 x half (__fp16) -def llvm_v16f16_ty : LLVMType; // 16 x half (__fp16) -def llvm_v32f16_ty : LLVMType; // 32 x half (__fp16) -def llvm_v2bf16_ty : LLVMType; // 2 x bfloat (__bf16) -def llvm_v4bf16_ty : LLVMType; // 4 x bfloat (__bf16) -def llvm_v8bf16_ty : LLVMType; // 8 x bfloat (__bf16) -def llvm_v16bf16_ty : LLVMType; // 16 x bfloat (__bf16) -def llvm_v32bf16_ty : LLVMType; // 32 x bfloat (__bf16) -def llvm_v1f32_ty : LLVMType; // 1 x float -def llvm_v2f32_ty : LLVMType; // 2 x float -def llvm_v3f32_ty : LLVMType; // 3 x float -def llvm_v4f32_ty : LLVMType; // 4 x float -def llvm_v8f32_ty : LLVMType; // 8 x float -def llvm_v10f32_ty : LLVMType; // 10 x float -def llvm_v16f32_ty : LLVMType; // 16 x float -def llvm_v32f32_ty : LLVMType; // 32 x float -def llvm_v1f64_ty : LLVMType; // 1 x double -def llvm_v2f64_ty : LLVMType; // 2 x double -def llvm_v4f64_ty : LLVMType; // 4 x double -def llvm_v8f64_ty : LLVMType; // 8 x double -def llvm_v16f64_ty : LLVMType; // 16 x double +def llvm_v2f16_ty : LLVMType; // 2 x half (__fp16) +def llvm_v4f16_ty : LLVMType; // 4 x half (__fp16) +def llvm_v8f16_ty : LLVMType; // 8 x half (__fp16) +def llvm_v16f16_ty : LLVMType; // 16 x half (__fp16) +def llvm_v32f16_ty : LLVMType; // 32 x half (__fp16) +def llvm_v4096f16_ty : LLVMType; // 4096 x half (__fp16) +def llvm_v2bf16_ty : LLVMType; // 2 x bfloat (__bf16) +def llvm_v4bf16_ty : LLVMType; // 4 x bfloat (__bf16) +def llvm_v8bf16_ty : LLVMType; // 8 x bfloat (__bf16) +def llvm_v16bf16_ty : LLVMType; // 16 x bfloat (__bf16) +def llvm_v32bf16_ty : LLVMType; // 32 x bfloat (__bf16) +def llvm_v4096bf16_ty : LLVMType; // 4096 x bfloat (__bf16) +def llvm_v1f32_ty : LLVMType; // 1 x float +def llvm_v2f32_ty : LLVMType; // 2 x float +def llvm_v3f32_ty : LLVMType; // 3 x float +def llvm_v4f32_ty : LLVMType; // 4 x float +def llvm_v8f32_ty : LLVMType; // 8 x float +def llvm_v10f32_ty : LLVMType; // 10 x float +def llvm_v16f32_ty : LLVMType; // 16 x float +def llvm_v32f32_ty : LLVMType; // 32 x float +def llvm_v2048f32_ty : LLVMType; // 2048 x float +def llvm_v1f64_ty : LLVMType; // 1 x double +def llvm_v2f64_ty : LLVMType; // 2 x double +def llvm_v4f64_ty : LLVMType; // 4 x double +def llvm_v8f64_ty : LLVMType; // 8 x double +def llvm_v16f64_ty : LLVMType; // 16 x double def llvm_vararg_ty : LLVMType; // this means vararg here diff --git a/llvm/lib/IR/Intrinsics.cpp b/llvm/lib/IR/Intrinsics.cpp index b3e8adb66ed6f..dabb5fe006b3c 100644 --- a/llvm/lib/IR/Intrinsics.cpp +++ b/llvm/lib/IR/Intrinsics.cpp @@ -328,6 +328,14 @@ DecodeIITType(unsigned &NextElt, ArrayRef Infos, OutputTable.push_back(IITDescriptor::getVector(1024, IsScalableVector)); DecodeIITType(NextElt, Infos, Info, OutputTable); return; + case IIT_V2048: + OutputTable.push_back(IITDescriptor::getVector(2048, IsScalableVector)); + DecodeIITType(NextElt, Infos, Info, OutputTable); + return; + case IIT_V4096: + OutputTable.push_back(IITDescriptor::getVector(4096, IsScalableVector)); + DecodeIITType(NextElt, Infos, Info, OutputTable); + return; case IIT_EXTERNREF: OutputTable.push_back(IITDescriptor::get(IITDescriptor::Pointer, 10)); return;