@@ -25,8 +25,8 @@ define void @vselect_vv_v6i32(ptr %a, ptr %b, ptr %cc, ptr %z) {
2525; RV32-NEXT: vslide1down.vx v10, v10, a1
2626; RV32-NEXT: vslide1down.vx v10, v10, a4
2727; RV32-NEXT: vslide1down.vx v10, v10, a2
28- ; RV32-NEXT: vslidedown.vi v10, v10, 2
2928; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
29+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
3030; RV32-NEXT: vand.vi v10, v10, 1
3131; RV32-NEXT: vmsne.vi v0, v10, 0
3232; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
@@ -56,8 +56,8 @@ define void @vselect_vv_v6i32(ptr %a, ptr %b, ptr %cc, ptr %z) {
5656; RV64-NEXT: vslide1down.vx v10, v10, a1
5757; RV64-NEXT: vslide1down.vx v10, v10, a4
5858; RV64-NEXT: vslide1down.vx v10, v10, a2
59- ; RV64-NEXT: vslidedown.vi v10, v10, 2
6059; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
60+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
6161; RV64-NEXT: vand.vi v10, v10, 1
6262; RV64-NEXT: vmsne.vi v0, v10, 0
6363; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
@@ -95,8 +95,8 @@ define void @vselect_vx_v6i32(i32 %a, ptr %b, ptr %cc, ptr %z) {
9595; RV32-NEXT: vslide1down.vx v10, v10, a1
9696; RV32-NEXT: vslide1down.vx v10, v10, a4
9797; RV32-NEXT: vslide1down.vx v10, v10, a2
98- ; RV32-NEXT: vslidedown.vi v10, v10, 2
9998; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
99+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
100100; RV32-NEXT: vand.vi v10, v10, 1
101101; RV32-NEXT: vmsne.vi v0, v10, 0
102102; RV32-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -126,8 +126,8 @@ define void @vselect_vx_v6i32(i32 %a, ptr %b, ptr %cc, ptr %z) {
126126; RV64-NEXT: vslide1down.vx v10, v10, a1
127127; RV64-NEXT: vslide1down.vx v10, v10, a4
128128; RV64-NEXT: vslide1down.vx v10, v10, a2
129- ; RV64-NEXT: vslidedown.vi v10, v10, 2
130129; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
130+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
131131; RV64-NEXT: vand.vi v10, v10, 1
132132; RV64-NEXT: vmsne.vi v0, v10, 0
133133; RV64-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -166,8 +166,8 @@ define void @vselect_vi_v6i32(ptr %b, ptr %cc, ptr %z) {
166166; RV32-NEXT: vslide1down.vx v10, v10, a0
167167; RV32-NEXT: vslide1down.vx v10, v10, a3
168168; RV32-NEXT: vslide1down.vx v10, v10, a1
169- ; RV32-NEXT: vslidedown.vi v10, v10, 2
170169; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
170+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
171171; RV32-NEXT: vand.vi v10, v10, 1
172172; RV32-NEXT: vmsne.vi v0, v10, 0
173173; RV32-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -197,8 +197,8 @@ define void @vselect_vi_v6i32(ptr %b, ptr %cc, ptr %z) {
197197; RV64-NEXT: vslide1down.vx v10, v10, a0
198198; RV64-NEXT: vslide1down.vx v10, v10, a3
199199; RV64-NEXT: vslide1down.vx v10, v10, a1
200- ; RV64-NEXT: vslidedown.vi v10, v10, 2
201200; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
201+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
202202; RV64-NEXT: vand.vi v10, v10, 1
203203; RV64-NEXT: vmsne.vi v0, v10, 0
204204; RV64-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -236,8 +236,8 @@ define void @vselect_vv_v6f32(ptr %a, ptr %b, ptr %cc, ptr %z) {
236236; RV32-NEXT: vslide1down.vx v10, v10, a1
237237; RV32-NEXT: vslide1down.vx v10, v10, a4
238238; RV32-NEXT: vslide1down.vx v10, v10, a2
239- ; RV32-NEXT: vslidedown.vi v10, v10, 2
240239; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
240+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
241241; RV32-NEXT: vand.vi v10, v10, 1
242242; RV32-NEXT: vmsne.vi v0, v10, 0
243243; RV32-NEXT: vsetvli zero, zero, e32, m2, tu, mu
@@ -267,8 +267,8 @@ define void @vselect_vv_v6f32(ptr %a, ptr %b, ptr %cc, ptr %z) {
267267; RV64-NEXT: vslide1down.vx v10, v10, a1
268268; RV64-NEXT: vslide1down.vx v10, v10, a4
269269; RV64-NEXT: vslide1down.vx v10, v10, a2
270- ; RV64-NEXT: vslidedown.vi v10, v10, 2
271270; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
271+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
272272; RV64-NEXT: vand.vi v10, v10, 1
273273; RV64-NEXT: vmsne.vi v0, v10, 0
274274; RV64-NEXT: vsetvli zero, zero, e32, m2, tu, mu
@@ -306,8 +306,8 @@ define void @vselect_vx_v6f32(float %a, ptr %b, ptr %cc, ptr %z) {
306306; RV32-NEXT: vslide1down.vx v10, v10, a0
307307; RV32-NEXT: vslide1down.vx v10, v10, a3
308308; RV32-NEXT: vslide1down.vx v10, v10, a1
309- ; RV32-NEXT: vslidedown.vi v10, v10, 2
310309; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
310+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
311311; RV32-NEXT: vand.vi v10, v10, 1
312312; RV32-NEXT: vmsne.vi v0, v10, 0
313313; RV32-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -337,8 +337,8 @@ define void @vselect_vx_v6f32(float %a, ptr %b, ptr %cc, ptr %z) {
337337; RV64-NEXT: vslide1down.vx v10, v10, a0
338338; RV64-NEXT: vslide1down.vx v10, v10, a3
339339; RV64-NEXT: vslide1down.vx v10, v10, a1
340- ; RV64-NEXT: vslidedown.vi v10, v10, 2
341340; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
341+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
342342; RV64-NEXT: vand.vi v10, v10, 1
343343; RV64-NEXT: vmsne.vi v0, v10, 0
344344; RV64-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -377,8 +377,8 @@ define void @vselect_vfpzero_v6f32(ptr %b, ptr %cc, ptr %z) {
377377; RV32-NEXT: vslide1down.vx v10, v10, a0
378378; RV32-NEXT: vslide1down.vx v10, v10, a3
379379; RV32-NEXT: vslide1down.vx v10, v10, a1
380- ; RV32-NEXT: vslidedown.vi v10, v10, 2
381380; RV32-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
381+ ; RV32-NEXT: vslidedown.vi v10, v10, 2
382382; RV32-NEXT: vand.vi v10, v10, 1
383383; RV32-NEXT: vmsne.vi v0, v10, 0
384384; RV32-NEXT: vsetvli zero, zero, e32, m2, ta, ma
@@ -408,8 +408,8 @@ define void @vselect_vfpzero_v6f32(ptr %b, ptr %cc, ptr %z) {
408408; RV64-NEXT: vslide1down.vx v10, v10, a0
409409; RV64-NEXT: vslide1down.vx v10, v10, a3
410410; RV64-NEXT: vslide1down.vx v10, v10, a1
411- ; RV64-NEXT: vslidedown.vi v10, v10, 2
412411; RV64-NEXT: vsetivli zero, 6, e8, mf2, ta, ma
412+ ; RV64-NEXT: vslidedown.vi v10, v10, 2
413413; RV64-NEXT: vand.vi v10, v10, 1
414414; RV64-NEXT: vmsne.vi v0, v10, 0
415415; RV64-NEXT: vsetvli zero, zero, e32, m2, ta, ma
0 commit comments