@@ -289,31 +289,31 @@ define void @truncstore_v8i64_v8i32(<8 x i64> %x, ptr %p, <8 x i32> %mask) {
289289; AVX1-NEXT: vpcmpeqd %xmm4, %xmm2, %xmm2
290290; AVX1-NEXT: vpxor %xmm5, %xmm2, %xmm2
291291; AVX1-NEXT: vinsertf128 $1, %xmm3, %ymm2, %ymm2
292- ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3
293- ; AVX1-NEXT: vmovddup {{.*#+}} xmm4 = [2147483647,2147483647]
294- ; AVX1-NEXT: # xmm4 = mem[0,0]
292+ ; AVX1-NEXT: vmovddup {{.*#+}} xmm3 = [2147483647,2147483647]
293+ ; AVX1-NEXT: # xmm3 = mem[0,0]
294+ ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm3, %xmm4
295+ ; AVX1-NEXT: vblendvpd %xmm4, %xmm1, %xmm3, %xmm4
296+ ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm1
297+ ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm3, %xmm5
298+ ; AVX1-NEXT: vblendvpd %xmm5, %xmm1, %xmm3, %xmm1
299+ ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm3, %xmm5
300+ ; AVX1-NEXT: vblendvpd %xmm5, %xmm0, %xmm3, %xmm5
301+ ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm0
302+ ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm3, %xmm6
303+ ; AVX1-NEXT: vblendvpd %xmm6, %xmm0, %xmm3, %xmm0
304+ ; AVX1-NEXT: vmovddup {{.*#+}} xmm3 = [18446744071562067968,18446744071562067968]
305+ ; AVX1-NEXT: # xmm3 = mem[0,0]
306+ ; AVX1-NEXT: vpcmpgtq %xmm3, %xmm0, %xmm6
307+ ; AVX1-NEXT: vblendvpd %xmm6, %xmm0, %xmm3, %xmm0
308+ ; AVX1-NEXT: vpcmpgtq %xmm3, %xmm5, %xmm6
309+ ; AVX1-NEXT: vblendvpd %xmm6, %xmm5, %xmm3, %xmm5
310+ ; AVX1-NEXT: vshufps {{.*#+}} xmm0 = xmm5[0,2],xmm0[0,2]
311+ ; AVX1-NEXT: vpcmpgtq %xmm3, %xmm1, %xmm5
312+ ; AVX1-NEXT: vblendvpd %xmm5, %xmm1, %xmm3, %xmm1
295313; AVX1-NEXT: vpcmpgtq %xmm3, %xmm4, %xmm5
296- ; AVX1-NEXT: vblendvpd %xmm5, %xmm3, %xmm4, %xmm3
297- ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm5
298- ; AVX1-NEXT: vpcmpgtq %xmm5, %xmm4, %xmm6
299- ; AVX1-NEXT: vblendvpd %xmm6, %xmm5, %xmm4, %xmm5
300- ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm4, %xmm6
301- ; AVX1-NEXT: vblendvpd %xmm6, %xmm0, %xmm4, %xmm0
302- ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm4, %xmm6
303- ; AVX1-NEXT: vblendvpd %xmm6, %xmm1, %xmm4, %xmm1
304- ; AVX1-NEXT: vmovddup {{.*#+}} xmm4 = [18446744071562067968,18446744071562067968]
305- ; AVX1-NEXT: # xmm4 = mem[0,0]
306- ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm1, %xmm6
307- ; AVX1-NEXT: vblendvpd %xmm6, %xmm1, %xmm4, %xmm1
308- ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm0, %xmm6
309- ; AVX1-NEXT: vblendvpd %xmm6, %xmm0, %xmm4, %xmm0
310- ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm6
311- ; AVX1-NEXT: vblendvpd %xmm6, %xmm5, %xmm4, %xmm5
312- ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm3, %xmm6
313- ; AVX1-NEXT: vblendvpd %xmm6, %xmm3, %xmm4, %xmm3
314- ; AVX1-NEXT: vinsertf128 $1, %xmm5, %ymm3, %ymm3
314+ ; AVX1-NEXT: vblendvpd %xmm5, %xmm4, %xmm3, %xmm3
315+ ; AVX1-NEXT: vshufps {{.*#+}} xmm1 = xmm3[0,2],xmm1[0,2]
315316; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm0, %ymm0
316- ; AVX1-NEXT: vshufps {{.*#+}} ymm0 = ymm0[0,2],ymm3[0,2],ymm0[4,6],ymm3[4,6]
317317; AVX1-NEXT: vmaskmovps %ymm0, %ymm2, (%rdi)
318318; AVX1-NEXT: vzeroupper
319319; AVX1-NEXT: retq
0 commit comments