@@ -392,8 +392,8 @@ define void @test_masked_store_success_v8i64(<8 x i64> %x, ptr %ptr, <8 x i1> %m
392392; AVX-NEXT: vpshufd {{.*#+}} xmm2 = xmm2[2,3,2,3]
393393; AVX-NEXT: vpmovsxdq %xmm2, %xmm2
394394; AVX-NEXT: vinsertf128 $1, %xmm2, %ymm4, %ymm2
395- ; AVX-NEXT: vmaskmovpd %ymm1, %ymm3, 32(%rdi)
396395; AVX-NEXT: vmaskmovpd %ymm0, %ymm2, (%rdi)
396+ ; AVX-NEXT: vmaskmovpd %ymm1, %ymm3, 32(%rdi)
397397; AVX-NEXT: vzeroupper
398398; AVX-NEXT: retq
399399;
@@ -405,8 +405,8 @@ define void @test_masked_store_success_v8i64(<8 x i64> %x, ptr %ptr, <8 x i1> %m
405405; AVX2-NEXT: vpmovzxwd {{.*#+}} xmm2 = xmm2[0],zero,xmm2[1],zero,xmm2[2],zero,xmm2[3],zero
406406; AVX2-NEXT: vpslld $31, %xmm2, %xmm2
407407; AVX2-NEXT: vpmovsxdq %xmm2, %ymm2
408- ; AVX2-NEXT: vpmaskmovq %ymm1, %ymm3, 32(%rdi)
409408; AVX2-NEXT: vpmaskmovq %ymm0, %ymm2, (%rdi)
409+ ; AVX2-NEXT: vpmaskmovq %ymm1, %ymm3, 32(%rdi)
410410; AVX2-NEXT: vzeroupper
411411; AVX2-NEXT: retq
412412;
@@ -502,8 +502,8 @@ define void @test_masked_store_success_v8f64(<8 x double> %x, ptr %ptr, <8 x i1>
502502; AVX-NEXT: vpshufd {{.*#+}} xmm2 = xmm2[2,3,2,3]
503503; AVX-NEXT: vpmovsxdq %xmm2, %xmm2
504504; AVX-NEXT: vinsertf128 $1, %xmm2, %ymm4, %ymm2
505- ; AVX-NEXT: vmaskmovpd %ymm1, %ymm3, 32(%rdi)
506505; AVX-NEXT: vmaskmovpd %ymm0, %ymm2, (%rdi)
506+ ; AVX-NEXT: vmaskmovpd %ymm1, %ymm3, 32(%rdi)
507507; AVX-NEXT: vzeroupper
508508; AVX-NEXT: retq
509509;
@@ -515,8 +515,8 @@ define void @test_masked_store_success_v8f64(<8 x double> %x, ptr %ptr, <8 x i1>
515515; AVX2-NEXT: vpmovzxwd {{.*#+}} xmm2 = xmm2[0],zero,xmm2[1],zero,xmm2[2],zero,xmm2[3],zero
516516; AVX2-NEXT: vpslld $31, %xmm2, %xmm2
517517; AVX2-NEXT: vpmovsxdq %xmm2, %ymm2
518- ; AVX2-NEXT: vmaskmovpd %ymm1, %ymm3, 32(%rdi)
519518; AVX2-NEXT: vmaskmovpd %ymm0, %ymm2, (%rdi)
519+ ; AVX2-NEXT: vmaskmovpd %ymm1, %ymm3, 32(%rdi)
520520; AVX2-NEXT: vzeroupper
521521; AVX2-NEXT: retq
522522;
@@ -1506,8 +1506,8 @@ define void @test_masked_store_unaligned_v8i64(<8 x i64> %data, ptr %ptr, <8 x i
15061506; AVX-NEXT: vpshufd {{.*#+}} xmm2 = xmm2[2,3,2,3]
15071507; AVX-NEXT: vpmovsxdq %xmm2, %xmm2
15081508; AVX-NEXT: vinsertf128 $1, %xmm2, %ymm4, %ymm2
1509- ; AVX-NEXT: vmaskmovpd %ymm1, %ymm3, 33(%rdi)
15101509; AVX-NEXT: vmaskmovpd %ymm0, %ymm2, 1(%rdi)
1510+ ; AVX-NEXT: vmaskmovpd %ymm1, %ymm3, 33(%rdi)
15111511; AVX-NEXT: vzeroupper
15121512; AVX-NEXT: retq
15131513;
@@ -1519,8 +1519,8 @@ define void @test_masked_store_unaligned_v8i64(<8 x i64> %data, ptr %ptr, <8 x i
15191519; AVX2-NEXT: vpmovzxwd {{.*#+}} xmm2 = xmm2[0],zero,xmm2[1],zero,xmm2[2],zero,xmm2[3],zero
15201520; AVX2-NEXT: vpslld $31, %xmm2, %xmm2
15211521; AVX2-NEXT: vpmovsxdq %xmm2, %ymm2
1522- ; AVX2-NEXT: vpmaskmovq %ymm1, %ymm3, 33(%rdi)
15231522; AVX2-NEXT: vpmaskmovq %ymm0, %ymm2, 1(%rdi)
1523+ ; AVX2-NEXT: vpmaskmovq %ymm1, %ymm3, 33(%rdi)
15241524; AVX2-NEXT: vzeroupper
15251525; AVX2-NEXT: retq
15261526;
0 commit comments