@@ -654,3 +654,113 @@ define <64 x i8> @ext_i64_64i8(i64 %a0) {
654
654
%2 = sext <64 x i1 > %1 to <64 x i8 >
655
655
ret <64 x i8 > %2
656
656
}
657
+
658
+ define <8 x i32 > @PR157382 (ptr %p0 , ptr %p1 , ptr %p2 ) {
659
+ ; SSE2-SSSE3-LABEL: PR157382:
660
+ ; SSE2-SSSE3: # %bb.0:
661
+ ; SSE2-SSSE3-NEXT: movdqu (%rdi), %xmm3
662
+ ; SSE2-SSSE3-NEXT: movdqu 16(%rdi), %xmm2
663
+ ; SSE2-SSSE3-NEXT: movdqu (%rsi), %xmm0
664
+ ; SSE2-SSSE3-NEXT: movdqu 16(%rsi), %xmm4
665
+ ; SSE2-SSSE3-NEXT: movq {{.*#+}} xmm1 = mem[0],zero
666
+ ; SSE2-SSSE3-NEXT: pxor %xmm5, %xmm5
667
+ ; SSE2-SSSE3-NEXT: pxor %xmm6, %xmm6
668
+ ; SSE2-SSSE3-NEXT: pcmpgtd %xmm3, %xmm6
669
+ ; SSE2-SSSE3-NEXT: pcmpeqd %xmm7, %xmm7
670
+ ; SSE2-SSSE3-NEXT: pxor %xmm7, %xmm6
671
+ ; SSE2-SSSE3-NEXT: pxor %xmm8, %xmm8
672
+ ; SSE2-SSSE3-NEXT: pcmpgtd %xmm2, %xmm8
673
+ ; SSE2-SSSE3-NEXT: pxor %xmm7, %xmm8
674
+ ; SSE2-SSSE3-NEXT: pcmpgtd %xmm5, %xmm0
675
+ ; SSE2-SSSE3-NEXT: por %xmm6, %xmm0
676
+ ; SSE2-SSSE3-NEXT: pcmpgtd %xmm5, %xmm4
677
+ ; SSE2-SSSE3-NEXT: por %xmm8, %xmm4
678
+ ; SSE2-SSSE3-NEXT: packssdw %xmm4, %xmm0
679
+ ; SSE2-SSSE3-NEXT: punpcklbw {{.*#+}} xmm1 = xmm1[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
680
+ ; SSE2-SSSE3-NEXT: pcmpeqb %xmm5, %xmm1
681
+ ; SSE2-SSSE3-NEXT: pxor %xmm7, %xmm1
682
+ ; SSE2-SSSE3-NEXT: por %xmm0, %xmm1
683
+ ; SSE2-SSSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],xmm1[3]
684
+ ; SSE2-SSSE3-NEXT: psrad $16, %xmm0
685
+ ; SSE2-SSSE3-NEXT: pand %xmm3, %xmm0
686
+ ; SSE2-SSSE3-NEXT: punpckhwd {{.*#+}} xmm1 = xmm1[4,4,5,5,6,6,7,7]
687
+ ; SSE2-SSSE3-NEXT: pslld $31, %xmm1
688
+ ; SSE2-SSSE3-NEXT: psrad $31, %xmm1
689
+ ; SSE2-SSSE3-NEXT: pand %xmm2, %xmm1
690
+ ; SSE2-SSSE3-NEXT: retq
691
+ ;
692
+ ; AVX1-LABEL: PR157382:
693
+ ; AVX1: # %bb.0:
694
+ ; AVX1-NEXT: vmovdqu (%rdi), %ymm0
695
+ ; AVX1-NEXT: vmovq {{.*#+}} xmm1 = mem[0],zero
696
+ ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
697
+ ; AVX1-NEXT: vpcmpgtd %xmm0, %xmm2, %xmm3
698
+ ; AVX1-NEXT: vpcmpeqd %xmm4, %xmm4, %xmm4
699
+ ; AVX1-NEXT: vpxor %xmm4, %xmm3, %xmm3
700
+ ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5
701
+ ; AVX1-NEXT: vpcmpgtd %xmm5, %xmm2, %xmm5
702
+ ; AVX1-NEXT: vpxor %xmm4, %xmm5, %xmm5
703
+ ; AVX1-NEXT: vmovdqu (%rsi), %xmm6
704
+ ; AVX1-NEXT: vmovdqu 16(%rsi), %xmm7
705
+ ; AVX1-NEXT: vpcmpgtd %xmm2, %xmm6, %xmm6
706
+ ; AVX1-NEXT: vpor %xmm6, %xmm3, %xmm3
707
+ ; AVX1-NEXT: vpcmpgtd %xmm2, %xmm7, %xmm6
708
+ ; AVX1-NEXT: vpor %xmm6, %xmm5, %xmm5
709
+ ; AVX1-NEXT: vpackssdw %xmm5, %xmm3, %xmm3
710
+ ; AVX1-NEXT: vpcmpeqb %xmm2, %xmm1, %xmm1
711
+ ; AVX1-NEXT: vpxor %xmm4, %xmm1, %xmm1
712
+ ; AVX1-NEXT: vpmovsxbw %xmm1, %xmm1
713
+ ; AVX1-NEXT: vpor %xmm1, %xmm3, %xmm1
714
+ ; AVX1-NEXT: vpmovsxwd %xmm1, %xmm2
715
+ ; AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[2,3,2,3]
716
+ ; AVX1-NEXT: vpmovsxwd %xmm1, %xmm1
717
+ ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm2, %ymm1
718
+ ; AVX1-NEXT: vandps %ymm0, %ymm1, %ymm0
719
+ ; AVX1-NEXT: retq
720
+ ;
721
+ ; AVX2-LABEL: PR157382:
722
+ ; AVX2: # %bb.0:
723
+ ; AVX2-NEXT: vmovdqu (%rdi), %ymm0
724
+ ; AVX2-NEXT: vmovdqu (%rsi), %ymm1
725
+ ; AVX2-NEXT: vmovq {{.*#+}} xmm2 = mem[0],zero
726
+ ; AVX2-NEXT: vpxor %xmm3, %xmm3, %xmm3
727
+ ; AVX2-NEXT: vpcmpgtd %ymm0, %ymm3, %ymm4
728
+ ; AVX2-NEXT: vpcmpeqd %ymm5, %ymm5, %ymm5
729
+ ; AVX2-NEXT: vpxor %ymm5, %ymm4, %ymm4
730
+ ; AVX2-NEXT: vpcmpgtd %ymm3, %ymm1, %ymm1
731
+ ; AVX2-NEXT: vpor %ymm1, %ymm4, %ymm1
732
+ ; AVX2-NEXT: vpxor %xmm3, %xmm3, %xmm3
733
+ ; AVX2-NEXT: vpcmpeqb %xmm3, %xmm2, %xmm2
734
+ ; AVX2-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
735
+ ; AVX2-NEXT: vpxor %xmm3, %xmm2, %xmm2
736
+ ; AVX2-NEXT: vpmovsxbw %xmm2, %xmm2
737
+ ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm3
738
+ ; AVX2-NEXT: vpackssdw %xmm3, %xmm1, %xmm1
739
+ ; AVX2-NEXT: vpor %xmm2, %xmm1, %xmm1
740
+ ; AVX2-NEXT: vpmovsxwd %xmm1, %ymm1
741
+ ; AVX2-NEXT: vpand %ymm0, %ymm1, %ymm0
742
+ ; AVX2-NEXT: retq
743
+ ;
744
+ ; AVX512-LABEL: PR157382:
745
+ ; AVX512: # %bb.0:
746
+ ; AVX512-NEXT: vmovdqu (%rdi), %ymm0
747
+ ; AVX512-NEXT: vmovq {{.*#+}} xmm1 = mem[0],zero
748
+ ; AVX512-NEXT: vpxor %xmm2, %xmm2, %xmm2
749
+ ; AVX512-NEXT: vpcmpnltd %ymm2, %ymm0, %k0
750
+ ; AVX512-NEXT: vpcmpltd (%rsi), %ymm2, %k1
751
+ ; AVX512-NEXT: vptestmb %xmm1, %xmm1, %k2
752
+ ; AVX512-NEXT: korw %k1, %k0, %k0
753
+ ; AVX512-NEXT: korw %k2, %k0, %k1
754
+ ; AVX512-NEXT: vmovdqa32 %ymm0, %ymm0 {%k1} {z}
755
+ ; AVX512-NEXT: retq
756
+ %ld0 = load <8 x i32 >, ptr %p0 , align 1
757
+ %ld1 = load <8 x i32 >, ptr %p1 , align 1
758
+ %ld2 = load <8 x i8 >, ptr %p2 , align 1
759
+ %cmp0 = icmp sge <8 x i32 > %ld0 , zeroinitializer
760
+ %cmp1 = icmp sgt <8 x i32 > %ld1 , zeroinitializer
761
+ %cmp2 = icmp ne <8 x i8 > %ld2 , zeroinitializer
762
+ %cmp01 = or <8 x i1 > %cmp0 , %cmp1
763
+ %cmp012 = or <8 x i1 > %cmp01 , %cmp2
764
+ %res = select <8 x i1 > %cmp012 , <8 x i32 > %ld0 , <8 x i32 > zeroinitializer
765
+ ret <8 x i32 > %res
766
+ }
0 commit comments