@@ -654,3 +654,113 @@ define <64 x i8> @ext_i64_64i8(i64 %a0) {
654654 %2 = sext <64 x i1 > %1 to <64 x i8 >
655655 ret <64 x i8 > %2
656656}
657+
658+ define <8 x i32 > @PR157382 (ptr %p0 , ptr %p1 , ptr %p2 ) {
659+ ; SSE2-SSSE3-LABEL: PR157382:
660+ ; SSE2-SSSE3: # %bb.0:
661+ ; SSE2-SSSE3-NEXT: movdqu (%rdi), %xmm3
662+ ; SSE2-SSSE3-NEXT: movdqu 16(%rdi), %xmm2
663+ ; SSE2-SSSE3-NEXT: movdqu (%rsi), %xmm0
664+ ; SSE2-SSSE3-NEXT: movdqu 16(%rsi), %xmm4
665+ ; SSE2-SSSE3-NEXT: movq {{.*#+}} xmm1 = mem[0],zero
666+ ; SSE2-SSSE3-NEXT: pxor %xmm5, %xmm5
667+ ; SSE2-SSSE3-NEXT: pxor %xmm6, %xmm6
668+ ; SSE2-SSSE3-NEXT: pcmpgtd %xmm3, %xmm6
669+ ; SSE2-SSSE3-NEXT: pcmpeqd %xmm7, %xmm7
670+ ; SSE2-SSSE3-NEXT: pxor %xmm7, %xmm6
671+ ; SSE2-SSSE3-NEXT: pxor %xmm8, %xmm8
672+ ; SSE2-SSSE3-NEXT: pcmpgtd %xmm2, %xmm8
673+ ; SSE2-SSSE3-NEXT: pxor %xmm7, %xmm8
674+ ; SSE2-SSSE3-NEXT: pcmpgtd %xmm5, %xmm0
675+ ; SSE2-SSSE3-NEXT: por %xmm6, %xmm0
676+ ; SSE2-SSSE3-NEXT: pcmpgtd %xmm5, %xmm4
677+ ; SSE2-SSSE3-NEXT: por %xmm8, %xmm4
678+ ; SSE2-SSSE3-NEXT: packssdw %xmm4, %xmm0
679+ ; SSE2-SSSE3-NEXT: punpcklbw {{.*#+}} xmm1 = xmm1[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
680+ ; SSE2-SSSE3-NEXT: pcmpeqb %xmm5, %xmm1
681+ ; SSE2-SSSE3-NEXT: pxor %xmm7, %xmm1
682+ ; SSE2-SSSE3-NEXT: por %xmm0, %xmm1
683+ ; SSE2-SSSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],xmm1[3]
684+ ; SSE2-SSSE3-NEXT: psrad $16, %xmm0
685+ ; SSE2-SSSE3-NEXT: pand %xmm3, %xmm0
686+ ; SSE2-SSSE3-NEXT: punpckhwd {{.*#+}} xmm1 = xmm1[4,4,5,5,6,6,7,7]
687+ ; SSE2-SSSE3-NEXT: pslld $31, %xmm1
688+ ; SSE2-SSSE3-NEXT: psrad $31, %xmm1
689+ ; SSE2-SSSE3-NEXT: pand %xmm2, %xmm1
690+ ; SSE2-SSSE3-NEXT: retq
691+ ;
692+ ; AVX1-LABEL: PR157382:
693+ ; AVX1: # %bb.0:
694+ ; AVX1-NEXT: vmovdqu (%rdi), %ymm0
695+ ; AVX1-NEXT: vmovq {{.*#+}} xmm1 = mem[0],zero
696+ ; AVX1-NEXT: vpxor %xmm2, %xmm2, %xmm2
697+ ; AVX1-NEXT: vpcmpgtd %xmm0, %xmm2, %xmm3
698+ ; AVX1-NEXT: vpcmpeqd %xmm4, %xmm4, %xmm4
699+ ; AVX1-NEXT: vpxor %xmm4, %xmm3, %xmm3
700+ ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5
701+ ; AVX1-NEXT: vpcmpgtd %xmm5, %xmm2, %xmm5
702+ ; AVX1-NEXT: vpxor %xmm4, %xmm5, %xmm5
703+ ; AVX1-NEXT: vmovdqu (%rsi), %xmm6
704+ ; AVX1-NEXT: vmovdqu 16(%rsi), %xmm7
705+ ; AVX1-NEXT: vpcmpgtd %xmm2, %xmm6, %xmm6
706+ ; AVX1-NEXT: vpor %xmm6, %xmm3, %xmm3
707+ ; AVX1-NEXT: vpcmpgtd %xmm2, %xmm7, %xmm6
708+ ; AVX1-NEXT: vpor %xmm6, %xmm5, %xmm5
709+ ; AVX1-NEXT: vpackssdw %xmm5, %xmm3, %xmm3
710+ ; AVX1-NEXT: vpcmpeqb %xmm2, %xmm1, %xmm1
711+ ; AVX1-NEXT: vpxor %xmm4, %xmm1, %xmm1
712+ ; AVX1-NEXT: vpmovsxbw %xmm1, %xmm1
713+ ; AVX1-NEXT: vpor %xmm1, %xmm3, %xmm1
714+ ; AVX1-NEXT: vpmovsxwd %xmm1, %xmm2
715+ ; AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm1[2,3,2,3]
716+ ; AVX1-NEXT: vpmovsxwd %xmm1, %xmm1
717+ ; AVX1-NEXT: vinsertf128 $1, %xmm1, %ymm2, %ymm1
718+ ; AVX1-NEXT: vandps %ymm0, %ymm1, %ymm0
719+ ; AVX1-NEXT: retq
720+ ;
721+ ; AVX2-LABEL: PR157382:
722+ ; AVX2: # %bb.0:
723+ ; AVX2-NEXT: vmovdqu (%rdi), %ymm0
724+ ; AVX2-NEXT: vmovdqu (%rsi), %ymm1
725+ ; AVX2-NEXT: vmovq {{.*#+}} xmm2 = mem[0],zero
726+ ; AVX2-NEXT: vpxor %xmm3, %xmm3, %xmm3
727+ ; AVX2-NEXT: vpcmpgtd %ymm0, %ymm3, %ymm4
728+ ; AVX2-NEXT: vpcmpeqd %ymm5, %ymm5, %ymm5
729+ ; AVX2-NEXT: vpxor %ymm5, %ymm4, %ymm4
730+ ; AVX2-NEXT: vpcmpgtd %ymm3, %ymm1, %ymm1
731+ ; AVX2-NEXT: vpor %ymm1, %ymm4, %ymm1
732+ ; AVX2-NEXT: vpxor %xmm3, %xmm3, %xmm3
733+ ; AVX2-NEXT: vpcmpeqb %xmm3, %xmm2, %xmm2
734+ ; AVX2-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3
735+ ; AVX2-NEXT: vpxor %xmm3, %xmm2, %xmm2
736+ ; AVX2-NEXT: vpmovsxbw %xmm2, %xmm2
737+ ; AVX2-NEXT: vextracti128 $1, %ymm1, %xmm3
738+ ; AVX2-NEXT: vpackssdw %xmm3, %xmm1, %xmm1
739+ ; AVX2-NEXT: vpor %xmm2, %xmm1, %xmm1
740+ ; AVX2-NEXT: vpmovsxwd %xmm1, %ymm1
741+ ; AVX2-NEXT: vpand %ymm0, %ymm1, %ymm0
742+ ; AVX2-NEXT: retq
743+ ;
744+ ; AVX512-LABEL: PR157382:
745+ ; AVX512: # %bb.0:
746+ ; AVX512-NEXT: vmovdqu (%rdi), %ymm0
747+ ; AVX512-NEXT: vmovq {{.*#+}} xmm1 = mem[0],zero
748+ ; AVX512-NEXT: vpxor %xmm2, %xmm2, %xmm2
749+ ; AVX512-NEXT: vpcmpnltd %ymm2, %ymm0, %k0
750+ ; AVX512-NEXT: vpcmpltd (%rsi), %ymm2, %k1
751+ ; AVX512-NEXT: vptestmb %xmm1, %xmm1, %k2
752+ ; AVX512-NEXT: korw %k1, %k0, %k0
753+ ; AVX512-NEXT: korw %k2, %k0, %k1
754+ ; AVX512-NEXT: vmovdqa32 %ymm0, %ymm0 {%k1} {z}
755+ ; AVX512-NEXT: retq
756+ %ld0 = load <8 x i32 >, ptr %p0 , align 1
757+ %ld1 = load <8 x i32 >, ptr %p1 , align 1
758+ %ld2 = load <8 x i8 >, ptr %p2 , align 1
759+ %cmp0 = icmp sge <8 x i32 > %ld0 , zeroinitializer
760+ %cmp1 = icmp sgt <8 x i32 > %ld1 , zeroinitializer
761+ %cmp2 = icmp ne <8 x i8 > %ld2 , zeroinitializer
762+ %cmp01 = or <8 x i1 > %cmp0 , %cmp1
763+ %cmp012 = or <8 x i1 > %cmp01 , %cmp2
764+ %res = select <8 x i1 > %cmp012 , <8 x i32 > %ld0 , <8 x i32 > zeroinitializer
765+ ret <8 x i32 > %res
766+ }
0 commit comments