[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / bool-ext-inc.ll
blobd89893f94bdaec212dc2d9e5d58b4aa352886009
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=avx2 | FileCheck %s
4 ; add (sext i1 X), 1 -> zext (not i1 X)
6 define i32 @sext_inc(i1 zeroext %x) nounwind {
7 ; CHECK-LABEL: sext_inc:
8 ; CHECK:       # %bb.0:
9 ; CHECK-NEXT:    xorb $1, %dil
10 ; CHECK-NEXT:    movzbl %dil, %eax
11 ; CHECK-NEXT:    retq
12   %ext = sext i1 %x to i32
13   %add = add i32 %ext, 1
14   ret i32 %add
17 ; add (sext i1 X), 1 -> zext (not i1 X)
19 define <4 x i32> @sext_inc_vec(<4 x i1> %x) nounwind {
20 ; CHECK-LABEL: sext_inc_vec:
21 ; CHECK:       # %bb.0:
22 ; CHECK-NEXT:    vbroadcastss {{.*#+}} xmm1 = [1,1,1,1]
23 ; CHECK-NEXT:    vandnps %xmm1, %xmm0, %xmm0
24 ; CHECK-NEXT:    retq
25   %ext = sext <4 x i1> %x to <4 x i32>
26   %add = add <4 x i32> %ext, <i32 1, i32 1, i32 1, i32 1>
27   ret <4 x i32> %add
30 define <4 x i32> @cmpgt_sext_inc_vec(<4 x i32> %x, <4 x i32> %y) nounwind {
31 ; CHECK-LABEL: cmpgt_sext_inc_vec:
32 ; CHECK:       # %bb.0:
33 ; CHECK-NEXT:    vpcmpgtd %xmm1, %xmm0, %xmm0
34 ; CHECK-NEXT:    vpbroadcastd {{.*#+}} xmm1 = [1,1,1,1]
35 ; CHECK-NEXT:    vpandn %xmm1, %xmm0, %xmm0
36 ; CHECK-NEXT:    retq
37   %cmp = icmp sgt <4 x i32> %x, %y
38   %ext = sext <4 x i1> %cmp to <4 x i32>
39   %add = add <4 x i32> %ext, <i32 1, i32 1, i32 1, i32 1>
40   ret <4 x i32> %add
43 define <4 x i32> @cmpne_sext_inc_vec(<4 x i32> %x, <4 x i32> %y) nounwind {
44 ; CHECK-LABEL: cmpne_sext_inc_vec:
45 ; CHECK:       # %bb.0:
46 ; CHECK-NEXT:    vpcmpeqd %xmm1, %xmm0, %xmm0
47 ; CHECK-NEXT:    vpsrld $31, %xmm0, %xmm0
48 ; CHECK-NEXT:    retq
49   %cmp = icmp ne <4 x i32> %x, %y
50   %ext = sext <4 x i1> %cmp to <4 x i32>
51   %add = add <4 x i32> %ext, <i32 1, i32 1, i32 1, i32 1>
52   ret <4 x i32> %add
55 define <4 x i64> @cmpgt_sext_inc_vec256(<4 x i64> %x, <4 x i64> %y) nounwind {
56 ; CHECK-LABEL: cmpgt_sext_inc_vec256:
57 ; CHECK:       # %bb.0:
58 ; CHECK-NEXT:    vpcmpgtq %ymm1, %ymm0, %ymm0
59 ; CHECK-NEXT:    vpbroadcastq {{.*#+}} ymm1 = [1,1,1,1]
60 ; CHECK-NEXT:    vpandn %ymm1, %ymm0, %ymm0
61 ; CHECK-NEXT:    retq
62   %cmp = icmp sgt <4 x i64> %x, %y
63   %ext = sext <4 x i1> %cmp to <4 x i64>
64   %add = add <4 x i64> %ext, <i64 1, i64 1, i64 1, i64 1>
65   ret <4 x i64> %add
68 define i32 @bool_logic_and_math(i32 %a, i32 %b, i32 %c, i32 %d) nounwind {
69 ; CHECK-LABEL: bool_logic_and_math:
70 ; CHECK:       # %bb.0:
71 ; CHECK-NEXT:    cmpl %esi, %edi
72 ; CHECK-NEXT:    sete %al
73 ; CHECK-NEXT:    cmpl %ecx, %edx
74 ; CHECK-NEXT:    sete %cl
75 ; CHECK-NEXT:    orb %al, %cl
76 ; CHECK-NEXT:    movzbl %cl, %eax
77 ; CHECK-NEXT:    retq
78   %cmp1 = icmp ne i32 %a, %b
79   %cmp2 = icmp ne i32 %c, %d
80   %and = and i1 %cmp1, %cmp2
81   %ext = sext i1 %and to i32
82   %add = add i32 %ext, 1
83   ret i32 %add
86 define <4 x i32> @bool_logic_and_math_vec(<4 x i32> %a, <4 x i32> %b, <4 x i32> %c, <4 x i32> %d) nounwind {
87 ; CHECK-LABEL: bool_logic_and_math_vec:
88 ; CHECK:       # %bb.0:
89 ; CHECK-NEXT:    vpcmpeqd %xmm1, %xmm0, %xmm0
90 ; CHECK-NEXT:    vpcmpeqd %xmm3, %xmm2, %xmm1
91 ; CHECK-NEXT:    vpcmpeqd %xmm2, %xmm2, %xmm2
92 ; CHECK-NEXT:    vpxor %xmm2, %xmm1, %xmm1
93 ; CHECK-NEXT:    vpandn %xmm1, %xmm0, %xmm0
94 ; CHECK-NEXT:    vpbroadcastd {{.*#+}} xmm1 = [1,1,1,1]
95 ; CHECK-NEXT:    vpandn %xmm1, %xmm0, %xmm0
96 ; CHECK-NEXT:    retq
97   %cmp1 = icmp ne <4 x i32> %a, %b
98   %cmp2 = icmp ne <4 x i32> %c, %d
99   %and = and <4 x i1> %cmp1, %cmp2
100   %ext = sext <4 x i1> %and to <4 x i32>
101   %add = add <4 x i32> %ext, <i32 1, i32 1, i32 1, i32 1>
102   ret <4 x i32> %add
105 define <4 x i32> @sextbool_add_vector(<4 x i32> %cmp1, <4 x i32> %cmp2, <4 x i32> %x) {
106 ; CHECK-LABEL: sextbool_add_vector:
107 ; CHECK:       # %bb.0:
108 ; CHECK-NEXT:    vpcmpeqd %xmm1, %xmm0, %xmm0
109 ; CHECK-NEXT:    vpaddd %xmm0, %xmm2, %xmm0
110 ; CHECK-NEXT:    retq
111   %c = icmp eq <4 x i32> %cmp1, %cmp2
112   %b = sext <4 x i1> %c to <4 x i32>
113   %s = add <4 x i32> %x, %b
114   ret <4 x i32> %s
117 define <4 x i32> @zextbool_sub_vector(<4 x i32> %cmp1, <4 x i32> %cmp2, <4 x i32> %x) {
118 ; CHECK-LABEL: zextbool_sub_vector:
119 ; CHECK:       # %bb.0:
120 ; CHECK-NEXT:    vpcmpeqd %xmm1, %xmm0, %xmm0
121 ; CHECK-NEXT:    vpaddd %xmm0, %xmm2, %xmm0
122 ; CHECK-NEXT:    retq
123   %c = icmp eq <4 x i32> %cmp1, %cmp2
124   %b = zext <4 x i1> %c to <4 x i32>
125   %s = sub <4 x i32> %x, %b
126   ret <4 x i32> %s
129 define i32 @assertsext_sub_1(i1 signext %cond, i32 %y) {
130 ; CHECK-LABEL: assertsext_sub_1:
131 ; CHECK:       # %bb.0:
132 ; CHECK-NEXT:    # kill: def $esi killed $esi def $rsi
133 ; CHECK-NEXT:    # kill: def $edi killed $edi def $rdi
134 ; CHECK-NEXT:    leal (%rdi,%rsi), %eax
135 ; CHECK-NEXT:    retq
136   %e = zext i1 %cond to i32
137   %r = sub i32 %y, %e
138   ret i32 %r
141 define i32 @assertsext_add_1(i1 signext %cond, i32 %y) {
142 ; CHECK-LABEL: assertsext_add_1:
143 ; CHECK:       # %bb.0:
144 ; CHECK-NEXT:    movl %esi, %eax
145 ; CHECK-NEXT:    subl %edi, %eax
146 ; CHECK-NEXT:    retq
147   %e = zext i1 %cond to i32
148   %r = add i32 %e, %y
149   ret i32 %r
152 define i32 @assertsext_add_1_commute(i1 signext %cond, i32 %y) {
153 ; CHECK-LABEL: assertsext_add_1_commute:
154 ; CHECK:       # %bb.0:
155 ; CHECK-NEXT:    movl %esi, %eax
156 ; CHECK-NEXT:    subl %edi, %eax
157 ; CHECK-NEXT:    retq
158   %e = zext i1 %cond to i32
159   %r = add i32 %y, %e
160   ret i32 %r