Use Align for TFL::TransientStackAlignment
[llvm-core.git] / test / CodeGen / X86 / store-narrow.ll
blobf71f2eefa0fb277eef0a58adc2bc4efca99d37df
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; rdar://7860110
3 ; RUN: llc -mtriple=x86_64-apple-darwin10.2 < %s | FileCheck %s -check-prefix=X64
4 ; RUN: llc -mtriple=i686-apple-darwin10.2 -fixup-byte-word-insts=1 < %s | FileCheck %s -check-prefix=X32 -check-prefix=X32-BWON
5 ; RUN: llc -mtriple=i686-apple-darwin10.2 -fixup-byte-word-insts=0 < %s | FileCheck %s -check-prefix=X32 -check-prefix=X32-BWOFF
6 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64"
8 define void @test1(i32* nocapture %a0, i8 zeroext %a1) nounwind ssp {
9 ; X64-LABEL: test1:
10 ; X64:       ## %bb.0: ## %entry
11 ; X64-NEXT:    movb %sil, (%rdi)
12 ; X64-NEXT:    retq
14 ; X32-LABEL: test1:
15 ; X32:       ## %bb.0: ## %entry
16 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %al
17 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
18 ; X32-NEXT:    movb %al, (%ecx)
19 ; X32-NEXT:    retl
20 entry:
21   %A = load i32, i32* %a0, align 4
22   %B = and i32 %A, -256     ; 0xFFFFFF00
23   %C = zext i8 %a1 to i32
24   %D = or i32 %C, %B
25   store i32 %D, i32* %a0, align 4
26   ret void
29 define void @test2(i32* nocapture %a0, i8 zeroext %a1) nounwind ssp {
30 ; X64-LABEL: test2:
31 ; X64:       ## %bb.0: ## %entry
32 ; X64-NEXT:    movb %sil, 1(%rdi)
33 ; X64-NEXT:    retq
35 ; X32-LABEL: test2:
36 ; X32:       ## %bb.0: ## %entry
37 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %al
38 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
39 ; X32-NEXT:    movb %al, 1(%ecx)
40 ; X32-NEXT:    retl
41 entry:
42   %A = load i32, i32* %a0, align 4
43   %B = and i32 %A, -65281    ; 0xFFFF00FF
44   %C = zext i8 %a1 to i32
45   %CS = shl i32 %C, 8
46   %D = or i32 %B, %CS
47   store i32 %D, i32* %a0, align 4
48   ret void
51 define void @test3(i32* nocapture %a0, i16 zeroext %a1) nounwind ssp {
52 ; X64-LABEL: test3:
53 ; X64:       ## %bb.0: ## %entry
54 ; X64-NEXT:    movw %si, (%rdi)
55 ; X64-NEXT:    retq
57 ; X32-BWON-LABEL: test3:
58 ; X32-BWON:       ## %bb.0: ## %entry
59 ; X32-BWON-NEXT:    movzwl {{[0-9]+}}(%esp), %eax
60 ; X32-BWON-NEXT:    movl {{[0-9]+}}(%esp), %ecx
61 ; X32-BWON-NEXT:    movw %ax, (%ecx)
62 ; X32-BWON-NEXT:    retl
64 ; X32-BWOFF-LABEL: test3:
65 ; X32-BWOFF:       ## %bb.0: ## %entry
66 ; X32-BWOFF-NEXT:    movw {{[0-9]+}}(%esp), %ax
67 ; X32-BWOFF-NEXT:    movl {{[0-9]+}}(%esp), %ecx
68 ; X32-BWOFF-NEXT:    movw %ax, (%ecx)
69 ; X32-BWOFF-NEXT:    retl
70 entry:
71   %A = load i32, i32* %a0, align 4
72   %B = and i32 %A, -65536    ; 0xFFFF0000
73   %C = zext i16 %a1 to i32
74   %D = or i32 %B, %C
75   store i32 %D, i32* %a0, align 4
76   ret void
79 define void @test4(i32* nocapture %a0, i16 zeroext %a1) nounwind ssp {
80 ; X64-LABEL: test4:
81 ; X64:       ## %bb.0: ## %entry
82 ; X64-NEXT:    movw %si, 2(%rdi)
83 ; X64-NEXT:    retq
85 ; X32-BWON-LABEL: test4:
86 ; X32-BWON:       ## %bb.0: ## %entry
87 ; X32-BWON-NEXT:    movzwl {{[0-9]+}}(%esp), %eax
88 ; X32-BWON-NEXT:    movl {{[0-9]+}}(%esp), %ecx
89 ; X32-BWON-NEXT:    movw %ax, 2(%ecx)
90 ; X32-BWON-NEXT:    retl
92 ; X32-BWOFF-LABEL: test4:
93 ; X32-BWOFF:       ## %bb.0: ## %entry
94 ; X32-BWOFF-NEXT:    movw {{[0-9]+}}(%esp), %ax
95 ; X32-BWOFF-NEXT:    movl {{[0-9]+}}(%esp), %ecx
96 ; X32-BWOFF-NEXT:    movw %ax, 2(%ecx)
97 ; X32-BWOFF-NEXT:    retl
98 entry:
99   %A = load i32, i32* %a0, align 4
100   %B = and i32 %A, 65535    ; 0x0000FFFF
101   %C = zext i16 %a1 to i32
102   %CS = shl i32 %C, 16
103   %D = or i32 %B, %CS
104   store i32 %D, i32* %a0, align 4
105   ret void
108 define void @test5(i64* nocapture %a0, i16 zeroext %a1) nounwind ssp {
109 ; X64-LABEL: test5:
110 ; X64:       ## %bb.0: ## %entry
111 ; X64-NEXT:    movw %si, 2(%rdi)
112 ; X64-NEXT:    retq
114 ; X32-BWON-LABEL: test5:
115 ; X32-BWON:       ## %bb.0: ## %entry
116 ; X32-BWON-NEXT:    movzwl {{[0-9]+}}(%esp), %eax
117 ; X32-BWON-NEXT:    movl {{[0-9]+}}(%esp), %ecx
118 ; X32-BWON-NEXT:    movw %ax, 2(%ecx)
119 ; X32-BWON-NEXT:    retl
121 ; X32-BWOFF-LABEL: test5:
122 ; X32-BWOFF:       ## %bb.0: ## %entry
123 ; X32-BWOFF-NEXT:    movw {{[0-9]+}}(%esp), %ax
124 ; X32-BWOFF-NEXT:    movl {{[0-9]+}}(%esp), %ecx
125 ; X32-BWOFF-NEXT:    movw %ax, 2(%ecx)
126 ; X32-BWOFF-NEXT:    retl
127 entry:
128   %A = load i64, i64* %a0, align 4
129   %B = and i64 %A, -4294901761    ; 0xFFFFFFFF0000FFFF
130   %C = zext i16 %a1 to i64
131   %CS = shl i64 %C, 16
132   %D = or i64 %B, %CS
133   store i64 %D, i64* %a0, align 4
134   ret void
137 define void @test6(i64* nocapture %a0, i8 zeroext %a1) nounwind ssp {
138 ; X64-LABEL: test6:
139 ; X64:       ## %bb.0: ## %entry
140 ; X64-NEXT:    movb %sil, 5(%rdi)
141 ; X64-NEXT:    retq
143 ; X32-LABEL: test6:
144 ; X32:       ## %bb.0: ## %entry
145 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %al
146 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
147 ; X32-NEXT:    movb %al, 5(%ecx)
148 ; X32-NEXT:    retl
149 entry:
150   %A = load i64, i64* %a0, align 4
151   %B = and i64 %A, -280375465082881    ; 0xFFFF00FFFFFFFFFF
152   %C = zext i8 %a1 to i64
153   %CS = shl i64 %C, 40
154   %D = or i64 %B, %CS
155   store i64 %D, i64* %a0, align 4
156   ret void
159 define i32 @test7(i64* nocapture %a0, i8 zeroext %a1, i32* %P2) nounwind {
160 ; X64-LABEL: test7:
161 ; X64:       ## %bb.0: ## %entry
162 ; X64-NEXT:    movl (%rdx), %eax
163 ; X64-NEXT:    movb %sil, 5(%rdi)
164 ; X64-NEXT:    retq
166 ; X32-LABEL: test7:
167 ; X32:       ## %bb.0: ## %entry
168 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %cl
169 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %edx
170 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
171 ; X32-NEXT:    movl (%eax), %eax
172 ; X32-NEXT:    movb %cl, 5(%edx)
173 ; X32-NEXT:    retl
174 entry:
175   %OtherLoad = load i32 , i32 *%P2
176   %A = load i64, i64* %a0, align 4
177   %B = and i64 %A, -280375465082881    ; 0xFFFF00FFFFFFFFFF
178   %C = zext i8 %a1 to i64
179   %CS = shl i64 %C, 40
180   %D = or i64 %B, %CS
181   store i64 %D, i64* %a0, align 4
182   ret i32 %OtherLoad
185 ; PR7833
187 @g_16 = internal global i32 -1
189 define void @test8() nounwind {
190 ; X64-LABEL: test8:
191 ; X64:       ## %bb.0:
192 ; X64-NEXT:    orb $1, {{.*}}(%rip)
193 ; X64-NEXT:    retq
195 ; X32-LABEL: test8:
196 ; X32:       ## %bb.0:
197 ; X32-NEXT:    orb $1, _g_16
198 ; X32-NEXT:    retl
199   %tmp = load i32, i32* @g_16
200   store i32 0, i32* @g_16
201   %or = or i32 %tmp, 1
202   store i32 %or, i32* @g_16
203   ret void
206 define void @test9() nounwind {
207 ; X64-LABEL: test9:
208 ; X64:       ## %bb.0:
209 ; X64-NEXT:    orb $1, {{.*}}(%rip)
210 ; X64-NEXT:    retq
212 ; X32-LABEL: test9:
213 ; X32:       ## %bb.0:
214 ; X32-NEXT:    orb $1, _g_16
215 ; X32-NEXT:    retl
216   %tmp = load i32, i32* @g_16
217   %or = or i32 %tmp, 1
218   store i32 %or, i32* @g_16
219   ret void
222 ; rdar://8494845 + PR8244
223 define i8 @test10(i8* %P) nounwind ssp {
224 ; X64-LABEL: test10:
225 ; X64:       ## %bb.0: ## %entry
226 ; X64-NEXT:    movsbl (%rdi), %eax
227 ; X64-NEXT:    shrl $8, %eax
228 ; X64-NEXT:    ## kill: def $al killed $al killed $eax
229 ; X64-NEXT:    retq
231 ; X32-LABEL: test10:
232 ; X32:       ## %bb.0: ## %entry
233 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
234 ; X32-NEXT:    movsbl (%eax), %eax
235 ; X32-NEXT:    movb %ah, %al
236 ; X32-NEXT:    retl
237 entry:
238   %tmp = load i8, i8* %P, align 1
239   %conv = sext i8 %tmp to i32
240   %shr3 = lshr i32 %conv, 8
241   %conv2 = trunc i32 %shr3 to i8
242   ret i8 %conv2