[InstCombine] Signed saturation patterns
[llvm-core.git] / test / CodeGen / X86 / pr34653.ll
blob98d7de3f31a7374f58b4051f37d6b6156737ae8a
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc %s -O0 -mtriple=x86_64-unknown-unknown -mattr=+avx512f -o - | FileCheck %s
4 declare fastcc <38 x double> @test()
6 define void @pr34653() {
7 ; CHECK-LABEL: pr34653:
8 ; CHECK:       # %bb.0: # %entry
9 ; CHECK-NEXT:    pushq %rbp
10 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
11 ; CHECK-NEXT:    .cfi_offset %rbp, -16
12 ; CHECK-NEXT:    movq %rsp, %rbp
13 ; CHECK-NEXT:    .cfi_def_cfa_register %rbp
14 ; CHECK-NEXT:    andq $-512, %rsp # imm = 0xFE00
15 ; CHECK-NEXT:    subq $1536, %rsp # imm = 0x600
16 ; CHECK-NEXT:    leaq {{[0-9]+}}(%rsp), %rdi
17 ; CHECK-NEXT:    callq test
18 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
19 ; CHECK-NEXT:    vmovaps %xmm0, %xmm1
20 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm2
21 ; CHECK-NEXT:    vmovaps %xmm2, %xmm3
22 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm4
23 ; CHECK-NEXT:    vmovaps %xmm4, %xmm5
24 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm6
25 ; CHECK-NEXT:    vmovaps %xmm6, %xmm7
26 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm8
27 ; CHECK-NEXT:    vmovaps %xmm8, %xmm9
28 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm10
29 ; CHECK-NEXT:    vmovaps %xmm10, %xmm11
30 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm12
31 ; CHECK-NEXT:    vmovaps %xmm12, %xmm13
32 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm14
33 ; CHECK-NEXT:    vmovaps %xmm14, %xmm15
34 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
35 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
36 ; CHECK-NEXT:    vmovaps %zmm0, %zmm16
37 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
38 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
39 ; CHECK-NEXT:    vmovaps %zmm0, %zmm17
40 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
41 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
42 ; CHECK-NEXT:    vmovaps %zmm0, %zmm18
43 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
44 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
45 ; CHECK-NEXT:    vmovaps %zmm0, %zmm19
46 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
47 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
48 ; CHECK-NEXT:    vmovaps %zmm0, %zmm20
49 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
50 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
51 ; CHECK-NEXT:    vmovaps %zmm0, %zmm21
52 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
53 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
54 ; CHECK-NEXT:    vmovaps %zmm0, %zmm22
55 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
56 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
57 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
58 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
59 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
60 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
61 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
62 ; CHECK-NEXT:    vmovupd {{[0-9]+}}(%rsp), %xmm0
63 ; CHECK-NEXT:    vmovaps %zmm0, %zmm23
64 ; CHECK-NEXT:    vmovaps %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 16-byte Spill
65 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
66 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
67 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
68 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
69 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
70 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
71 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
72 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
73 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm2 = xmm2[1,0]
74 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm4 = xmm4[1,0]
75 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm6 = xmm6[1,0]
76 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm8 = xmm8[1,0]
77 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm10 = xmm10[1,0]
78 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm12 = xmm12[1,0]
79 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm14 = xmm14[1,0]
80 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
81 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
82 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
83 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
84 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
85 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
86 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
87 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
88 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
89 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
90 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
91 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
92 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
93 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
94 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
95 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
96 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
97 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
98 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
99 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
100 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
101 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
102 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
103 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
104 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
105 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
106 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
107 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
108 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
109 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
110 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
111 ; CHECK-NEXT:    vmovaps {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 16-byte Reload
112 ; CHECK-NEXT:    vpermilpd {{.*#+}} xmm0 = xmm0[1,0]
113 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm24 # 8-byte Reload
114 ; CHECK-NEXT:    # xmm24 = mem[0],zero
115 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm25 # 8-byte Reload
116 ; CHECK-NEXT:    # xmm25 = mem[0],zero
117 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm26 # 8-byte Reload
118 ; CHECK-NEXT:    # xmm26 = mem[0],zero
119 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm27 # 8-byte Reload
120 ; CHECK-NEXT:    # xmm27 = mem[0],zero
121 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm28 # 8-byte Reload
122 ; CHECK-NEXT:    # xmm28 = mem[0],zero
123 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm29 # 8-byte Reload
124 ; CHECK-NEXT:    # xmm29 = mem[0],zero
125 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm30 # 8-byte Reload
126 ; CHECK-NEXT:    # xmm30 = mem[0],zero
127 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm31 # 8-byte Reload
128 ; CHECK-NEXT:    # xmm31 = mem[0],zero
129 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
130 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 8-byte Reload
131 ; CHECK-NEXT:    # xmm0 = mem[0],zero
132 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
133 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 8-byte Reload
134 ; CHECK-NEXT:    # xmm0 = mem[0],zero
135 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
136 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 8-byte Reload
137 ; CHECK-NEXT:    # xmm0 = mem[0],zero
138 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
139 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 8-byte Reload
140 ; CHECK-NEXT:    # xmm0 = mem[0],zero
141 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
142 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 8-byte Reload
143 ; CHECK-NEXT:    # xmm0 = mem[0],zero
144 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
145 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 8-byte Reload
146 ; CHECK-NEXT:    # xmm0 = mem[0],zero
147 ; CHECK-NEXT:    vmovsd %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) # 8-byte Spill
148 ; CHECK-NEXT:    vmovsd {{[-0-9]+}}(%r{{[sb]}}p), %xmm0 # 8-byte Reload
149 ; CHECK-NEXT:    # xmm0 = mem[0],zero
150 ; CHECK-NEXT:    movq %rbp, %rsp
151 ; CHECK-NEXT:    popq %rbp
152 ; CHECK-NEXT:    .cfi_def_cfa %rsp, 8
153 ; CHECK-NEXT:    vzeroupper
154 ; CHECK-NEXT:    retq
155 entry:
156   %v = call fastcc <38 x double> @test()
157   %v.0 = extractelement <38 x double> %v, i32 0
158   ret void