[Demangle] Add a few more options to the microsoft demangler
[llvm-complete.git] / test / CodeGen / X86 / vector.ll
bloba731643d7d4e92120fa58b6a17e8207c7617ed97
1 ; Test that vectors are scalarized/lowered correctly.
2 ; RUN: llc < %s -mtriple=i686-- -mcpu=i386
3 ; RUN: llc < %s -mtriple=i686-- -mcpu=yonah
5 %d8 = type <8 x double>
6 %f1 = type <1 x float>
7 %f2 = type <2 x float>
8 %f4 = type <4 x float>
9 %f8 = type <8 x float>
10 %i4 = type <4 x i32>
13 ;;; TEST HANDLING OF VARIOUS VECTOR SIZES
15 define void @test_f1(%f1* %P, %f1* %Q, %f1* %S) {
16         %p = load %f1, %f1* %P               ; <%f1> [#uses=1]
17         %q = load %f1, %f1* %Q               ; <%f1> [#uses=1]
18         %R = fadd %f1 %p, %q             ; <%f1> [#uses=1]
19         store %f1 %R, %f1* %S
20         ret void
23 define void @test_f2(%f2* %P, %f2* %Q, %f2* %S) {
24         %p = load %f2, %f2* %P               ; <%f2> [#uses=1]
25         %q = load %f2, %f2* %Q               ; <%f2> [#uses=1]
26         %R = fadd %f2 %p, %q             ; <%f2> [#uses=1]
27         store %f2 %R, %f2* %S
28         ret void
31 define void @test_f4(%f4* %P, %f4* %Q, %f4* %S) {
32         %p = load %f4, %f4* %P               ; <%f4> [#uses=1]
33         %q = load %f4, %f4* %Q               ; <%f4> [#uses=1]
34         %R = fadd %f4 %p, %q             ; <%f4> [#uses=1]
35         store %f4 %R, %f4* %S
36         ret void
39 define void @test_f8(%f8* %P, %f8* %Q, %f8* %S) {
40         %p = load %f8, %f8* %P               ; <%f8> [#uses=1]
41         %q = load %f8, %f8* %Q               ; <%f8> [#uses=1]
42         %R = fadd %f8 %p, %q             ; <%f8> [#uses=1]
43         store %f8 %R, %f8* %S
44         ret void
47 define void @test_fmul(%f8* %P, %f8* %Q, %f8* %S) {
48         %p = load %f8, %f8* %P               ; <%f8> [#uses=1]
49         %q = load %f8, %f8* %Q               ; <%f8> [#uses=1]
50         %R = fmul %f8 %p, %q             ; <%f8> [#uses=1]
51         store %f8 %R, %f8* %S
52         ret void
55 define void @test_div(%f8* %P, %f8* %Q, %f8* %S) {
56         %p = load %f8, %f8* %P               ; <%f8> [#uses=1]
57         %q = load %f8, %f8* %Q               ; <%f8> [#uses=1]
58         %R = fdiv %f8 %p, %q            ; <%f8> [#uses=1]
59         store %f8 %R, %f8* %S
60         ret void
63 ;;; TEST VECTOR CONSTRUCTS
65 define void @test_cst(%f4* %P, %f4* %S) {
66         %p = load %f4, %f4* %P               ; <%f4> [#uses=1]
67         %R = fadd %f4 %p, < float 0x3FB99999A0000000, float 1.000000e+00, float 2.000000e+00, float 4.500000e+00 >             ; <%f4> [#uses=1]
68         store %f4 %R, %f4* %S
69         ret void
72 define void @test_zero(%f4* %P, %f4* %S) {
73         %p = load %f4, %f4* %P               ; <%f4> [#uses=1]
74         %R = fadd %f4 %p, zeroinitializer                ; <%f4> [#uses=1]
75         store %f4 %R, %f4* %S
76         ret void
79 define void @test_undef(%f4* %P, %f4* %S) {
80         %p = load %f4, %f4* %P               ; <%f4> [#uses=1]
81         %R = fadd %f4 %p, undef          ; <%f4> [#uses=1]
82         store %f4 %R, %f4* %S
83         ret void
86 define void @test_constant_insert(%f4* %S) {
87         %R = insertelement %f4 zeroinitializer, float 1.000000e+01, i32 0               ; <%f4> [#uses
88         store %f4 %R, %f4* %S
89         ret void
92 define void @test_variable_buildvector(float %F, %f4* %S) {
93         %R = insertelement %f4 zeroinitializer, float %F, i32 0         ; <%f4> [#uses=1]
94         store %f4 %R, %f4* %S
95         ret void
98 define void @test_scalar_to_vector(float %F, %f4* %S) {
99         %R = insertelement %f4 undef, float %F, i32 0           ; <%f4> [#uses=1]
100         store %f4 %R, %f4* %S
101         ret void
104 define float @test_extract_elt(%f8* %P) {
105         %p = load %f8, %f8* %P               ; <%f8> [#uses=1]
106         %R = extractelement %f8 %p, i32 3               ; <float> [#uses=1]
107         ret float %R
110 define double @test_extract_elt2(%d8* %P) {
111         %p = load %d8, %d8* %P               ; <%d8> [#uses=1]
112         %R = extractelement %d8 %p, i32 3               ; <double> [#uses=1]
113         ret double %R
116 define void @test_cast_1(%f4* %b, %i4* %a) {
117         %tmp = load %f4, %f4* %b             ; <%f4> [#uses=1]
118         %tmp2 = fadd %f4 %tmp, < float 1.000000e+00, float 2.000000e+00, float 3.000000e+00, float 4.000000e+00 >              ; <%f4> [#uses=1]
119         %tmp3 = bitcast %f4 %tmp2 to %i4                ; <%i4> [#uses=1]
120         %tmp4 = add %i4 %tmp3, < i32 1, i32 2, i32 3, i32 4 >           ; <%i4> [#uses=1]
121         store %i4 %tmp4, %i4* %a
122         ret void
125 define void @test_cast_2(%f8* %a, <8 x i32>* %b) {
126         %T = load %f8, %f8* %a               ; <%f8> [#uses=1]
127         %T2 = bitcast %f8 %T to <8 x i32>               ; <<8 x i32>> [#uses=1]
128         store <8 x i32> %T2, <8 x i32>* %b
129         ret void
133 ;;; TEST IMPORTANT IDIOMS
135 define void @splat(%f4* %P, %f4* %Q, float %X) {
136         %tmp = insertelement %f4 undef, float %X, i32 0         ; <%f4> [#uses=1]
137         %tmp2 = insertelement %f4 %tmp, float %X, i32 1         ; <%f4> [#uses=1]
138         %tmp4 = insertelement %f4 %tmp2, float %X, i32 2                ; <%f4> [#uses=1]
139         %tmp6 = insertelement %f4 %tmp4, float %X, i32 3                ; <%f4> [#uses=1]
140         %q = load %f4, %f4* %Q               ; <%f4> [#uses=1]
141         %R = fadd %f4 %q, %tmp6          ; <%f4> [#uses=1]
142         store %f4 %R, %f4* %P
143         ret void
146 define void @splat_i4(%i4* %P, %i4* %Q, i32 %X) {
147         %tmp = insertelement %i4 undef, i32 %X, i32 0           ; <%i4> [#uses=1]
148         %tmp2 = insertelement %i4 %tmp, i32 %X, i32 1           ; <%i4> [#uses=1]
149         %tmp4 = insertelement %i4 %tmp2, i32 %X, i32 2          ; <%i4> [#uses=1]
150         %tmp6 = insertelement %i4 %tmp4, i32 %X, i32 3          ; <%i4> [#uses=1]
151         %q = load %i4, %i4* %Q               ; <%i4> [#uses=1]
152         %R = add %i4 %q, %tmp6          ; <%i4> [#uses=1]
153         store %i4 %R, %i4* %P
154         ret void