Fixed some bugs.
[llvm/zpu.git] / test / CodeGen / X86 / fp_load_fold.ll
blob0145069b8cd639c3cef4af4d88c15c7113d8a4bd
1 ; RUN: llc < %s -march=x86 -x86-asm-syntax=intel | \
2 ; RUN:   grep -i ST | not grep {fadd\\|fsub\\|fdiv\\|fmul}
4 ; Test that the load of the memory location is folded into the operation.
6 define double @test_add(double %X, double* %P) {
7         %Y = load double* %P            ; <double> [#uses=1]
8         %R = fadd double %X, %Y         ; <double> [#uses=1]
9         ret double %R
12 define double @test_mul(double %X, double* %P) {
13         %Y = load double* %P            ; <double> [#uses=1]
14         %R = fmul double %X, %Y         ; <double> [#uses=1]
15         ret double %R
18 define double @test_sub(double %X, double* %P) {
19         %Y = load double* %P            ; <double> [#uses=1]
20         %R = fsub double %X, %Y         ; <double> [#uses=1]
21         ret double %R
24 define double @test_subr(double %X, double* %P) {
25         %Y = load double* %P            ; <double> [#uses=1]
26         %R = fsub double %Y, %X         ; <double> [#uses=1]
27         ret double %R
30 define double @test_div(double %X, double* %P) {
31         %Y = load double* %P            ; <double> [#uses=1]
32         %R = fdiv double %X, %Y         ; <double> [#uses=1]
33         ret double %R
36 define double @test_divr(double %X, double* %P) {
37         %Y = load double* %P            ; <double> [#uses=1]
38         %R = fdiv double %Y, %X         ; <double> [#uses=1]
39         ret double %R