[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / ARM / pow.ll
blob2b3df92aab5b3f7da8ab869199e8a96c11ec1b11
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=thumbv7m-linux-gnueabi              | FileCheck %s --check-prefixes=ANY,SOFTFLOAT
3 ; RUN: llc < %s -mtriple=thumbv8-linux-gnueabihf -mattr=neon | FileCheck %s --check-prefixes=ANY,HARDFLOAT
5 declare float @llvm.pow.f32(float, float)
6 declare <4 x float> @llvm.pow.v4f32(<4 x float>, <4 x float>)
8 declare double @llvm.pow.f64(double, double)
9 declare <2 x double> @llvm.pow.v2f64(<2 x double>, <2 x double>)
11 define float @pow_f32_one_fourth_fmf(float %x) nounwind {
12 ; ANY-LABEL: pow_f32_one_fourth_fmf:
13 ; SOFTFLOAT:    bl powf
14 ; HARDFLOAT:    vsqrt.f32
15 ; HARDFLOAT:    vsqrt.f32
16   %r = call nsz ninf afn float @llvm.pow.f32(float %x, float 2.5e-01)
17   ret float %r
20 define double @pow_f64_one_fourth_fmf(double %x) nounwind {
21 ; ANY-LABEL: pow_f64_one_fourth_fmf:
22 ; SOFTFLOAT:    bl pow
23 ; HARDFLOAT:    vsqrt.f64
24 ; HARDFLOAT:    vsqrt.f64
25   %r = call nsz ninf afn double @llvm.pow.f64(double %x, double 2.5e-01)
26   ret double %r
29 define <4 x float> @pow_v4f32_one_fourth_fmf(<4 x float> %x) nounwind {
30 ; ANY-LABEL: pow_v4f32_one_fourth_fmf:
31 ; SOFTFLOAT:    bl powf
32 ; SOFTFLOAT:    bl powf
33 ; SOFTFLOAT:    bl powf
34 ; SOFTFLOAT:    bl powf
35 ; HARDFLOAT:    vsqrt.f32
36 ; HARDFLOAT:    vsqrt.f32
37 ; HARDFLOAT:    vsqrt.f32
38 ; HARDFLOAT:    vsqrt.f32
39 ; HARDFLOAT:    vsqrt.f32
40 ; HARDFLOAT:    vsqrt.f32
41 ; HARDFLOAT:    vsqrt.f32
42 ; HARDFLOAT:    vsqrt.f32
43   %r = call fast <4 x float> @llvm.pow.v4f32(<4 x float> %x, <4 x float> <float 2.5e-1, float 2.5e-1, float 2.5e-01, float 2.5e-01>)
44   ret <4 x float> %r
47 define <2 x double> @pow_v2f64_one_fourth_fmf(<2 x double> %x) nounwind {
48 ; ANY-LABEL: pow_v2f64_one_fourth_fmf:
49 ; SOFTFLOAT:    bl pow
50 ; SOFTFLOAT:    bl pow
51 ; HARDFLOAT:    vsqrt.f64
52 ; HARDFLOAT:    vsqrt.f64
53 ; HARDFLOAT:    vsqrt.f64
54 ; HARDFLOAT:    vsqrt.f64
55   %r = call fast <2 x double> @llvm.pow.v2f64(<2 x double> %x, <2 x double> <double 2.5e-1, double 2.5e-1>)
56   ret <2 x double> %r
59 define float @pow_f32_one_fourth_not_enough_fmf(float %x) nounwind {
60 ; ANY-LABEL: pow_f32_one_fourth_not_enough_fmf:
61 ; SOFTFLOAT:    bl powf
62 ; HARDFLOAT:    b powf
63   %r = call afn ninf float @llvm.pow.f32(float %x, float 2.5e-01)
64   ret float %r
67 define double @pow_f64_one_fourth_not_enough_fmf(double %x) nounwind {
68 ; ANY-LABEL: pow_f64_one_fourth_not_enough_fmf:
69 ; SOFTFLOAT:    bl pow
70 ; HARDFLOAT:    b pow
71   %r = call nsz ninf double @llvm.pow.f64(double %x, double 2.5e-01)
72   ret double %r
75 define <4 x float> @pow_v4f32_one_fourth_not_enough_fmf(<4 x float> %x) nounwind {
76 ; ANY-LABEL: pow_v4f32_one_fourth_not_enough_fmf:
77 ; ANY:    bl powf
78 ; ANY:    bl powf
79 ; ANY:    bl powf
80 ; ANY:    bl powf
81   %r = call afn nsz <4 x float> @llvm.pow.v4f32(<4 x float> %x, <4 x float> <float 2.5e-1, float 2.5e-1, float 2.5e-01, float 2.5e-01>)
82   ret <4 x float> %r
85 define <2 x double> @pow_v2f64_one_fourth_not_enough_fmf(<2 x double> %x) nounwind {
86 ; ANY-LABEL: pow_v2f64_one_fourth_not_enough_fmf:
87 ; ANY:    bl pow
88 ; ANY:    bl pow
89   %r = call nsz nnan reassoc <2 x double> @llvm.pow.v2f64(<2 x double> %x, <2 x double> <double 2.5e-1, double 2.5e-1>)
90   ret <2 x double> %r