[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / x86-upgrade-avx-vbroadcast.ll
blobe7b3a5b49903ffc2f8ecd4aadcc84c2cad16d25a
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-apple-macosx10.9.0 -mattr=+avx | FileCheck %s
4 ; Check that we properly upgrade the AVX vbroadcast intrinsics to IR.  The
5 ; expectation is that we should still get the original instruction back that
6 ; maps to the intrinsic.
8 target datalayout = "e-m:o-i64:64-f80:128-n8:16:32:64-S128"
10 define <4 x float> @test_mm_broadcast_ss(float* readonly %__a){
11 ; CHECK-LABEL: test_mm_broadcast_ss:
12 ; CHECK:       ## %bb.0: ## %entry
13 ; CHECK-NEXT:    vbroadcastss (%rdi), %xmm0
14 ; CHECK-NEXT:    retq
15 entry:
16   %0 = bitcast float* %__a to i8*
17   %1 = tail call <4 x float> @llvm.x86.avx.vbroadcast.ss(i8* %0)
18   ret <4 x float> %1
20 declare <8 x float> @llvm.x86.avx.vbroadcast.ss.256(i8*)
22 define <4 x double> @test_mm256_broadcast_sd(double* readonly %__a) {
23 ; CHECK-LABEL: test_mm256_broadcast_sd:
24 ; CHECK:       ## %bb.0: ## %entry
25 ; CHECK-NEXT:    vbroadcastsd (%rdi), %ymm0
26 ; CHECK-NEXT:    retq
27 entry:
28   %0 = bitcast double* %__a to i8*
29   %1 = tail call <4 x double> @llvm.x86.avx.vbroadcast.sd.256(i8* %0)
30   ret <4 x double> %1
32 declare <4 x double> @llvm.x86.avx.vbroadcast.sd.256(i8*)
34 define <8 x float> @test_mm256_broadcast_ss(float* readonly %__a) {
35 ; CHECK-LABEL: test_mm256_broadcast_ss:
36 ; CHECK:       ## %bb.0: ## %entry
37 ; CHECK-NEXT:    vbroadcastss (%rdi), %ymm0
38 ; CHECK-NEXT:    retq
39 entry:
40   %0 = bitcast float* %__a to i8*
41   %1 = tail call <8 x float> @llvm.x86.avx.vbroadcast.ss.256(i8* %0)
42   ret <8 x float> %1
44 declare <4 x float> @llvm.x86.avx.vbroadcast.ss(i8*)