[InstCombine] Signed saturation patterns
[llvm-complete.git] / test / CodeGen / AMDGPU / extload-align.ll
blob79749a0b4c40cc4c559f9dd3fca18d86af41e390
1 ; RUN: llc -debug-only=machine-scheduler -march=amdgcn -mtriple=amdgcn-- -verify-machineinstrs %s -o - 2>&1| FileCheck -check-prefix=SI-NOHSA -check-prefix=FUNC -check-prefix=DEBUG %s
2 target datalayout = "A5"
3 ; REQUIRES: asserts
5 ; Verify that the extload generated from %eval has the default
6 ; alignment size (2) corresponding to the underlying memory size (i16)
7 ; size and not 4 corresponding to the sign-extended size (i32).
9 ; DEBUG: {{^}}# Machine code for function extload_align:
10 ; DEBUG: (volatile load 2 from %ir.a, addrspace 5)
11 ; DEBUG: {{^}}# End machine code for function extload_align.
13 define amdgpu_kernel void @extload_align(i32 addrspace(5)* %out, i32 %index) #0 {
14   %v0 = alloca [4 x i16], addrspace(5)
15   %a1 = getelementptr inbounds [4 x i16], [4 x i16] addrspace(5)* %v0, i32 0, i32 0
16   %a2 = getelementptr inbounds [4 x i16], [4 x i16] addrspace(5)* %v0, i32 0, i32 1
17   store volatile i16 0, i16 addrspace(5)* %a1
18   store volatile i16 1, i16 addrspace(5)* %a2
19   %a = getelementptr inbounds [4 x i16], [4 x i16] addrspace(5)* %v0, i32 0, i32 %index
20   %val = load volatile i16, i16 addrspace(5)* %a
21   %eval = sext i16 %val to i32
22   store i32 %eval, i32 addrspace(5)* %out
23   ret void