This should always be signed chars, so use int8_t. This fixes a miscompile when
[llvm/stm8.git] / test / CodeGen / X86 / lock-inst-encoding.ll
blob2d10fbc611d02bee2cb390555958dd0d9b95e9db
1 ; RUN: llc -O0 --show-mc-encoding < %s | FileCheck %s
3 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64"
4 target triple = "x86_64-apple-darwin10.0.0"
6 ; CHECK: f0:
7 ; CHECK: addq %{{.*}}, ({{.*}}){{.*}}encoding: [0xf0,
8 ; CHECK: ret
9 define void @f0(i64* %a0) nounwind {
10   %t0 = and i64 1, 1
11   call void @llvm.memory.barrier(i1 true, i1 true, i1 true, i1 true, i1 true) nounwind
12   %1 = call i64 @llvm.atomic.load.add.i64.p0i64(i64* %a0, i64 %t0) nounwind
13   call void @llvm.memory.barrier(i1 true, i1 true, i1 true, i1 true, i1 true) nounwind
14   ret void
17 declare void @llvm.memory.barrier(i1, i1, i1, i1, i1) nounwind
19 declare i32 @llvm.atomic.load.and.i32.p0i32(i32* nocapture, i32) nounwind
21 declare i64 @llvm.atomic.load.add.i64.p0i64(i64* nocapture, i64) nounwind