[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / CodeGen / AMDGPU / urem-seteq-illegal-types.ll
blob96b1c77d0849a0efc2292e4dfe0b83e7eeb5e47e
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=amdgcn-amd-mesa3d < %s | FileCheck %s
4 define i1 @test_urem_odd(i13 %X) nounwind {
5 ; CHECK-LABEL: test_urem_odd:
6 ; CHECK:       ; %bb.0:
7 ; CHECK-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
8 ; CHECK-NEXT:    s_movk_i32 s4, 0x1fff
9 ; CHECK-NEXT:    s_movk_i32 s5, 0x667
10 ; CHECK-NEXT:    v_and_b32_e32 v0, s4, v0
11 ; CHECK-NEXT:    v_mul_u32_u24_e32 v0, 0xccd, v0
12 ; CHECK-NEXT:    v_and_b32_e32 v0, s4, v0
13 ; CHECK-NEXT:    v_cmp_gt_u32_e32 vcc, s5, v0
14 ; CHECK-NEXT:    v_cndmask_b32_e64 v0, 0, 1, vcc
15 ; CHECK-NEXT:    s_setpc_b64 s[30:31]
16   %urem = urem i13 %X, 5
17   %cmp = icmp eq i13 %urem, 0
18   ret i1 %cmp
21 define i1 @test_urem_even(i27 %X) nounwind {
22 ; CHECK-LABEL: test_urem_even:
23 ; CHECK:       ; %bb.0:
24 ; CHECK-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
25 ; CHECK-NEXT:    s_mov_b32 s4, 0x6db6db7
26 ; CHECK-NEXT:    s_mov_b32 s5, 0x924925
27 ; CHECK-NEXT:    v_mul_lo_u32 v0, v0, s4
28 ; CHECK-NEXT:    v_lshlrev_b32_e32 v1, 26, v0
29 ; CHECK-NEXT:    v_bfe_u32 v0, v0, 1, 26
30 ; CHECK-NEXT:    v_or_b32_e32 v0, v0, v1
31 ; CHECK-NEXT:    v_and_b32_e32 v0, 0x7ffffff, v0
32 ; CHECK-NEXT:    v_cmp_gt_u32_e32 vcc, s5, v0
33 ; CHECK-NEXT:    v_cndmask_b32_e64 v0, 0, 1, vcc
34 ; CHECK-NEXT:    s_setpc_b64 s[30:31]
35   %urem = urem i27 %X, 14
36   %cmp = icmp eq i27 %urem, 0
37   ret i1 %cmp
40 define i1 @test_urem_odd_setne(i4 %X) nounwind {
41 ; CHECK-LABEL: test_urem_odd_setne:
42 ; CHECK:       ; %bb.0:
43 ; CHECK-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
44 ; CHECK-NEXT:    v_and_b32_e32 v0, 15, v0
45 ; CHECK-NEXT:    v_mul_u32_u24_e32 v0, 13, v0
46 ; CHECK-NEXT:    v_and_b32_e32 v0, 15, v0
47 ; CHECK-NEXT:    v_cmp_lt_u32_e32 vcc, 3, v0
48 ; CHECK-NEXT:    v_cndmask_b32_e64 v0, 0, 1, vcc
49 ; CHECK-NEXT:    s_setpc_b64 s[30:31]
50   %urem = urem i4 %X, 5
51   %cmp = icmp ne i4 %urem, 0
52   ret i1 %cmp
55 define i1 @test_urem_negative_odd(i9 %X) nounwind {
56 ; CHECK-LABEL: test_urem_negative_odd:
57 ; CHECK:       ; %bb.0:
58 ; CHECK-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
59 ; CHECK-NEXT:    s_movk_i32 s4, 0x1ff
60 ; CHECK-NEXT:    v_and_b32_e32 v0, s4, v0
61 ; CHECK-NEXT:    v_mul_u32_u24_e32 v0, 0x133, v0
62 ; CHECK-NEXT:    v_and_b32_e32 v0, s4, v0
63 ; CHECK-NEXT:    v_cmp_lt_u32_e32 vcc, 1, v0
64 ; CHECK-NEXT:    v_cndmask_b32_e64 v0, 0, 1, vcc
65 ; CHECK-NEXT:    s_setpc_b64 s[30:31]
66   %urem = urem i9 %X, -5
67   %cmp = icmp ne i9 %urem, 0
68   ret i1 %cmp
71 define <3 x i1> @test_urem_vec(<3 x i11> %X) nounwind {
72 ; CHECK-LABEL: test_urem_vec:
73 ; CHECK:       ; %bb.0:
74 ; CHECK-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
75 ; CHECK-NEXT:    s_movk_i32 s4, 0x7ff
76 ; CHECK-NEXT:    s_mov_b32 s5, 0x8311eb33
77 ; CHECK-NEXT:    s_mov_b32 s6, 0x20140c
78 ; CHECK-NEXT:    s_mov_b32 s7, 0xb6db6db7
79 ; CHECK-NEXT:    s_mov_b32 s11, 0x49249249
80 ; CHECK-NEXT:    s_mov_b32 s8, 0x24924924
81 ; CHECK-NEXT:    s_mov_b32 s9, 0xaaaaaaab
82 ; CHECK-NEXT:    s_mov_b32 s10, 0x2aaaaaaa
83 ; CHECK-NEXT:    v_and_b32_e32 v0, s4, v0
84 ; CHECK-NEXT:    v_and_b32_e32 v1, s4, v1
85 ; CHECK-NEXT:    v_and_b32_e32 v2, s4, v2
86 ; CHECK-NEXT:    v_mul_lo_u32 v2, v2, s5
87 ; CHECK-NEXT:    v_mul_lo_u32 v1, v1, s7
88 ; CHECK-NEXT:    v_mul_lo_u32 v0, v0, s9
89 ; CHECK-NEXT:    v_add_i32_e32 v2, vcc, 0xf9dc299a, v2
90 ; CHECK-NEXT:    v_add_i32_e32 v1, vcc, s11, v1
91 ; CHECK-NEXT:    v_alignbit_b32 v0, v0, v0, 1
92 ; CHECK-NEXT:    v_cmp_lt_u32_e32 vcc, s10, v0
93 ; CHECK-NEXT:    v_cndmask_b32_e64 v0, 0, 1, vcc
94 ; CHECK-NEXT:    v_cmp_lt_u32_e32 vcc, s8, v1
95 ; CHECK-NEXT:    v_cndmask_b32_e64 v1, 0, 1, vcc
96 ; CHECK-NEXT:    v_cmp_lt_u32_e32 vcc, s6, v2
97 ; CHECK-NEXT:    v_cndmask_b32_e64 v2, 0, 1, vcc
98 ; CHECK-NEXT:    s_setpc_b64 s[30:31]
99   %urem = urem <3 x i11> %X, <i11 6, i11 7, i11 -5>
100   %cmp = icmp ne <3 x i11> %urem, <i11 0, i11 1, i11 2>
101   ret <3 x i1> %cmp