1 ; RUN: llc < %s -disable-mmx -march=x86-64 -mattr=+sse42 | FileCheck %s
3 ; Verify when widening a divide/remainder operation, we only generate a
4 ; divide/rem per element since divide/remainder can trap.
6 define void @vectorDiv (<2 x i32> addrspace(1)* %nsource, <2 x i32> addrspace(1)* %dsource, <2 x i32> addrspace(1)* %qdest) nounwind {
12 %nsource.addr = alloca <2 x i32> addrspace(1)*, align 4
13 %dsource.addr = alloca <2 x i32> addrspace(1)*, align 4
14 %qdest.addr = alloca <2 x i32> addrspace(1)*, align 4
15 %index = alloca i32, align 4
16 store <2 x i32> addrspace(1)* %nsource, <2 x i32> addrspace(1)** %nsource.addr
17 store <2 x i32> addrspace(1)* %dsource, <2 x i32> addrspace(1)** %dsource.addr
18 store <2 x i32> addrspace(1)* %qdest, <2 x i32> addrspace(1)** %qdest.addr
19 %tmp = load <2 x i32> addrspace(1)** %qdest.addr
20 %tmp1 = load i32* %index
21 %arrayidx = getelementptr <2 x i32> addrspace(1)* %tmp, i32 %tmp1
22 %tmp2 = load <2 x i32> addrspace(1)** %nsource.addr
23 %tmp3 = load i32* %index
24 %arrayidx4 = getelementptr <2 x i32> addrspace(1)* %tmp2, i32 %tmp3
25 %tmp5 = load <2 x i32> addrspace(1)* %arrayidx4
26 %tmp6 = load <2 x i32> addrspace(1)** %dsource.addr
27 %tmp7 = load i32* %index
28 %arrayidx8 = getelementptr <2 x i32> addrspace(1)* %tmp6, i32 %tmp7
29 %tmp9 = load <2 x i32> addrspace(1)* %arrayidx8
30 %tmp10 = sdiv <2 x i32> %tmp5, %tmp9
31 store <2 x i32> %tmp10, <2 x i32> addrspace(1)* %arrayidx
35 define <3 x i8> @test_char_div(<3 x i8> %num, <3 x i8> %div) {
41 %div.r = sdiv <3 x i8> %num, %div
45 define <3 x i8> @test_uchar_div(<3 x i8> %num, <3 x i8> %div) {
51 %div.r = udiv <3 x i8> %num, %div
55 define <5 x i16> @test_short_div(<5 x i16> %num, <5 x i16> %div) {
63 %div.r = sdiv <5 x i16> %num, %div
67 define <4 x i16> @test_ushort_div(<4 x i16> %num, <4 x i16> %div) {
74 %div.r = udiv <4 x i16> %num, %div
78 define <3 x i32> @test_uint_div(<3 x i32> %num, <3 x i32> %div) {
84 %div.r = udiv <3 x i32> %num, %div
88 define <3 x i64> @test_long_div(<3 x i64> %num, <3 x i64> %div) {
94 %div.r = sdiv <3 x i64> %num, %div
98 define <3 x i64> @test_ulong_div(<3 x i64> %num, <3 x i64> %div) {
104 %div.r = udiv <3 x i64> %num, %div
109 define <4 x i8> @test_char_rem(<4 x i8> %num, <4 x i8> %rem) {
116 %rem.r = srem <4 x i8> %num, %rem
120 define <5 x i16> @test_short_rem(<5 x i16> %num, <5 x i16> %rem) {
128 %rem.r = srem <5 x i16> %num, %rem
132 define <4 x i32> @test_uint_rem(<4 x i32> %num, <4 x i32> %rem) {
139 %rem.r = srem <4 x i32> %num, %rem
144 define <5 x i64> @test_ulong_rem(<5 x i64> %num, <5 x i64> %rem) {
152 %rem.r = urem <5 x i64> %num, %rem
156 define void @test_int_div(<3 x i32>* %dest, <3 x i32>* %old, i32 %n) {
163 %cmp13 = icmp sgt i32 %n, 0
164 br i1 %cmp13, label %bb.nph, label %for.end
170 %i.014 = phi i32 [ 0, %bb.nph ], [ %inc, %for.body ]
171 %arrayidx11 = getelementptr <3 x i32>* %dest, i32 %i.014
172 %tmp4 = load <3 x i32>* %arrayidx11 ; <<3 x i32>> [#uses=1]
173 %arrayidx7 = getelementptr inbounds <3 x i32>* %old, i32 %i.014
174 %tmp8 = load <3 x i32>* %arrayidx7 ; <<3 x i32>> [#uses=1]
175 %div = sdiv <3 x i32> %tmp4, %tmp8
176 store <3 x i32> %div, <3 x i32>* %arrayidx11
177 %inc = add nsw i32 %i.014, 1
178 %exitcond = icmp eq i32 %inc, %n
179 br i1 %exitcond, label %for.end, label %for.body
181 for.end: ; preds = %for.body, %entry