Index: tests_lit/llvm2ice_tests/vector-arith.ll |
diff --git a/tests_lit/llvm2ice_tests/vector-arith.ll b/tests_lit/llvm2ice_tests/vector-arith.ll |
index 69131df416882be2cfd1f351be37b052e3b26231..abf09e21b2475a17b08d24332942fe66f15cacb5 100644 |
--- a/tests_lit/llvm2ice_tests/vector-arith.ll |
+++ b/tests_lit/llvm2ice_tests/vector-arith.ll |
@@ -9,7 +9,7 @@ |
; RUN: %p2i -i %s --filetype=obj --disassemble -a -Om1 -mattr=sse4.1 \ |
; RUN: | FileCheck --check-prefix=SSE41 %s |
-define <4 x float> @test_fadd(<4 x float> %arg0, <4 x float> %arg1) { |
+define internal <4 x float> @test_fadd(<4 x float> %arg0, <4 x float> %arg1) { |
entry: |
%res = fadd <4 x float> %arg0, %arg1 |
ret <4 x float> %res |
@@ -17,7 +17,7 @@ entry: |
; CHECK: addps |
} |
-define <4 x float> @test_fsub(<4 x float> %arg0, <4 x float> %arg1) { |
+define internal <4 x float> @test_fsub(<4 x float> %arg0, <4 x float> %arg1) { |
entry: |
%res = fsub <4 x float> %arg0, %arg1 |
ret <4 x float> %res |
@@ -25,7 +25,7 @@ entry: |
; CHECK: subps |
} |
-define <4 x float> @test_fmul(<4 x float> %arg0, <4 x float> %arg1) { |
+define internal <4 x float> @test_fmul(<4 x float> %arg0, <4 x float> %arg1) { |
entry: |
%res = fmul <4 x float> %arg0, %arg1 |
ret <4 x float> %res |
@@ -33,7 +33,7 @@ entry: |
; CHECK: mulps |
} |
-define <4 x float> @test_fdiv(<4 x float> %arg0, <4 x float> %arg1) { |
+define internal <4 x float> @test_fdiv(<4 x float> %arg0, <4 x float> %arg1) { |
entry: |
%res = fdiv <4 x float> %arg0, %arg1 |
ret <4 x float> %res |
@@ -41,7 +41,7 @@ entry: |
; CHECK: divps |
} |
-define <4 x float> @test_frem(<4 x float> %arg0, <4 x float> %arg1) { |
+define internal <4 x float> @test_frem(<4 x float> %arg0, <4 x float> %arg1) { |
entry: |
%res = frem <4 x float> %arg0, %arg1 |
ret <4 x float> %res |
@@ -52,7 +52,7 @@ entry: |
; CHECK: fmodf |
} |
-define <16 x i8> @test_add_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_add_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = add <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -60,7 +60,7 @@ entry: |
; CHECK: paddb |
} |
-define <16 x i8> @test_and_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_and_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = and <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -68,7 +68,7 @@ entry: |
; CHECK: pand |
} |
-define <16 x i8> @test_or_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_or_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = or <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -76,7 +76,7 @@ entry: |
; CHECK: por |
} |
-define <16 x i8> @test_xor_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_xor_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = xor <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -84,7 +84,7 @@ entry: |
; CHECK: pxor |
} |
-define <16 x i8> @test_sub_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_sub_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = sub <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -92,7 +92,7 @@ entry: |
; CHECK: psubb |
} |
-define <16 x i8> @test_mul_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_mul_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = mul <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -115,7 +115,7 @@ entry: |
; CHECK: imul |
} |
-define <16 x i8> @test_shl_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_shl_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = shl <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -138,7 +138,7 @@ entry: |
; CHECK: shl |
} |
-define <16 x i8> @test_lshr_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_lshr_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = lshr <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -161,7 +161,7 @@ entry: |
; CHECK: shr |
} |
-define <16 x i8> @test_ashr_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_ashr_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = ashr <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -184,7 +184,7 @@ entry: |
; CHECK: sar |
} |
-define <16 x i8> @test_udiv_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_udiv_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = udiv <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -207,7 +207,7 @@ entry: |
; CHECK: div |
} |
-define <16 x i8> @test_sdiv_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_sdiv_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = sdiv <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -230,7 +230,7 @@ entry: |
; CHECK: idiv |
} |
-define <16 x i8> @test_urem_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_urem_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = urem <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -253,7 +253,7 @@ entry: |
; CHECK: div |
} |
-define <16 x i8> @test_srem_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
+define internal <16 x i8> @test_srem_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) { |
entry: |
%res = srem <16 x i8> %arg0, %arg1 |
ret <16 x i8> %res |
@@ -276,7 +276,7 @@ entry: |
; CHECK: idiv |
} |
-define <8 x i16> @test_add_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_add_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = add <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -284,7 +284,7 @@ entry: |
; CHECK: paddw |
} |
-define <8 x i16> @test_and_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_and_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = and <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -292,7 +292,7 @@ entry: |
; CHECK: pand |
} |
-define <8 x i16> @test_or_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_or_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = or <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -300,7 +300,7 @@ entry: |
; CHECK: por |
} |
-define <8 x i16> @test_xor_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_xor_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = xor <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -308,7 +308,7 @@ entry: |
; CHECK: pxor |
} |
-define <8 x i16> @test_sub_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_sub_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = sub <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -316,7 +316,7 @@ entry: |
; CHECK: psubw |
} |
-define <8 x i16> @test_mul_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_mul_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = mul <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -324,7 +324,7 @@ entry: |
; CHECK: pmullw |
} |
-define <8 x i16> @test_shl_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_shl_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = shl <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -339,7 +339,7 @@ entry: |
; CHECK: shl |
} |
-define <8 x i16> @test_lshr_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_lshr_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = lshr <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -354,7 +354,7 @@ entry: |
; CHECK: shr |
} |
-define <8 x i16> @test_ashr_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_ashr_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = ashr <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -369,7 +369,7 @@ entry: |
; CHECK: sar |
} |
-define <8 x i16> @test_udiv_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_udiv_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = udiv <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -384,7 +384,7 @@ entry: |
; CHECK: div |
} |
-define <8 x i16> @test_sdiv_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_sdiv_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = sdiv <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -399,7 +399,7 @@ entry: |
; CHECK: idiv |
} |
-define <8 x i16> @test_urem_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_urem_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = urem <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -414,7 +414,7 @@ entry: |
; CHECK: div |
} |
-define <8 x i16> @test_srem_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
+define internal <8 x i16> @test_srem_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) { |
entry: |
%res = srem <8 x i16> %arg0, %arg1 |
ret <8 x i16> %res |
@@ -429,7 +429,7 @@ entry: |
; CHECK: idiv |
} |
-define <4 x i32> @test_add_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_add_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = add <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -437,7 +437,7 @@ entry: |
; CHECK: paddd |
} |
-define <4 x i32> @test_and_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_and_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = and <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -445,7 +445,7 @@ entry: |
; CHECK: pand |
} |
-define <4 x i32> @test_or_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_or_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = or <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -453,7 +453,7 @@ entry: |
; CHECK: por |
} |
-define <4 x i32> @test_xor_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_xor_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = xor <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -461,7 +461,7 @@ entry: |
; CHECK: pxor |
} |
-define <4 x i32> @test_sub_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_sub_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = sub <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -469,7 +469,7 @@ entry: |
; CHECK: psubd |
} |
-define <4 x i32> @test_mul_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_mul_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = mul <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -481,7 +481,7 @@ entry: |
; SSE41: pmulld |
} |
-define <4 x i32> @test_shl_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_shl_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = shl <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -495,7 +495,7 @@ entry: |
; SSE41-LABEL: test_shl_v4i32 |
} |
-define <4 x i32> @test_lshr_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_lshr_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = lshr <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -506,7 +506,7 @@ entry: |
; CHECK: shr |
} |
-define <4 x i32> @test_ashr_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_ashr_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = ashr <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -517,7 +517,7 @@ entry: |
; CHECK: sar |
} |
-define <4 x i32> @test_udiv_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_udiv_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = udiv <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -528,7 +528,7 @@ entry: |
; CHECK: div |
} |
-define <4 x i32> @test_sdiv_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_sdiv_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = sdiv <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -539,7 +539,7 @@ entry: |
; CHECK: idiv |
} |
-define <4 x i32> @test_urem_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_urem_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = urem <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |
@@ -550,7 +550,7 @@ entry: |
; CHECK: div |
} |
-define <4 x i32> @test_srem_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
+define internal <4 x i32> @test_srem_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) { |
entry: |
%res = srem <4 x i32> %arg0, %arg1 |
ret <4 x i32> %res |