Index: source/row_msa.cc |
diff --git a/source/row_msa.cc b/source/row_msa.cc |
index acc60520af6dc8a5b1ada6fade21e7f391cea9a9..3a55b0b7554a2a0e4506a633e73242c879187f74 100644 |
--- a/source/row_msa.cc |
+++ b/source/row_msa.cc |
@@ -221,6 +221,195 @@ void UYVYToUV422Row_MSA(const uint8* src_uyvy, uint8* dst_u, uint8* dst_v, |
} |
} |
+void ARGBToYRow_MSA(const uint8* src_argb0, uint8* dst_y, int width) { |
+ int x; |
+ v16u8 src0, src1, src2, src3, vec0, vec1, vec2, vec3, dst0; |
+ v8u16 reg0, reg1, reg2, reg3, reg4, reg5; |
+ v16i8 zero = { 0 }; |
+ v8u16 const_0x19 = (v8u16) __msa_ldi_h(0x19); |
+ v8u16 const_0x81 = (v8u16) __msa_ldi_h(0x81); |
+ v8u16 const_0x42 = (v8u16) __msa_ldi_h(0x42); |
+ v8u16 const_0x1080 = (v8u16) __msa_fill_h(0x1080); |
+ |
+ for (x = 0; x < width; x += 16) { |
+ src0 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 0); |
+ src1 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 16); |
+ src2 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 32); |
+ src3 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 48); |
+ vec0 = (v16u8) __msa_pckev_b((v16i8) src1, (v16i8) src0); |
+ vec1 = (v16u8) __msa_pckev_b((v16i8) src3, (v16i8) src2); |
+ vec2 = (v16u8) __msa_pckod_b((v16i8) src1, (v16i8) src0); |
+ vec3 = (v16u8) __msa_pckod_b((v16i8) src3, (v16i8) src2); |
+ reg0 = (v8u16) __msa_ilvev_b(zero, (v16i8) vec0); |
+ reg1 = (v8u16) __msa_ilvev_b(zero, (v16i8) vec1); |
+ reg2 = (v8u16) __msa_ilvev_b(zero, (v16i8) vec2); |
+ reg3 = (v8u16) __msa_ilvev_b(zero, (v16i8) vec3); |
+ reg4 = (v8u16) __msa_ilvod_b(zero, (v16i8) vec0); |
+ reg5 = (v8u16) __msa_ilvod_b(zero, (v16i8) vec1); |
+ reg0 *= const_0x19; |
+ reg1 *= const_0x19; |
+ reg2 *= const_0x81; |
+ reg3 *= const_0x81; |
+ reg4 *= const_0x42; |
+ reg5 *= const_0x42; |
+ reg0 += reg2; |
+ reg1 += reg3; |
+ reg0 += reg4; |
+ reg1 += reg5; |
+ reg0 += const_0x1080; |
+ reg1 += const_0x1080; |
+ reg0 = (v8u16) __msa_srai_h((v8i16) reg0, 8); |
+ reg1 = (v8u16) __msa_srai_h((v8i16) reg1, 8); |
+ dst0 = (v16u8) __msa_pckev_b((v16i8) reg1, (v16i8) reg0); |
+ ST_UB(dst0, dst_y); |
+ src_argb0 += 64; |
+ dst_y += 16; |
+ } |
+} |
+ |
+void ARGBToUVRow_MSA(const uint8* src_argb0, int src_stride_argb, |
fbarchard1
2016/10/19 18:10:33
this is kinda HUGE! But I see it does a 16 byte s
|
+ uint8* dst_u, uint8* dst_v, int width) { |
+ int x; |
+ const uint8* src_argb0_next = src_argb0 + src_stride_argb; |
+ v16u8 src0, src1, src2, src3, src4, src5, src6, src7; |
+ v16u8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9; |
+ v8u16 reg0, reg1, reg2, reg3, reg4, reg5, reg6, reg7, reg8, reg9; |
+ v16u8 dst0, dst1; |
+ v8u16 const_0x70 = (v8u16) __msa_ldi_h(0x70); |
+ v8u16 const_0x4A = (v8u16) __msa_ldi_h(0x4A); |
+ v8u16 const_0x26 = (v8u16) __msa_ldi_h(0x26); |
+ v8u16 const_0x5E = (v8u16) __msa_ldi_h(0x5E); |
+ v8u16 const_0x12 = (v8u16) __msa_ldi_h(0x12); |
+ v8u16 const_0x8080 = (v8u16) __msa_fill_h(0x8080); |
+ |
+ for (x = 0; x < width; x += 32) { |
+ src0 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 0); |
+ src1 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 16); |
+ src2 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 32); |
+ src3 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 48); |
+ src4 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 64); |
+ src5 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 80); |
+ src6 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 96); |
+ src7 = (v16u8) __msa_ld_b((v16u8*) src_argb0, 112); |
+ vec0 = (v16u8) __msa_pckev_b((v16i8) src1, (v16i8) src0); |
+ vec1 = (v16u8) __msa_pckev_b((v16i8) src3, (v16i8) src2); |
+ vec2 = (v16u8) __msa_pckev_b((v16i8) src5, (v16i8) src4); |
+ vec3 = (v16u8) __msa_pckev_b((v16i8) src7, (v16i8) src6); |
+ vec4 = (v16u8) __msa_pckod_b((v16i8) src1, (v16i8) src0); |
+ vec5 = (v16u8) __msa_pckod_b((v16i8) src3, (v16i8) src2); |
+ vec6 = (v16u8) __msa_pckod_b((v16i8) src5, (v16i8) src4); |
+ vec7 = (v16u8) __msa_pckod_b((v16i8) src7, (v16i8) src6); |
+ vec8 = (v16u8) __msa_pckev_b((v16i8) vec1, (v16i8) vec0); |
+ vec9 = (v16u8) __msa_pckev_b((v16i8) vec3, (v16i8) vec2); |
+ vec4 = (v16u8) __msa_pckev_b((v16i8) vec5, (v16i8) vec4); |
+ vec5 = (v16u8) __msa_pckev_b((v16i8) vec7, (v16i8) vec6); |
+ vec0 = (v16u8) __msa_pckod_b((v16i8) vec1, (v16i8) vec0); |
+ vec1 = (v16u8) __msa_pckod_b((v16i8) vec3, (v16i8) vec2); |
+ reg0 = __msa_hadd_u_h(vec8, vec8); |
+ reg1 = __msa_hadd_u_h(vec9, vec9); |
+ reg2 = __msa_hadd_u_h(vec4, vec4); |
+ reg3 = __msa_hadd_u_h(vec5, vec5); |
+ reg4 = __msa_hadd_u_h(vec0, vec0); |
+ reg5 = __msa_hadd_u_h(vec1, vec1); |
+ src0 = (v16u8) __msa_ld_b((v16u8*) src_argb0_next, 0); |
+ src1 = (v16u8) __msa_ld_b((v16u8*) src_argb0_next, 16); |
+ src2 = (v16u8) __msa_ld_b((v16u8*) src_argb0_next, 32); |
+ src3 = (v16u8) __msa_ld_b((v16u8*) src_argb0_next, 48); |
+ src4 = (v16u8) __msa_ld_b((v16u8*) src_argb0_next, 64); |
+ src5 = (v16u8) __msa_ld_b((v16u8*) src_argb0_next, 80); |
+ src6 = (v16u8) __msa_ld_b((v16u8*) src_argb0_next, 96); |
+ src7 = (v16u8) __msa_ld_b((v16u8*) src_argb0_next, 112); |
+ vec0 = (v16u8) __msa_pckev_b((v16i8) src1, (v16i8) src0); |
+ vec1 = (v16u8) __msa_pckev_b((v16i8) src3, (v16i8) src2); |
+ vec2 = (v16u8) __msa_pckev_b((v16i8) src5, (v16i8) src4); |
+ vec3 = (v16u8) __msa_pckev_b((v16i8) src7, (v16i8) src6); |
+ vec4 = (v16u8) __msa_pckod_b((v16i8) src1, (v16i8) src0); |
+ vec5 = (v16u8) __msa_pckod_b((v16i8) src3, (v16i8) src2); |
+ vec6 = (v16u8) __msa_pckod_b((v16i8) src5, (v16i8) src4); |
+ vec7 = (v16u8) __msa_pckod_b((v16i8) src7, (v16i8) src6); |
+ vec8 = (v16u8) __msa_pckev_b((v16i8) vec1, (v16i8) vec0); |
+ vec9 = (v16u8) __msa_pckev_b((v16i8) vec3, (v16i8) vec2); |
+ vec4 = (v16u8) __msa_pckev_b((v16i8) vec5, (v16i8) vec4); |
+ vec5 = (v16u8) __msa_pckev_b((v16i8) vec7, (v16i8) vec6); |
+ vec0 = (v16u8) __msa_pckod_b((v16i8) vec1, (v16i8) vec0); |
+ vec1 = (v16u8) __msa_pckod_b((v16i8) vec3, (v16i8) vec2); |
+ reg0 += __msa_hadd_u_h(vec8, vec8); |
+ reg1 += __msa_hadd_u_h(vec9, vec9); |
+ reg2 += __msa_hadd_u_h(vec4, vec4); |
+ reg3 += __msa_hadd_u_h(vec5, vec5); |
+ reg4 += __msa_hadd_u_h(vec0, vec0); |
+ reg5 += __msa_hadd_u_h(vec1, vec1); |
+ reg0 = (v8u16) __msa_srai_h((v8i16) reg0, 2); |
+ reg1 = (v8u16) __msa_srai_h((v8i16) reg1, 2); |
+ reg2 = (v8u16) __msa_srai_h((v8i16) reg2, 2); |
+ reg3 = (v8u16) __msa_srai_h((v8i16) reg3, 2); |
+ reg4 = (v8u16) __msa_srai_h((v8i16) reg4, 2); |
+ reg5 = (v8u16) __msa_srai_h((v8i16) reg5, 2); |
+ reg6 = reg0 * const_0x70; |
+ reg7 = reg1 * const_0x70; |
+ reg8 = reg2 * const_0x4A; |
+ reg9 = reg3 * const_0x4A; |
+ reg6 += const_0x8080; |
+ reg7 += const_0x8080; |
+ reg8 += reg4 * const_0x26; |
+ reg9 += reg5 * const_0x26; |
+ reg0 *= const_0x12; |
+ reg1 *= const_0x12; |
+ reg2 *= const_0x5E; |
+ reg3 *= const_0x5E; |
+ reg4 *= const_0x70; |
+ reg5 *= const_0x70; |
+ reg2 += reg0; |
+ reg3 += reg1; |
+ reg4 += const_0x8080; |
+ reg5 += const_0x8080; |
+ reg6 -= reg8; |
+ reg7 -= reg9; |
+ reg4 -= reg2; |
+ reg5 -= reg3; |
+ reg6 = (v8u16) __msa_srai_h((v8i16) reg6, 8); |
+ reg7 = (v8u16) __msa_srai_h((v8i16) reg7, 8); |
+ reg4 = (v8u16) __msa_srai_h((v8i16) reg4, 8); |
+ reg5 = (v8u16) __msa_srai_h((v8i16) reg5, 8); |
+ dst0 = (v16u8) __msa_pckev_b((v16i8) reg7, (v16i8) reg6); |
+ dst1 = (v16u8) __msa_pckev_b((v16i8) reg5, (v16i8) reg4); |
+ ST_UB(dst0, dst_u); |
+ ST_UB(dst1, dst_v); |
+ src_argb0 += 128; |
+ src_argb0_next += 128; |
+ dst_u += 16; |
+ dst_v += 16; |
+ } |
+} |
+ |
+void ARGB4444ToARGBRow_MSA(const uint8* src_argb4444, uint8* dst_argb, |
+ int width) { |
+ int x; |
+ v16u8 src0, src1; |
+ v8u16 vec0, vec1, vec2, vec3; |
+ v16u8 dst0, dst1, dst2, dst3; |
+ |
+ for (x = 0; x < width; x += 16) { |
+ src0 = (v16u8) __msa_ld_b((v16u8*) src_argb4444, 0); |
+ src1 = (v16u8) __msa_ld_b((v16u8*) src_argb4444, 16); |
+ vec0 = (v8u16) __msa_andi_b(src0, 0x0F); |
+ vec1 = (v8u16) __msa_andi_b(src1, 0x0F); |
+ vec2 = (v8u16) __msa_andi_b(src0, 0xF0); |
+ vec3 = (v8u16) __msa_andi_b(src1, 0xF0); |
+ vec0 |= (v8u16) __msa_slli_b((v16i8) vec0, 4); |
+ vec1 |= (v8u16) __msa_slli_b((v16i8) vec1, 4); |
+ vec2 |= (v8u16) __msa_srli_b((v16i8) vec2, 4); |
+ vec3 |= (v8u16) __msa_srli_b((v16i8) vec3, 4); |
+ dst0 = (v16u8) __msa_ilvr_b((v16i8) vec2, (v16i8) vec0); |
+ dst1 = (v16u8) __msa_ilvl_b((v16i8) vec2, (v16i8) vec0); |
+ dst2 = (v16u8) __msa_ilvr_b((v16i8) vec3, (v16i8) vec1); |
+ dst3 = (v16u8) __msa_ilvl_b((v16i8) vec3, (v16i8) vec1); |
+ ST_UB4(dst0, dst1, dst2, dst3, dst_argb, 16); |
+ src_argb4444 += 32; |
+ dst_argb += 64; |
+ } |
+} |
+ |
#ifdef __cplusplus |
} // extern "C" |
} // namespace libyuv |