mirror of https://github.com/xemu-project/xemu.git
target/arm: Convert SQSHL, UQSHL, SQSHLU (immediate) to decodetree
Reviewed-by: Peter Maydell <peter.maydell@linaro.org> Signed-off-by: Richard Henderson <richard.henderson@linaro.org> Message-id: 20240912024114.1097832-28-richard.henderson@linaro.org Signed-off-by: Peter Maydell <peter.maydell@linaro.org>
This commit is contained in:
parent
3e683f0a8c
commit
6e1ae741f9
|
@ -1287,11 +1287,30 @@ RSHRN_v 0.00 11110 .... ... 10001 1 ..... ..... @q_shri_b
|
||||||
RSHRN_v 0.00 11110 .... ... 10001 1 ..... ..... @q_shri_h
|
RSHRN_v 0.00 11110 .... ... 10001 1 ..... ..... @q_shri_h
|
||||||
RSHRN_v 0.00 11110 .... ... 10001 1 ..... ..... @q_shri_s
|
RSHRN_v 0.00 11110 .... ... 10001 1 ..... ..... @q_shri_s
|
||||||
|
|
||||||
|
SQSHL_vi 0.00 11110 .... ... 01110 1 ..... ..... @q_shli_b
|
||||||
|
SQSHL_vi 0.00 11110 .... ... 01110 1 ..... ..... @q_shli_h
|
||||||
|
SQSHL_vi 0.00 11110 .... ... 01110 1 ..... ..... @q_shli_s
|
||||||
|
SQSHL_vi 0.00 11110 .... ... 01110 1 ..... ..... @q_shli_d
|
||||||
|
|
||||||
|
UQSHL_vi 0.10 11110 .... ... 01110 1 ..... ..... @q_shli_b
|
||||||
|
UQSHL_vi 0.10 11110 .... ... 01110 1 ..... ..... @q_shli_h
|
||||||
|
UQSHL_vi 0.10 11110 .... ... 01110 1 ..... ..... @q_shli_s
|
||||||
|
UQSHL_vi 0.10 11110 .... ... 01110 1 ..... ..... @q_shli_d
|
||||||
|
|
||||||
|
SQSHLU_vi 0.10 11110 .... ... 01100 1 ..... ..... @q_shli_b
|
||||||
|
SQSHLU_vi 0.10 11110 .... ... 01100 1 ..... ..... @q_shli_h
|
||||||
|
SQSHLU_vi 0.10 11110 .... ... 01100 1 ..... ..... @q_shli_s
|
||||||
|
SQSHLU_vi 0.10 11110 .... ... 01100 1 ..... ..... @q_shli_d
|
||||||
|
|
||||||
# Advanced SIMD scalar shift by immediate
|
# Advanced SIMD scalar shift by immediate
|
||||||
|
|
||||||
@shri_d .... ..... 1 ...... ..... . rn:5 rd:5 \
|
@shri_d .... ..... 1 ...... ..... . rn:5 rd:5 \
|
||||||
&rri_e esz=3 imm=%neon_rshift_i6
|
&rri_e esz=3 imm=%neon_rshift_i6
|
||||||
@shli_d .... ..... 1 imm:6 ..... . rn:5 rd:5 &rri_e esz=3
|
|
||||||
|
@shli_b .... ..... 0001 imm:3 ..... . rn:5 rd:5 &rri_e esz=0
|
||||||
|
@shli_h .... ..... 001 imm:4 ..... . rn:5 rd:5 &rri_e esz=1
|
||||||
|
@shli_s .... ..... 01 imm:5 ..... . rn:5 rd:5 &rri_e esz=2
|
||||||
|
@shli_d .... ..... 1 imm:6 ..... . rn:5 rd:5 &rri_e esz=3
|
||||||
|
|
||||||
SSHR_s 0101 11110 .... ... 00000 1 ..... ..... @shri_d
|
SSHR_s 0101 11110 .... ... 00000 1 ..... ..... @shri_d
|
||||||
USHR_s 0111 11110 .... ... 00000 1 ..... ..... @shri_d
|
USHR_s 0111 11110 .... ... 00000 1 ..... ..... @shri_d
|
||||||
|
@ -1305,3 +1324,18 @@ SRI_s 0111 11110 .... ... 01000 1 ..... ..... @shri_d
|
||||||
|
|
||||||
SHL_s 0101 11110 .... ... 01010 1 ..... ..... @shli_d
|
SHL_s 0101 11110 .... ... 01010 1 ..... ..... @shli_d
|
||||||
SLI_s 0111 11110 .... ... 01010 1 ..... ..... @shli_d
|
SLI_s 0111 11110 .... ... 01010 1 ..... ..... @shli_d
|
||||||
|
|
||||||
|
SQSHL_si 0101 11110 .... ... 01110 1 ..... ..... @shli_b
|
||||||
|
SQSHL_si 0101 11110 .... ... 01110 1 ..... ..... @shli_h
|
||||||
|
SQSHL_si 0101 11110 .... ... 01110 1 ..... ..... @shli_s
|
||||||
|
SQSHL_si 0101 11110 .... ... 01110 1 ..... ..... @shli_d
|
||||||
|
|
||||||
|
UQSHL_si 0111 11110 .... ... 01110 1 ..... ..... @shli_b
|
||||||
|
UQSHL_si 0111 11110 .... ... 01110 1 ..... ..... @shli_h
|
||||||
|
UQSHL_si 0111 11110 .... ... 01110 1 ..... ..... @shli_s
|
||||||
|
UQSHL_si 0111 11110 .... ... 01110 1 ..... ..... @shli_d
|
||||||
|
|
||||||
|
SQSHLU_si 0111 11110 .... ... 01100 1 ..... ..... @shli_b
|
||||||
|
SQSHLU_si 0111 11110 .... ... 01100 1 ..... ..... @shli_h
|
||||||
|
SQSHLU_si 0111 11110 .... ... 01100 1 ..... ..... @shli_s
|
||||||
|
SQSHLU_si 0111 11110 .... ... 01100 1 ..... ..... @shli_d
|
||||||
|
|
|
@ -6982,6 +6982,9 @@ TRANS(URSRA_v, do_vec_shift_imm, a, gen_gvec_ursra)
|
||||||
TRANS(SRI_v, do_vec_shift_imm, a, gen_gvec_sri)
|
TRANS(SRI_v, do_vec_shift_imm, a, gen_gvec_sri)
|
||||||
TRANS(SHL_v, do_vec_shift_imm, a, tcg_gen_gvec_shli)
|
TRANS(SHL_v, do_vec_shift_imm, a, tcg_gen_gvec_shli)
|
||||||
TRANS(SLI_v, do_vec_shift_imm, a, gen_gvec_sli);
|
TRANS(SLI_v, do_vec_shift_imm, a, gen_gvec_sli);
|
||||||
|
TRANS(SQSHL_vi, do_vec_shift_imm, a, gen_neon_sqshli)
|
||||||
|
TRANS(UQSHL_vi, do_vec_shift_imm, a, gen_neon_uqshli)
|
||||||
|
TRANS(SQSHLU_vi, do_vec_shift_imm, a, gen_neon_sqshlui)
|
||||||
|
|
||||||
static bool do_vec_shift_imm_wide(DisasContext *s, arg_qrri_e *a, bool is_u)
|
static bool do_vec_shift_imm_wide(DisasContext *s, arg_qrri_e *a, bool is_u)
|
||||||
{
|
{
|
||||||
|
@ -7209,6 +7212,92 @@ TRANS(SRI_s, do_scalar_shift_imm, a, gen_sri_d, true, 0)
|
||||||
TRANS(SHL_s, do_scalar_shift_imm, a, tcg_gen_shli_i64, false, 0)
|
TRANS(SHL_s, do_scalar_shift_imm, a, tcg_gen_shli_i64, false, 0)
|
||||||
TRANS(SLI_s, do_scalar_shift_imm, a, gen_sli_d, true, 0)
|
TRANS(SLI_s, do_scalar_shift_imm, a, gen_sli_d, true, 0)
|
||||||
|
|
||||||
|
static void trunc_i64_env_imm(TCGv_i64 d, TCGv_i64 s, int64_t i,
|
||||||
|
NeonGenTwoOpEnvFn *fn)
|
||||||
|
{
|
||||||
|
TCGv_i32 t = tcg_temp_new_i32();
|
||||||
|
tcg_gen_extrl_i64_i32(t, s);
|
||||||
|
fn(t, tcg_env, t, tcg_constant_i32(i));
|
||||||
|
tcg_gen_extu_i32_i64(d, t);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_sqshli_b(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshl_s8);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_sqshli_h(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshl_s16);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_sqshli_s(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshl_s32);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_sqshli_d(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
gen_helper_neon_qshl_s64(d, tcg_env, s, tcg_constant_i64(i));
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_uqshli_b(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshl_u8);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_uqshli_h(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshl_u16);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_uqshli_s(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshl_u32);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_uqshli_d(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
gen_helper_neon_qshl_u64(d, tcg_env, s, tcg_constant_i64(i));
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_sqshlui_b(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshlu_s8);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_sqshlui_h(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshlu_s16);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_sqshlui_s(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
trunc_i64_env_imm(d, s, i, gen_helper_neon_qshlu_s32);
|
||||||
|
}
|
||||||
|
|
||||||
|
static void gen_sqshlui_d(TCGv_i64 d, TCGv_i64 s, int64_t i)
|
||||||
|
{
|
||||||
|
gen_helper_neon_qshlu_s64(d, tcg_env, s, tcg_constant_i64(i));
|
||||||
|
}
|
||||||
|
|
||||||
|
static WideShiftImmFn * const f_scalar_sqshli[] = {
|
||||||
|
gen_sqshli_b, gen_sqshli_h, gen_sqshli_s, gen_sqshli_d
|
||||||
|
};
|
||||||
|
|
||||||
|
static WideShiftImmFn * const f_scalar_uqshli[] = {
|
||||||
|
gen_uqshli_b, gen_uqshli_h, gen_uqshli_s, gen_uqshli_d
|
||||||
|
};
|
||||||
|
|
||||||
|
static WideShiftImmFn * const f_scalar_sqshlui[] = {
|
||||||
|
gen_sqshlui_b, gen_sqshlui_h, gen_sqshlui_s, gen_sqshlui_d
|
||||||
|
};
|
||||||
|
|
||||||
|
/* Note that the helpers sign-extend their inputs, so don't do it here. */
|
||||||
|
TRANS(SQSHL_si, do_scalar_shift_imm, a, f_scalar_sqshli[a->esz], false, 0)
|
||||||
|
TRANS(UQSHL_si, do_scalar_shift_imm, a, f_scalar_uqshli[a->esz], false, 0)
|
||||||
|
TRANS(SQSHLU_si, do_scalar_shift_imm, a, f_scalar_sqshlui[a->esz], false, 0)
|
||||||
|
|
||||||
/* Shift a TCGv src by TCGv shift_amount, put result in dst.
|
/* Shift a TCGv src by TCGv shift_amount, put result in dst.
|
||||||
* Note that it is the caller's responsibility to ensure that the
|
* Note that it is the caller's responsibility to ensure that the
|
||||||
* shift amount is in range (ie 0..31 or 0..63) and provide the ARM
|
* shift amount is in range (ie 0..31 or 0..63) and provide the ARM
|
||||||
|
@ -9501,116 +9590,6 @@ static void handle_vec_simd_sqshrn(DisasContext *s, bool is_scalar, bool is_q,
|
||||||
clear_vec_high(s, is_q, rd);
|
clear_vec_high(s, is_q, rd);
|
||||||
}
|
}
|
||||||
|
|
||||||
/* SQSHLU, UQSHL, SQSHL: saturating left shifts */
|
|
||||||
static void handle_simd_qshl(DisasContext *s, bool scalar, bool is_q,
|
|
||||||
bool src_unsigned, bool dst_unsigned,
|
|
||||||
int immh, int immb, int rn, int rd)
|
|
||||||
{
|
|
||||||
int immhb = immh << 3 | immb;
|
|
||||||
int size = 32 - clz32(immh) - 1;
|
|
||||||
int shift = immhb - (8 << size);
|
|
||||||
int pass;
|
|
||||||
|
|
||||||
assert(immh != 0);
|
|
||||||
assert(!(scalar && is_q));
|
|
||||||
|
|
||||||
if (!scalar) {
|
|
||||||
if (!is_q && extract32(immh, 3, 1)) {
|
|
||||||
unallocated_encoding(s);
|
|
||||||
return;
|
|
||||||
}
|
|
||||||
|
|
||||||
/* Since we use the variable-shift helpers we must
|
|
||||||
* replicate the shift count into each element of
|
|
||||||
* the tcg_shift value.
|
|
||||||
*/
|
|
||||||
switch (size) {
|
|
||||||
case 0:
|
|
||||||
shift |= shift << 8;
|
|
||||||
/* fall through */
|
|
||||||
case 1:
|
|
||||||
shift |= shift << 16;
|
|
||||||
break;
|
|
||||||
case 2:
|
|
||||||
case 3:
|
|
||||||
break;
|
|
||||||
default:
|
|
||||||
g_assert_not_reached();
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if (!fp_access_check(s)) {
|
|
||||||
return;
|
|
||||||
}
|
|
||||||
|
|
||||||
if (size == 3) {
|
|
||||||
TCGv_i64 tcg_shift = tcg_constant_i64(shift);
|
|
||||||
static NeonGenTwo64OpEnvFn * const fns[2][2] = {
|
|
||||||
{ gen_helper_neon_qshl_s64, gen_helper_neon_qshlu_s64 },
|
|
||||||
{ NULL, gen_helper_neon_qshl_u64 },
|
|
||||||
};
|
|
||||||
NeonGenTwo64OpEnvFn *genfn = fns[src_unsigned][dst_unsigned];
|
|
||||||
int maxpass = is_q ? 2 : 1;
|
|
||||||
|
|
||||||
for (pass = 0; pass < maxpass; pass++) {
|
|
||||||
TCGv_i64 tcg_op = tcg_temp_new_i64();
|
|
||||||
|
|
||||||
read_vec_element(s, tcg_op, rn, pass, MO_64);
|
|
||||||
genfn(tcg_op, tcg_env, tcg_op, tcg_shift);
|
|
||||||
write_vec_element(s, tcg_op, rd, pass, MO_64);
|
|
||||||
}
|
|
||||||
clear_vec_high(s, is_q, rd);
|
|
||||||
} else {
|
|
||||||
TCGv_i32 tcg_shift = tcg_constant_i32(shift);
|
|
||||||
static NeonGenTwoOpEnvFn * const fns[2][2][3] = {
|
|
||||||
{
|
|
||||||
{ gen_helper_neon_qshl_s8,
|
|
||||||
gen_helper_neon_qshl_s16,
|
|
||||||
gen_helper_neon_qshl_s32 },
|
|
||||||
{ gen_helper_neon_qshlu_s8,
|
|
||||||
gen_helper_neon_qshlu_s16,
|
|
||||||
gen_helper_neon_qshlu_s32 }
|
|
||||||
}, {
|
|
||||||
{ NULL, NULL, NULL },
|
|
||||||
{ gen_helper_neon_qshl_u8,
|
|
||||||
gen_helper_neon_qshl_u16,
|
|
||||||
gen_helper_neon_qshl_u32 }
|
|
||||||
}
|
|
||||||
};
|
|
||||||
NeonGenTwoOpEnvFn *genfn = fns[src_unsigned][dst_unsigned][size];
|
|
||||||
MemOp memop = scalar ? size : MO_32;
|
|
||||||
int maxpass = scalar ? 1 : is_q ? 4 : 2;
|
|
||||||
|
|
||||||
for (pass = 0; pass < maxpass; pass++) {
|
|
||||||
TCGv_i32 tcg_op = tcg_temp_new_i32();
|
|
||||||
|
|
||||||
read_vec_element_i32(s, tcg_op, rn, pass, memop);
|
|
||||||
genfn(tcg_op, tcg_env, tcg_op, tcg_shift);
|
|
||||||
if (scalar) {
|
|
||||||
switch (size) {
|
|
||||||
case 0:
|
|
||||||
tcg_gen_ext8u_i32(tcg_op, tcg_op);
|
|
||||||
break;
|
|
||||||
case 1:
|
|
||||||
tcg_gen_ext16u_i32(tcg_op, tcg_op);
|
|
||||||
break;
|
|
||||||
case 2:
|
|
||||||
break;
|
|
||||||
default:
|
|
||||||
g_assert_not_reached();
|
|
||||||
}
|
|
||||||
write_fp_sreg(s, rd, tcg_op);
|
|
||||||
} else {
|
|
||||||
write_vec_element_i32(s, tcg_op, rd, pass, MO_32);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
if (!scalar) {
|
|
||||||
clear_vec_high(s, is_q, rd);
|
|
||||||
}
|
|
||||||
}
|
|
||||||
}
|
|
||||||
|
|
||||||
/* Common vector code for handling integer to FP conversion */
|
/* Common vector code for handling integer to FP conversion */
|
||||||
static void handle_simd_intfp_conv(DisasContext *s, int rd, int rn,
|
static void handle_simd_intfp_conv(DisasContext *s, int rd, int rn,
|
||||||
int elements, int is_signed,
|
int elements, int is_signed,
|
||||||
|
@ -9890,16 +9869,6 @@ static void disas_simd_scalar_shift_imm(DisasContext *s, uint32_t insn)
|
||||||
handle_vec_simd_sqshrn(s, true, false, is_u, is_u,
|
handle_vec_simd_sqshrn(s, true, false, is_u, is_u,
|
||||||
immh, immb, opcode, rn, rd);
|
immh, immb, opcode, rn, rd);
|
||||||
break;
|
break;
|
||||||
case 0xc: /* SQSHLU */
|
|
||||||
if (!is_u) {
|
|
||||||
unallocated_encoding(s);
|
|
||||||
return;
|
|
||||||
}
|
|
||||||
handle_simd_qshl(s, true, false, false, true, immh, immb, rn, rd);
|
|
||||||
break;
|
|
||||||
case 0xe: /* SQSHL, UQSHL */
|
|
||||||
handle_simd_qshl(s, true, false, is_u, is_u, immh, immb, rn, rd);
|
|
||||||
break;
|
|
||||||
case 0x1f: /* FCVTZS, FCVTZU */
|
case 0x1f: /* FCVTZS, FCVTZU */
|
||||||
handle_simd_shift_fpint_conv(s, true, false, is_u, immh, immb, rn, rd);
|
handle_simd_shift_fpint_conv(s, true, false, is_u, immh, immb, rn, rd);
|
||||||
break;
|
break;
|
||||||
|
@ -9910,6 +9879,8 @@ static void disas_simd_scalar_shift_imm(DisasContext *s, uint32_t insn)
|
||||||
case 0x06: /* SRSRA / URSRA */
|
case 0x06: /* SRSRA / URSRA */
|
||||||
case 0x08: /* SRI */
|
case 0x08: /* SRI */
|
||||||
case 0x0a: /* SHL / SLI */
|
case 0x0a: /* SHL / SLI */
|
||||||
|
case 0x0c: /* SQSHLU */
|
||||||
|
case 0x0e: /* SQSHL, UQSHL */
|
||||||
unallocated_encoding(s);
|
unallocated_encoding(s);
|
||||||
break;
|
break;
|
||||||
}
|
}
|
||||||
|
@ -10561,16 +10532,6 @@ static void disas_simd_shift_imm(DisasContext *s, uint32_t insn)
|
||||||
handle_simd_shift_intfp_conv(s, false, is_q, is_u, immh, immb,
|
handle_simd_shift_intfp_conv(s, false, is_q, is_u, immh, immb,
|
||||||
opcode, rn, rd);
|
opcode, rn, rd);
|
||||||
break;
|
break;
|
||||||
case 0xc: /* SQSHLU */
|
|
||||||
if (!is_u) {
|
|
||||||
unallocated_encoding(s);
|
|
||||||
return;
|
|
||||||
}
|
|
||||||
handle_simd_qshl(s, false, is_q, false, true, immh, immb, rn, rd);
|
|
||||||
break;
|
|
||||||
case 0xe: /* SQSHL, UQSHL */
|
|
||||||
handle_simd_qshl(s, false, is_q, is_u, is_u, immh, immb, rn, rd);
|
|
||||||
break;
|
|
||||||
case 0x1f: /* FCVTZS/ FCVTZU */
|
case 0x1f: /* FCVTZS/ FCVTZU */
|
||||||
handle_simd_shift_fpint_conv(s, false, is_q, is_u, immh, immb, rn, rd);
|
handle_simd_shift_fpint_conv(s, false, is_q, is_u, immh, immb, rn, rd);
|
||||||
return;
|
return;
|
||||||
|
@ -10581,6 +10542,8 @@ static void disas_simd_shift_imm(DisasContext *s, uint32_t insn)
|
||||||
case 0x06: /* SRSRA / URSRA (accum + rounding) */
|
case 0x06: /* SRSRA / URSRA (accum + rounding) */
|
||||||
case 0x08: /* SRI */
|
case 0x08: /* SRI */
|
||||||
case 0x0a: /* SHL / SLI */
|
case 0x0a: /* SHL / SLI */
|
||||||
|
case 0x0c: /* SQSHLU */
|
||||||
|
case 0x0e: /* SQSHL, UQSHL */
|
||||||
case 0x14: /* SSHLL / USHLL */
|
case 0x14: /* SSHLL / USHLL */
|
||||||
unallocated_encoding(s);
|
unallocated_encoding(s);
|
||||||
return;
|
return;
|
||||||
|
|
Loading…
Reference in New Issue