|
@@ -37,236 +37,143 @@
|
|
|
/* Bitfield n...m (in 32 bit value). */
|
|
|
#define BITS(n, m) (((0xffffffffU << (31 - n)) >> (31 - n + m)) << m)
|
|
|
|
|
|
-/* Macros used in tcg_target_op_defs. */
|
|
|
-#define R "r"
|
|
|
-#define RI "ri"
|
|
|
-#if TCG_TARGET_REG_BITS == 32
|
|
|
-# define R64 "r", "r"
|
|
|
-#else
|
|
|
-# define R64 "r"
|
|
|
-#endif
|
|
|
-#if TARGET_LONG_BITS > TCG_TARGET_REG_BITS
|
|
|
-# define L "L", "L"
|
|
|
-# define S "S", "S"
|
|
|
-#else
|
|
|
-# define L "L"
|
|
|
-# define S "S"
|
|
|
-#endif
|
|
|
-
|
|
|
-/* TODO: documentation. */
|
|
|
-static const TCGTargetOpDef tcg_target_op_defs[] = {
|
|
|
- { INDEX_op_exit_tb, { NULL } },
|
|
|
- { INDEX_op_goto_tb, { NULL } },
|
|
|
- { INDEX_op_br, { NULL } },
|
|
|
-
|
|
|
- { INDEX_op_ld8u_i32, { R, R } },
|
|
|
- { INDEX_op_ld8s_i32, { R, R } },
|
|
|
- { INDEX_op_ld16u_i32, { R, R } },
|
|
|
- { INDEX_op_ld16s_i32, { R, R } },
|
|
|
- { INDEX_op_ld_i32, { R, R } },
|
|
|
- { INDEX_op_st8_i32, { R, R } },
|
|
|
- { INDEX_op_st16_i32, { R, R } },
|
|
|
- { INDEX_op_st_i32, { R, R } },
|
|
|
-
|
|
|
- { INDEX_op_add_i32, { R, RI, RI } },
|
|
|
- { INDEX_op_sub_i32, { R, RI, RI } },
|
|
|
- { INDEX_op_mul_i32, { R, RI, RI } },
|
|
|
-#if TCG_TARGET_HAS_div_i32
|
|
|
- { INDEX_op_div_i32, { R, R, R } },
|
|
|
- { INDEX_op_divu_i32, { R, R, R } },
|
|
|
- { INDEX_op_rem_i32, { R, R, R } },
|
|
|
- { INDEX_op_remu_i32, { R, R, R } },
|
|
|
-#elif TCG_TARGET_HAS_div2_i32
|
|
|
- { INDEX_op_div2_i32, { R, R, "0", "1", R } },
|
|
|
- { INDEX_op_divu2_i32, { R, R, "0", "1", R } },
|
|
|
-#endif
|
|
|
- /* TODO: Does R, RI, RI result in faster code than R, R, RI?
|
|
|
- If both operands are constants, we can optimize. */
|
|
|
- { INDEX_op_and_i32, { R, RI, RI } },
|
|
|
-#if TCG_TARGET_HAS_andc_i32
|
|
|
- { INDEX_op_andc_i32, { R, RI, RI } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_eqv_i32
|
|
|
- { INDEX_op_eqv_i32, { R, RI, RI } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_nand_i32
|
|
|
- { INDEX_op_nand_i32, { R, RI, RI } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_nor_i32
|
|
|
- { INDEX_op_nor_i32, { R, RI, RI } },
|
|
|
-#endif
|
|
|
- { INDEX_op_or_i32, { R, RI, RI } },
|
|
|
-#if TCG_TARGET_HAS_orc_i32
|
|
|
- { INDEX_op_orc_i32, { R, RI, RI } },
|
|
|
-#endif
|
|
|
- { INDEX_op_xor_i32, { R, RI, RI } },
|
|
|
- { INDEX_op_shl_i32, { R, RI, RI } },
|
|
|
- { INDEX_op_shr_i32, { R, RI, RI } },
|
|
|
- { INDEX_op_sar_i32, { R, RI, RI } },
|
|
|
-#if TCG_TARGET_HAS_rot_i32
|
|
|
- { INDEX_op_rotl_i32, { R, RI, RI } },
|
|
|
- { INDEX_op_rotr_i32, { R, RI, RI } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_deposit_i32
|
|
|
- { INDEX_op_deposit_i32, { R, "0", R } },
|
|
|
-#endif
|
|
|
-
|
|
|
- { INDEX_op_brcond_i32, { R, RI } },
|
|
|
-
|
|
|
- { INDEX_op_setcond_i32, { R, R, RI } },
|
|
|
-#if TCG_TARGET_REG_BITS == 64
|
|
|
- { INDEX_op_setcond_i64, { R, R, RI } },
|
|
|
-#endif /* TCG_TARGET_REG_BITS == 64 */
|
|
|
-
|
|
|
-#if TCG_TARGET_REG_BITS == 32
|
|
|
- /* TODO: Support R, R, R, R, RI, RI? Will it be faster? */
|
|
|
- { INDEX_op_add2_i32, { R, R, R, R, R, R } },
|
|
|
- { INDEX_op_sub2_i32, { R, R, R, R, R, R } },
|
|
|
- { INDEX_op_brcond2_i32, { R, R, RI, RI } },
|
|
|
- { INDEX_op_mulu2_i32, { R, R, R, R } },
|
|
|
- { INDEX_op_setcond2_i32, { R, R, R, RI, RI } },
|
|
|
-#endif
|
|
|
-
|
|
|
-#if TCG_TARGET_HAS_not_i32
|
|
|
- { INDEX_op_not_i32, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_neg_i32
|
|
|
- { INDEX_op_neg_i32, { R, R } },
|
|
|
-#endif
|
|
|
+static TCGConstraintSetIndex tcg_target_op_def(TCGOpcode op)
|
|
|
+{
|
|
|
+ switch (op) {
|
|
|
+ case INDEX_op_ld8u_i32:
|
|
|
+ case INDEX_op_ld8s_i32:
|
|
|
+ case INDEX_op_ld16u_i32:
|
|
|
+ case INDEX_op_ld16s_i32:
|
|
|
+ case INDEX_op_ld_i32:
|
|
|
+ case INDEX_op_ld8u_i64:
|
|
|
+ case INDEX_op_ld8s_i64:
|
|
|
+ case INDEX_op_ld16u_i64:
|
|
|
+ case INDEX_op_ld16s_i64:
|
|
|
+ case INDEX_op_ld32u_i64:
|
|
|
+ case INDEX_op_ld32s_i64:
|
|
|
+ case INDEX_op_ld_i64:
|
|
|
+ case INDEX_op_not_i32:
|
|
|
+ case INDEX_op_not_i64:
|
|
|
+ case INDEX_op_neg_i32:
|
|
|
+ case INDEX_op_neg_i64:
|
|
|
+ case INDEX_op_ext8s_i32:
|
|
|
+ case INDEX_op_ext8s_i64:
|
|
|
+ case INDEX_op_ext16s_i32:
|
|
|
+ case INDEX_op_ext16s_i64:
|
|
|
+ case INDEX_op_ext8u_i32:
|
|
|
+ case INDEX_op_ext8u_i64:
|
|
|
+ case INDEX_op_ext16u_i32:
|
|
|
+ case INDEX_op_ext16u_i64:
|
|
|
+ case INDEX_op_ext32s_i64:
|
|
|
+ case INDEX_op_ext32u_i64:
|
|
|
+ case INDEX_op_ext_i32_i64:
|
|
|
+ case INDEX_op_extu_i32_i64:
|
|
|
+ case INDEX_op_bswap16_i32:
|
|
|
+ case INDEX_op_bswap16_i64:
|
|
|
+ case INDEX_op_bswap32_i32:
|
|
|
+ case INDEX_op_bswap32_i64:
|
|
|
+ case INDEX_op_bswap64_i64:
|
|
|
+ return C_O1_I1(r, r);
|
|
|
|
|
|
-#if TCG_TARGET_REG_BITS == 64
|
|
|
- { INDEX_op_ld8u_i64, { R, R } },
|
|
|
- { INDEX_op_ld8s_i64, { R, R } },
|
|
|
- { INDEX_op_ld16u_i64, { R, R } },
|
|
|
- { INDEX_op_ld16s_i64, { R, R } },
|
|
|
- { INDEX_op_ld32u_i64, { R, R } },
|
|
|
- { INDEX_op_ld32s_i64, { R, R } },
|
|
|
- { INDEX_op_ld_i64, { R, R } },
|
|
|
-
|
|
|
- { INDEX_op_st8_i64, { R, R } },
|
|
|
- { INDEX_op_st16_i64, { R, R } },
|
|
|
- { INDEX_op_st32_i64, { R, R } },
|
|
|
- { INDEX_op_st_i64, { R, R } },
|
|
|
-
|
|
|
- { INDEX_op_add_i64, { R, RI, RI } },
|
|
|
- { INDEX_op_sub_i64, { R, RI, RI } },
|
|
|
- { INDEX_op_mul_i64, { R, RI, RI } },
|
|
|
-#if TCG_TARGET_HAS_div_i64
|
|
|
- { INDEX_op_div_i64, { R, R, R } },
|
|
|
- { INDEX_op_divu_i64, { R, R, R } },
|
|
|
- { INDEX_op_rem_i64, { R, R, R } },
|
|
|
- { INDEX_op_remu_i64, { R, R, R } },
|
|
|
-#elif TCG_TARGET_HAS_div2_i64
|
|
|
- { INDEX_op_div2_i64, { R, R, "0", "1", R } },
|
|
|
- { INDEX_op_divu2_i64, { R, R, "0", "1", R } },
|
|
|
-#endif
|
|
|
- { INDEX_op_and_i64, { R, RI, RI } },
|
|
|
-#if TCG_TARGET_HAS_andc_i64
|
|
|
- { INDEX_op_andc_i64, { R, RI, RI } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_eqv_i64
|
|
|
- { INDEX_op_eqv_i64, { R, RI, RI } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_nand_i64
|
|
|
- { INDEX_op_nand_i64, { R, RI, RI } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_nor_i64
|
|
|
- { INDEX_op_nor_i64, { R, RI, RI } },
|
|
|
-#endif
|
|
|
- { INDEX_op_or_i64, { R, RI, RI } },
|
|
|
-#if TCG_TARGET_HAS_orc_i64
|
|
|
- { INDEX_op_orc_i64, { R, RI, RI } },
|
|
|
-#endif
|
|
|
- { INDEX_op_xor_i64, { R, RI, RI } },
|
|
|
- { INDEX_op_shl_i64, { R, RI, RI } },
|
|
|
- { INDEX_op_shr_i64, { R, RI, RI } },
|
|
|
- { INDEX_op_sar_i64, { R, RI, RI } },
|
|
|
-#if TCG_TARGET_HAS_rot_i64
|
|
|
- { INDEX_op_rotl_i64, { R, RI, RI } },
|
|
|
- { INDEX_op_rotr_i64, { R, RI, RI } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_deposit_i64
|
|
|
- { INDEX_op_deposit_i64, { R, "0", R } },
|
|
|
-#endif
|
|
|
- { INDEX_op_brcond_i64, { R, RI } },
|
|
|
+ case INDEX_op_st8_i32:
|
|
|
+ case INDEX_op_st16_i32:
|
|
|
+ case INDEX_op_st_i32:
|
|
|
+ case INDEX_op_st8_i64:
|
|
|
+ case INDEX_op_st16_i64:
|
|
|
+ case INDEX_op_st32_i64:
|
|
|
+ case INDEX_op_st_i64:
|
|
|
+ return C_O0_I2(r, r);
|
|
|
+
|
|
|
+ case INDEX_op_div_i32:
|
|
|
+ case INDEX_op_div_i64:
|
|
|
+ case INDEX_op_divu_i32:
|
|
|
+ case INDEX_op_divu_i64:
|
|
|
+ case INDEX_op_rem_i32:
|
|
|
+ case INDEX_op_rem_i64:
|
|
|
+ case INDEX_op_remu_i32:
|
|
|
+ case INDEX_op_remu_i64:
|
|
|
+ return C_O1_I2(r, r, r);
|
|
|
|
|
|
-#if TCG_TARGET_HAS_ext8s_i64
|
|
|
- { INDEX_op_ext8s_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_ext16s_i64
|
|
|
- { INDEX_op_ext16s_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_ext32s_i64
|
|
|
- { INDEX_op_ext32s_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_ext8u_i64
|
|
|
- { INDEX_op_ext8u_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_ext16u_i64
|
|
|
- { INDEX_op_ext16u_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_ext32u_i64
|
|
|
- { INDEX_op_ext32u_i64, { R, R } },
|
|
|
-#endif
|
|
|
- { INDEX_op_ext_i32_i64, { R, R } },
|
|
|
- { INDEX_op_extu_i32_i64, { R, R } },
|
|
|
-#if TCG_TARGET_HAS_bswap16_i64
|
|
|
- { INDEX_op_bswap16_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_bswap32_i64
|
|
|
- { INDEX_op_bswap32_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_bswap64_i64
|
|
|
- { INDEX_op_bswap64_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_not_i64
|
|
|
- { INDEX_op_not_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_neg_i64
|
|
|
- { INDEX_op_neg_i64, { R, R } },
|
|
|
-#endif
|
|
|
-#endif /* TCG_TARGET_REG_BITS == 64 */
|
|
|
+ case INDEX_op_add_i32:
|
|
|
+ case INDEX_op_add_i64:
|
|
|
+ case INDEX_op_sub_i32:
|
|
|
+ case INDEX_op_sub_i64:
|
|
|
+ case INDEX_op_mul_i32:
|
|
|
+ case INDEX_op_mul_i64:
|
|
|
+ case INDEX_op_and_i32:
|
|
|
+ case INDEX_op_and_i64:
|
|
|
+ case INDEX_op_andc_i32:
|
|
|
+ case INDEX_op_andc_i64:
|
|
|
+ case INDEX_op_eqv_i32:
|
|
|
+ case INDEX_op_eqv_i64:
|
|
|
+ case INDEX_op_nand_i32:
|
|
|
+ case INDEX_op_nand_i64:
|
|
|
+ case INDEX_op_nor_i32:
|
|
|
+ case INDEX_op_nor_i64:
|
|
|
+ case INDEX_op_or_i32:
|
|
|
+ case INDEX_op_or_i64:
|
|
|
+ case INDEX_op_orc_i32:
|
|
|
+ case INDEX_op_orc_i64:
|
|
|
+ case INDEX_op_xor_i32:
|
|
|
+ case INDEX_op_xor_i64:
|
|
|
+ case INDEX_op_shl_i32:
|
|
|
+ case INDEX_op_shl_i64:
|
|
|
+ case INDEX_op_shr_i32:
|
|
|
+ case INDEX_op_shr_i64:
|
|
|
+ case INDEX_op_sar_i32:
|
|
|
+ case INDEX_op_sar_i64:
|
|
|
+ case INDEX_op_rotl_i32:
|
|
|
+ case INDEX_op_rotl_i64:
|
|
|
+ case INDEX_op_rotr_i32:
|
|
|
+ case INDEX_op_rotr_i64:
|
|
|
+ /* TODO: Does R, RI, RI result in faster code than R, R, RI? */
|
|
|
+ return C_O1_I2(r, ri, ri);
|
|
|
|
|
|
- { INDEX_op_qemu_ld_i32, { R, L } },
|
|
|
- { INDEX_op_qemu_ld_i64, { R64, L } },
|
|
|
+ case INDEX_op_deposit_i32:
|
|
|
+ case INDEX_op_deposit_i64:
|
|
|
+ return C_O1_I2(r, 0, r);
|
|
|
|
|
|
- { INDEX_op_qemu_st_i32, { R, S } },
|
|
|
- { INDEX_op_qemu_st_i64, { R64, S } },
|
|
|
+ case INDEX_op_brcond_i32:
|
|
|
+ case INDEX_op_brcond_i64:
|
|
|
+ return C_O0_I2(r, ri);
|
|
|
|
|
|
-#if TCG_TARGET_HAS_ext8s_i32
|
|
|
- { INDEX_op_ext8s_i32, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_ext16s_i32
|
|
|
- { INDEX_op_ext16s_i32, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_ext8u_i32
|
|
|
- { INDEX_op_ext8u_i32, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_ext16u_i32
|
|
|
- { INDEX_op_ext16u_i32, { R, R } },
|
|
|
-#endif
|
|
|
+ case INDEX_op_setcond_i32:
|
|
|
+ case INDEX_op_setcond_i64:
|
|
|
+ return C_O1_I2(r, r, ri);
|
|
|
|
|
|
-#if TCG_TARGET_HAS_bswap16_i32
|
|
|
- { INDEX_op_bswap16_i32, { R, R } },
|
|
|
-#endif
|
|
|
-#if TCG_TARGET_HAS_bswap32_i32
|
|
|
- { INDEX_op_bswap32_i32, { R, R } },
|
|
|
+#if TCG_TARGET_REG_BITS == 32
|
|
|
+ /* TODO: Support R, R, R, R, RI, RI? Will it be faster? */
|
|
|
+ case INDEX_op_add2_i32:
|
|
|
+ case INDEX_op_sub2_i32:
|
|
|
+ return C_O2_I4(r, r, r, r, r, r);
|
|
|
+ case INDEX_op_brcond2_i32:
|
|
|
+ return C_O0_I4(r, r, ri, ri);
|
|
|
+ case INDEX_op_mulu2_i32:
|
|
|
+ return C_O2_I2(r, r, r, r);
|
|
|
+ case INDEX_op_setcond2_i32:
|
|
|
+ return C_O1_I4(r, r, r, ri, ri);
|
|
|
#endif
|
|
|
|
|
|
- { INDEX_op_mb, { } },
|
|
|
- { -1 },
|
|
|
-};
|
|
|
-
|
|
|
-static const TCGTargetOpDef *tcg_target_op_def(TCGOpcode op)
|
|
|
-{
|
|
|
- int i, n = ARRAY_SIZE(tcg_target_op_defs);
|
|
|
+ case INDEX_op_qemu_ld_i32:
|
|
|
+ return (TARGET_LONG_BITS <= TCG_TARGET_REG_BITS
|
|
|
+ ? C_O1_I1(r, r)
|
|
|
+ : C_O1_I2(r, r, r));
|
|
|
+ case INDEX_op_qemu_ld_i64:
|
|
|
+ return (TCG_TARGET_REG_BITS == 64 ? C_O1_I1(r, r)
|
|
|
+ : TARGET_LONG_BITS <= TCG_TARGET_REG_BITS ? C_O2_I1(r, r, r)
|
|
|
+ : C_O2_I2(r, r, r, r));
|
|
|
+ case INDEX_op_qemu_st_i32:
|
|
|
+ return (TARGET_LONG_BITS <= TCG_TARGET_REG_BITS
|
|
|
+ ? C_O0_I2(r, r)
|
|
|
+ : C_O0_I3(r, r, r));
|
|
|
+ case INDEX_op_qemu_st_i64:
|
|
|
+ return (TCG_TARGET_REG_BITS == 64 ? C_O0_I2(r, r)
|
|
|
+ : TARGET_LONG_BITS <= TCG_TARGET_REG_BITS ? C_O0_I3(r, r, r)
|
|
|
+ : C_O0_I4(r, r, r, r));
|
|
|
|
|
|
- for (i = 0; i < n; ++i) {
|
|
|
- if (tcg_target_op_defs[i].op == op) {
|
|
|
- return &tcg_target_op_defs[i];
|
|
|
- }
|
|
|
+ default:
|
|
|
+ g_assert_not_reached();
|
|
|
}
|
|
|
- return NULL;
|
|
|
}
|
|
|
|
|
|
static const int tcg_target_reg_alloc_order[] = {
|
|
@@ -384,22 +291,6 @@ static bool patch_reloc(tcg_insn_unit *code_ptr, int type,
|
|
|
return true;
|
|
|
}
|
|
|
|
|
|
-/* Parse target specific constraints. */
|
|
|
-static const char *target_parse_constraint(TCGArgConstraint *ct,
|
|
|
- const char *ct_str, TCGType type)
|
|
|
-{
|
|
|
- switch (*ct_str++) {
|
|
|
- case 'r':
|
|
|
- case 'L': /* qemu_ld constraint */
|
|
|
- case 'S': /* qemu_st constraint */
|
|
|
- ct->regs = BIT(TCG_TARGET_NB_REGS) - 1;
|
|
|
- break;
|
|
|
- default:
|
|
|
- return NULL;
|
|
|
- }
|
|
|
- return ct_str;
|
|
|
-}
|
|
|
-
|
|
|
#if defined(CONFIG_DEBUG_TCG_INTERPRETER)
|
|
|
/* Show current bytecode. Used by tcg interpreter. */
|
|
|
void tci_disas(uint8_t opc)
|