i386.md (immediate_operand): New mode attribute.
authorUros Bizjak <uros@gcc.gnu.org>
Tue, 6 Jul 2010 14:05:19 +0000 (16:05 +0200)
committerUros Bizjak <uros@gcc.gnu.org>
Tue, 6 Jul 2010 14:05:19 +0000 (16:05 +0200)
2010-07-06  Uros Bizjak  <ubizjak@gmail.com>

* config/i386/i386.md (immediate_operand): New mode attribute.

(pro_epilogue_adjust_stack_<mode>_1): Macroize insn from
pro_epilogue_adjust_stack  and pro_epilogue_adjust_stack_rex64
using P mode iterator.
(pro_epilogue_adjust_stack_di_2): Rename from
pro_epilogue_adjust_stack_rex64_2.

* config/i386/i386.c (pro_epilogue_adjust_stack): Update for rename.

2010-07-06  Uros Bizjak  <ubizjak@gmail.com>

* config/i386/i386.md (insv): Call gen_movdi_insv1 or gen_movsi_insv1
through gen_mov_insv_1 function pointer.
(fmod<mode>3): Call gen_truncxf<mode>2_i387_noop_unspec or
gen_truncxf<mode>2 through gen_truncxf function pointer.
(remainder<mode>3): Ditto.
(cmpstrnsi): Rename cmp_insn function pointer to gen_cmp.
(allocate_stack): Call gen_allocate_stack_worker_64 or
gen_allocate_stack_worker_32 through gen_allocate_stack_worker
function pointer.
(probe_stack): Call gen_iordi3 or gen_iorsi3 through gen_ior3
function pointer.

2010-07-06  Uros Bizjak  <ubizjak@gmail.com>

* config/i386/i386.md (*add<mode>3_cconly_overflow): Use <g>
operand constraint instead of <r><i>m.

From-SVN: r161870

gcc/ChangeLog
gcc/config/i386/i386.c
gcc/config/i386/i386.md

index e25324e765de9563285a082c64b666da9af0aa2b..b27f23b9966430b51fc7d5ba02e290ff0ccecc66 100644 (file)
@@ -1,3 +1,34 @@
+2010-07-06  Uros Bizjak  <ubizjak@gmail.com>
+
+       * config/i386/i386.md (immediate_operand): New mode attribute.
+       
+       (pro_epilogue_adjust_stack_<mode>_1): Macroize insn from
+       pro_epilogue_adjust_stack  and pro_epilogue_adjust_stack_rex64
+       using P mode iterator.
+       (pro_epilogue_adjust_stack_di_2): Rename from
+       pro_epilogue_adjust_stack_rex64_2.
+
+       * config/i386/i386.c (pro_epilogue_adjust_stack): Update for rename.
+
+2010-07-06  Uros Bizjak  <ubizjak@gmail.com>
+
+       * config/i386/i386.md (insv): Call gen_movdi_insv1 or gen_movsi_insv1
+       through gen_mov_insv_1 function pointer.
+       (fmod<mode>3): Call gen_truncxf<mode>2_i387_noop_unspec or
+       gen_truncxf<mode>2 through gen_truncxf function pointer.
+       (remainder<mode>3): Ditto.
+       (cmpstrnsi): Rename cmp_insn function pointer to gen_cmp.
+       (allocate_stack): Call gen_allocate_stack_worker_64 or
+       gen_allocate_stack_worker_32 through gen_allocate_stack_worker
+       function pointer.
+       (probe_stack): Call gen_iordi3 or gen_iorsi3 through gen_ior3
+       function pointer.
+
+2010-07-06  Uros Bizjak  <ubizjak@gmail.com>
+
+       * config/i386/i386.md (*add<mode>3_cconly_overflow): Use <g>
+       operand constraint instead of <r><i>m.
+
 2010-07-06  Richard Guenther  <rguenther@suse.de>
 
        PR middle-end/44828
        (OPTION_MASK_ISA_RDRND_UNSET): Likewise.
        (OPTION_MASK_ISA_F16C_UNSET): Likewise.
        (OPTION_MASK_ISA_AVX_UNSET): Add OPTION_MASK_ISA_F16C_UNSET.
-       (ix86_handle_option): Handle OPT_mfsgsbase, OPT_mrdrnd and
-       OPT_mf16c.
+       (ix86_handle_option): Handle OPT_mfsgsbase, OPT_mrdrnd and OPT_mf16c.
        (ix86_target_string): Support -mfsgsbase, -mrdrnd and -mf16c.
        (pta_flags): Add PTA_FSGSBASE, PTA_RDRND and PTA_F16C.
        (override_options): Handle them.
-       (ix86_valid_target_attribute_inner_p): Handle fsgsbase, rdrnd
-       and f16c.
+       (ix86_valid_target_attribute_inner_p): Handle fsgsbase, rdrnd and f16c.
        (ix86_builtins): Add IX86_BUILTIN_RDFSBASE32,
        IX86_BUILTIN_RDFSBASE64, IX86_BUILTIN_RDGSBASE32,
        IX86_BUILTIN_RDGSBASE64, IX86_BUILTIN_WRFSBASE32,
 
 2010-07-05  Richard Guenther  <rguenther@suse.de>
 
-       * tree-ssa-loop-ivopts.c (rewrite_use_nonlinear_expr): Copy
-       alias info.
+       * tree-ssa-loop-ivopts.c (rewrite_use_nonlinear_expr): Copy alias info.
 
 2010-07-05  Richard Guenther  <rguenther@suse.de>
 
index 0df8e74f5741a4c00d56b5868c215982b00d2e4a..7dfd7bbdcbe65ab80094e8a897f043ec1d17cbe6 100644 (file)
@@ -8509,9 +8509,9 @@ pro_epilogue_adjust_stack (rtx dest, rtx src, rtx offset,
   rtx insn;
 
   if (! TARGET_64BIT)
-    insn = emit_insn (gen_pro_epilogue_adjust_stack_1 (dest, src, offset));
+    insn = emit_insn (gen_pro_epilogue_adjust_stack_si_1 (dest, src, offset));
   else if (x86_64_immediate_operand (offset, DImode))
-    insn = emit_insn (gen_pro_epilogue_adjust_stack_rex64 (dest, src, offset));
+    insn = emit_insn (gen_pro_epilogue_adjust_stack_di_1 (dest, src, offset));
   else
     {
       rtx tmp;
@@ -8528,8 +8528,8 @@ pro_epilogue_adjust_stack (rtx dest, rtx src, rtx offset,
       insn = emit_insn (gen_rtx_SET (DImode, tmp, offset));
       if (style < 0)
        RTX_FRAME_RELATED_P (insn) = 1;
-      insn = emit_insn (gen_pro_epilogue_adjust_stack_rex64_2 (dest, src, tmp,
-                                                              offset));
+      insn = emit_insn (gen_pro_epilogue_adjust_stack_di_2 (dest, src, tmp,
+                                                           offset));
     }
 
   if (style >= 0)
index 20f222ee53677d0d770a25f359878f1af7ed4904..4170711b9185a9243e41402217081fbf8505a4e7 100644 (file)
         (SI "general_operand")
         (DI "x86_64_szext_general_operand")])
 
+;; Immediate operand predicate for integer modes.
+(define_mode_attr immediate_operand
+       [(QI "immediate_operand")
+        (HI "immediate_operand")
+        (SI "immediate_operand")
+        (DI "x86_64_immediate_operand")])
+
 ;; Operand predicate for shifts.
 (define_mode_attr shift_operand
        [(QI "nonimmediate_operand")
        (compare:CCC
          (plus:SWI
            (match_operand:SWI 1 "nonimmediate_operand" "%0")
-           (match_operand:SWI 2 "<general_operand>" "<r><i>m"))
+           (match_operand:SWI 2 "<general_operand>" "<g>"))
          (match_dup 1)))
    (clobber (match_scratch:SWI 0 "=<r>"))]
   "ix86_binary_operator_ok (PLUS, <MODE>mode, operands)"
         (match_operand 3 "register_operand" ""))]
   ""
 {
+  rtx (*gen_mov_insv_1) (rtx, rtx);
+
   /* Handle insertions to %ah et al.  */
   if (INTVAL (operands[1]) != 8 || INTVAL (operands[2]) != 8)
     FAIL;
   if (! ext_register_operand (operands[0], VOIDmode))
     FAIL;
 
-  if (TARGET_64BIT)
-    emit_insn (gen_movdi_insv_1 (operands[0], operands[3]));
-  else
-    emit_insn (gen_movsi_insv_1 (operands[0], operands[3]));
+  gen_mov_insv_1 = (TARGET_64BIT
+                   ? gen_movdi_insv_1 : gen_movsi_insv_1);
 
+  emit_insn (gen_mov_insv_1 (operands[0], operands[3]));
   DONE;
 })
 
    (use (match_operand:MODEF 2 "general_operand" ""))]
   "TARGET_USE_FANCY_MATH_387"
 {
+  rtx (*gen_truncxf) (rtx, rtx);
+
   rtx label = gen_label_rtx ();
 
   rtx op1 = gen_reg_rtx (XFmode);
   /* Truncate the result properly for strict SSE math.  */
   if (SSE_FLOAT_MODE_P (<MODE>mode) && TARGET_SSE_MATH
       && !TARGET_MIX_SSE_I387)
-    emit_insn (gen_truncxf<mode>2 (operands[0], op1));
+    gen_truncxf = gen_truncxf<mode>2;
   else
-    emit_insn (gen_truncxf<mode>2_i387_noop_unspec (operands[0], op1));
+    gen_truncxf = gen_truncxf<mode>2_i387_noop_unspec;
 
+  emit_insn (gen_truncxf (operands[0], op1));
   DONE;
 })
 
    (use (match_operand:MODEF 2 "general_operand" ""))]
   "TARGET_USE_FANCY_MATH_387"
 {
+  rtx (*gen_truncxf) (rtx, rtx);
+
   rtx label = gen_label_rtx ();
 
   rtx op1 = gen_reg_rtx (XFmode);
   /* Truncate the result properly for strict SSE math.  */
   if (SSE_FLOAT_MODE_P (<MODE>mode) && TARGET_SSE_MATH
       && !TARGET_MIX_SSE_I387)
-    emit_insn (gen_truncxf<mode>2 (operands[0], op1));
+    gen_truncxf = gen_truncxf<mode>2;
   else
-    emit_insn (gen_truncxf<mode>2_i387_noop_unspec (operands[0], op1));
+    gen_truncxf = gen_truncxf<mode>2_i387_noop_unspec;
 
+  emit_insn (gen_truncxf (operands[0], op1));
   DONE;
 })
 
     }
   else
     {
-      rtx (*cmp_insn)(rtx, rtx);
+      rtx (*gen_cmp) (rtx, rtx);
 
-      if (TARGET_64BIT)
-       cmp_insn = gen_cmpdi_1;
-      else
-       cmp_insn = gen_cmpsi_1;
-      emit_insn (cmp_insn (countreg, countreg));
+      gen_cmp = (TARGET_64BIT
+                ? gen_cmpdi_1 : gen_cmpsi_1);
+
+      emit_insn (gen_cmp (countreg, countreg));
       emit_insn (gen_cmpstrnqi_1 (addr1, addr2, countreg, align,
                                  operands[1], operands[2]));
     }
 ;; [(set (mem (plus (reg ebp) (const_int -160000))) (const_int 0))]
 ;;
 ;; in proper program order.
-(define_insn "pro_epilogue_adjust_stack_1"
-  [(set (match_operand:SI 0 "register_operand" "=r,r")
-       (plus:SI (match_operand:SI 1 "register_operand" "0,r")
-                (match_operand:SI 2 "immediate_operand" "i,i")))
-   (clobber (reg:CC FLAGS_REG))
-   (clobber (mem:BLK (scratch)))]
-  "!TARGET_64BIT"
-{
-  switch (get_attr_type (insn))
-    {
-    case TYPE_IMOV:
-      return "mov{l}\t{%1, %0|%0, %1}";
-
-    case TYPE_ALU:
-      gcc_assert (rtx_equal_p (operands[0], operands[1]));
-      if (x86_maybe_negate_const_int (&operands[2], SImode))
-       return "sub{l}\t{%2, %0|%0, %2}";
-
-      return "add{l}\t{%2, %0|%0, %2}";
-
-    default:
-      operands[2] = SET_SRC (XVECEXP (PATTERN (insn), 0, 0));
-      return "lea{l}\t{%a2, %0|%0, %a2}";
-    }
-}
-  [(set (attr "type")
-       (cond [(and (eq_attr "alternative" "0") 
-                   (eq (symbol_ref "TARGET_OPT_AGU") (const_int 0)))
-                (const_string "alu")
-              (match_operand:SI 2 "const0_operand" "")
-                (const_string "imov")
-             ]
-             (const_string "lea")))
-   (set (attr "length_immediate")
-       (cond [(eq_attr "type" "imov")
-                (const_string "0")
-              (and (eq_attr "type" "alu")
-                   (match_operand 2 "const128_operand" ""))
-                (const_string "1")
-             ]
-             (const_string "*")))
-   (set_attr "mode" "SI")])
 
-(define_insn "pro_epilogue_adjust_stack_rex64"
-  [(set (match_operand:DI 0 "register_operand" "=r,r")
-       (plus:DI (match_operand:DI 1 "register_operand" "0,r")
-                (match_operand:DI 2 "x86_64_immediate_operand" "e,e")))
+(define_insn "pro_epilogue_adjust_stack_<mode>_1"
+  [(set (match_operand:P 0 "register_operand" "=r,r")
+       (plus:P (match_operand:P 1 "register_operand" "0,r")
+               (match_operand:P 2 "<immediate_operand>" "<i>,<i>")))
    (clobber (reg:CC FLAGS_REG))
    (clobber (mem:BLK (scratch)))]
-  "TARGET_64BIT"
+  ""
 {
   switch (get_attr_type (insn))
     {
     case TYPE_IMOV:
-      return "mov{q}\t{%1, %0|%0, %1}";
+      return "mov{<imodesuffix>}\t{%1, %0|%0, %1}";
 
     case TYPE_ALU:
       gcc_assert (rtx_equal_p (operands[0], operands[1]));
-      if (x86_maybe_negate_const_int (&operands[2], DImode))
-       return "sub{q}\t{%2, %0|%0, %2}";
+      if (x86_maybe_negate_const_int (&operands[2], <MODE>mode))
+       return "sub{<imodesuffix>}\t{%2, %0|%0, %2}";
 
-      return "add{q}\t{%2, %0|%0, %2}";
+      return "add{<imodesuffix>}\t{%2, %0|%0, %2}";
 
     default:
       operands[2] = SET_SRC (XVECEXP (PATTERN (insn), 0, 0));
-      return "lea{q}\t{%a2, %0|%0, %a2}";
+      return "lea{<imodesuffix>}\t{%a2, %0|%0, %a2}";
     }
 }
   [(set (attr "type")
        (cond [(and (eq_attr "alternative" "0")
-                   (eq (symbol_ref "TARGET_OPT_AGU") (const_int 0)))
+                   (eq (symbol_ref "TARGET_OPT_AGU") (const_int 0)))
                 (const_string "alu")
-              (match_operand:DI 2 "const0_operand" "")
+              (match_operand:<MODE> 2 "const0_operand" "")
                 (const_string "imov")
              ]
              (const_string "lea")))
                 (const_string "1")
              ]
              (const_string "*")))
-   (set_attr "mode" "DI")])
+   (set_attr "mode" "<MODE>")])
 
-(define_insn "pro_epilogue_adjust_stack_rex64_2"
+(define_insn "pro_epilogue_adjust_stack_di_2"
   [(set (match_operand:DI 0 "register_operand" "=r,r")
        (plus:DI (match_operand:DI 1 "register_operand" "0,r")
                 (match_operand:DI 3 "immediate_operand" "i,i")))
     }
   else
     {
-      x = copy_to_mode_reg (Pmode, operands[1]);
+      rtx (*gen_allocate_stack_worker) (rtx, rtx);
+
       if (TARGET_64BIT)
-       x = gen_allocate_stack_worker_64 (x, x);
+       gen_allocate_stack_worker = gen_allocate_stack_worker_64;
       else
-       x = gen_allocate_stack_worker_32 (x, x);
-      emit_insn (x);
+       gen_allocate_stack_worker = gen_allocate_stack_worker_32;
+
+      x = copy_to_mode_reg (Pmode, operands[1]);
+      emit_insn (gen_allocate_stack_worker (x, x));
     }
 
   emit_move_insn (operands[0], virtual_stack_dynamic_rtx);
   [(match_operand 0 "memory_operand" "")]
   ""
 {
-  if (GET_MODE (operands[0]) == DImode)
-    emit_insn (gen_iordi3 (operands[0], operands[0], const0_rtx));
-  else
-    emit_insn (gen_iorsi3 (operands[0], operands[0], const0_rtx));
+  rtx (*gen_ior3) (rtx, rtx, rtx);
+
+  gen_ior3 = (GET_MODE (operands[0]) == DImode
+             ? gen_iordi3 : gen_iorsi3);
+
+  emit_insn (gen_ior3 (operands[0], operands[0], const0_rtx));
   DONE;
 })
 
   [(set (match_dup 0)
         (plus:SI (mult:SI (match_dup 1) (match_dup 2))
                  (match_dup 1)))]
-  { operands[2] = GEN_INT (INTVAL (operands[2]) - 1); })
+  "operands[2] = GEN_INT (INTVAL (operands[2]) - 1);")
 
 (define_peephole2
   [(parallel
    (set (match_dup 0)
         (plus:SI (mult:SI (match_dup 0) (match_dup 2))
                  (match_dup 0)))]
-  { operands[2] = GEN_INT (INTVAL (operands[2]) - 1); })
+  "operands[2] = GEN_INT (INTVAL (operands[2]) - 1);")
 
 (define_peephole2
   [(parallel
   [(set (match_dup 0)
         (plus:DI (mult:DI (match_dup 1) (match_dup 2))
                  (match_dup 1)))]
-  { operands[2] = GEN_INT (INTVAL (operands[2]) - 1); })
+  "operands[2] = GEN_INT (INTVAL (operands[2]) - 1);")
 
 (define_peephole2
   [(parallel
    (set (match_dup 0)
         (plus:DI (mult:DI (match_dup 0) (match_dup 2))
                  (match_dup 0)))]
-  { operands[2] = GEN_INT (INTVAL (operands[2]) - 1); })
+  "operands[2] = GEN_INT (INTVAL (operands[2]) - 1);")
 
 ;; Imul $32bit_imm, mem, reg is vector decoded, while
 ;; imul $32bit_imm, reg, reg is direct decoded.
   [(set (match_dup 3) (match_dup 1))
    (parallel [(set (match_dup 0) (mult:DI (match_dup 3) (match_dup 2)))
              (clobber (reg:CC FLAGS_REG))])]
-"")
+  "")
 
 (define_peephole2
   [(match_scratch:SI 3 "r")
   [(set (match_dup 3) (match_dup 1))
    (parallel [(set (match_dup 0) (mult:SI (match_dup 3) (match_dup 2)))
              (clobber (reg:CC FLAGS_REG))])]
-"")
+  "")
 
 (define_peephole2
   [(match_scratch:SI 3 "r")
   "TARGET_SLOW_IMUL_IMM32_MEM && optimize_insn_for_speed_p ()
    && !satisfies_constraint_K (operands[2])"
   [(set (match_dup 3) (match_dup 1))
-   (parallel [(set (match_dup 0) (zero_extend:DI (mult:SI (match_dup 3) (match_dup 2))))
+   (parallel [(set (match_dup 0)
+                  (zero_extend:DI (mult:SI (match_dup 3) (match_dup 2))))
              (clobber (reg:CC FLAGS_REG))])]
-"")
+  "")
 
 ;; imul $8/16bit_imm, regmem, reg is vector decoded.
 ;; Convert it into imul reg, reg
                                (reg:DI XMM4_REG)
                                (reg:DI XMM5_REG)
                                (reg:DI XMM6_REG)
-                               (reg:DI XMM7_REG)] UNSPEC_SSE_PROLOGUE_SAVE_LOW))
+                               (reg:DI XMM7_REG)]
+                              UNSPEC_SSE_PROLOGUE_SAVE_LOW))
              (use (match_dup 1))
              (use (match_dup 2))
              (use (match_dup 3))