IA MCU psABI support: changes to libraries
[gcc.git] / gcc / loop-unroll.c
index 2e35cb1672aab14c5f7bec605f0251d41d8616ab..3fa7fc0ceebd0a60e7bfb095da364ec30c49eedb 100644 (file)
@@ -1,5 +1,5 @@
-/* Loop unrolling and peeling.
-   Copyright (C) 2002-2014 Free Software Foundation, Inc.
+/* Loop unrolling.
+   Copyright (C) 2002-2015 Free Software Foundation, Inc.
 
 This file is part of GCC.
 
@@ -22,20 +22,38 @@ along with GCC; see the file COPYING3.  If not see
 #include "coretypes.h"
 #include "tm.h"
 #include "rtl.h"
+#include "alias.h"
+#include "symtab.h"
 #include "tree.h"
 #include "hard-reg-set.h"
 #include "obstack.h"
+#include "profile.h"
+#include "predict.h"
+#include "function.h"
+#include "dominance.h"
+#include "cfg.h"
+#include "cfgrtl.h"
 #include "basic-block.h"
 #include "cfgloop.h"
 #include "params.h"
+#include "insn-codes.h"
+#include "optabs.h"
+#include "flags.h"
+#include "insn-config.h"
+#include "expmed.h"
+#include "dojump.h"
+#include "explow.h"
+#include "calls.h"
+#include "emit-rtl.h"
+#include "varasm.h"
+#include "stmt.h"
 #include "expr.h"
-#include "hash-table.h"
 #include "recog.h"
 #include "target.h"
 #include "dumpfile.h"
 
-/* This pass performs loop unrolling and peeling.  We only perform these
-   optimizations on innermost loops (with single exception) because
+/* This pass performs loop unrolling.  We only perform this
+   optimization on innermost loops (with single exception) because
    the impact on performance is greatest here, and we want to avoid
    unnecessary code size growth.  The gain is caused by greater sequentiality
    of code, better code to optimize for further passes and in some cases
@@ -44,12 +62,6 @@ along with GCC; see the file COPYING3.  If not see
 
    What we do:
 
-   -- complete peeling of once-rolling loops; this is the above mentioned
-      exception, as this causes loop to be cancelled completely and
-      does not cause code growth
-   -- complete peeling of loops that roll (small) constant times.
-   -- simple peeling of first iterations of loops that do not roll much
-      (according to profile feedback)
    -- unrolling of loops that roll constant times; this is almost always
       win, as we get rid of exit condition tests.
    -- unrolling of loops that roll number of times that we can compute
@@ -62,7 +74,7 @@ along with GCC; see the file COPYING3.  If not see
    appropriate function below.
 
    There is a lot of parameters (defined and described in params.def) that
-   control how much we unroll/peel.
+   control how much we unroll.
 
    ??? A great problem is that we don't have a good way how to determine
    how many times we should unroll the loop; the experiments I have made
@@ -100,19 +112,17 @@ struct var_to_expand
 
 /* Hashtable helper for iv_to_split.  */
 
-struct iv_split_hasher : typed_free_remove <iv_to_split>
+struct iv_split_hasher : free_ptr_hash <iv_to_split>
 {
-  typedef iv_to_split value_type;
-  typedef iv_to_split compare_type;
-  static inline hashval_t hash (const value_type *);
-  static inline bool equal (const value_type *, const compare_type *);
+  static inline hashval_t hash (const iv_to_split *);
+  static inline bool equal (const iv_to_split *, const iv_to_split *);
 };
 
 
 /* A hash function for information about insns to split.  */
 
 inline hashval_t
-iv_split_hasher::hash (const value_type *ivts)
+iv_split_hasher::hash (const iv_to_split *ivts)
 {
   return (hashval_t) INSN_UID (ivts->insn);
 }
@@ -120,25 +130,23 @@ iv_split_hasher::hash (const value_type *ivts)
 /* An equality functions for information about insns to split.  */
 
 inline bool
-iv_split_hasher::equal (const value_type *i1, const compare_type *i2)
+iv_split_hasher::equal (const iv_to_split *i1, const iv_to_split *i2)
 {
   return i1->insn == i2->insn;
 }
 
 /* Hashtable helper for iv_to_split.  */
 
-struct var_expand_hasher : typed_free_remove <var_to_expand>
+struct var_expand_hasher : free_ptr_hash <var_to_expand>
 {
-  typedef var_to_expand value_type;
-  typedef var_to_expand compare_type;
-  static inline hashval_t hash (const value_type *);
-  static inline bool equal (const value_type *, const compare_type *);
+  static inline hashval_t hash (const var_to_expand *);
+  static inline bool equal (const var_to_expand *, const var_to_expand *);
 };
 
 /* Return a hash for VES.  */
 
 inline hashval_t
-var_expand_hasher::hash (const value_type *ves)
+var_expand_hasher::hash (const var_to_expand *ves)
 {
   return (hashval_t) INSN_UID (ves->insn);
 }
@@ -146,7 +154,7 @@ var_expand_hasher::hash (const value_type *ves)
 /* Return true if I1 and I2 refer to the same instruction.  */
 
 inline bool
-var_expand_hasher::equal (const value_type *i1, const compare_type *i2)
+var_expand_hasher::equal (const var_to_expand *i1, const var_to_expand *i2)
 {
   return i1->insn == i2->insn;
 }
@@ -170,17 +178,11 @@ struct opt_info
   basic_block loop_preheader;      /* The loop preheader basic block.  */
 };
 
-static void decide_unrolling_and_peeling (int);
-static void peel_loops_completely (int);
-static void decide_peel_simple (struct loop *, int);
-static void decide_peel_once_rolling (struct loop *, int);
-static void decide_peel_completely (struct loop *, int);
 static void decide_unroll_stupid (struct loop *, int);
 static void decide_unroll_constant_iterations (struct loop *, int);
 static void decide_unroll_runtime_iterations (struct loop *, int);
-static void peel_loop_simple (struct loop *);
-static void peel_loop_completely (struct loop *);
 static void unroll_loop_stupid (struct loop *);
+static void decide_unrolling (int);
 static void unroll_loop_constant_iterations (struct loop *);
 static void unroll_loop_runtime_iterations (struct loop *);
 static struct opt_info *analyze_insns_in_loop (struct loop *);
@@ -197,15 +199,13 @@ static void combine_var_copies_in_loop_exit (struct var_to_expand *,
                                             basic_block);
 static rtx get_expansion (struct var_to_expand *);
 
-/* Emit a message summarizing the unroll or peel that will be
+/* Emit a message summarizing the unroll that will be
    performed for LOOP, along with the loop's location LOCUS, if
    appropriate given the dump or -fopt-info settings.  */
 
 static void
-report_unroll_peel (struct loop *loop, location_t locus)
+report_unroll (struct loop *loop, location_t locus)
 {
-  struct niter_desc *desc;
-  int niters = 0;
   int report_flags = MSG_OPTIMIZED_LOCATIONS | TDF_RTL | TDF_DETAILS;
 
   if (loop->lpt_decision.decision == LPT_NONE)
@@ -214,169 +214,20 @@ report_unroll_peel (struct loop *loop, location_t locus)
   if (!dump_enabled_p ())
     return;
 
-  /* In the special case where the loop never iterated, emit
-     a different message so that we don't report an unroll by 0.
-     This matches the equivalent message emitted during tree unrolling.  */
-  if (loop->lpt_decision.decision == LPT_PEEL_COMPLETELY
-      && !loop->lpt_decision.times)
-    {
-      dump_printf_loc (report_flags, locus,
-                       "loop turned into non-loop; it never loops.\n");
-      return;
-    }
-
-  desc = get_simple_loop_desc (loop);
-
-  if (desc->const_iter)
-    niters = desc->niter;
-  else if (loop->header->count)
-    niters = expected_loop_iterations (loop);
-
-  if (loop->lpt_decision.decision == LPT_PEEL_COMPLETELY)
-    dump_printf_loc (report_flags, locus,
-                     "loop with %d iterations completely unrolled",
-                    loop->lpt_decision.times + 1);
-  else
-    dump_printf_loc (report_flags, locus,
-                     "loop %s %d times",
-                     (loop->lpt_decision.decision == LPT_PEEL_SIMPLE
-                       ? "peeled" : "unrolled"),
-                     loop->lpt_decision.times);
+  dump_printf_loc (report_flags, locus,
+                   "loop unrolled %d times",
+                   loop->lpt_decision.times);
   if (profile_info)
     dump_printf (report_flags,
-                 " (header execution count %d",
+                 " (header execution count %d)",
                  (int)loop->header->count);
-  if (loop->lpt_decision.decision == LPT_PEEL_COMPLETELY)
-    dump_printf (report_flags,
-                 "%s%s iterations %d)",
-                 profile_info ? ", " : " (",
-                 desc->const_iter ? "const" : "average",
-                 niters);
-  else if (profile_info)
-    dump_printf (report_flags, ")");
 
   dump_printf (report_flags, "\n");
 }
 
-/* Unroll and/or peel (depending on FLAGS) LOOPS.  */
-void
-unroll_and_peel_loops (int flags)
-{
-  struct loop *loop;
-  bool changed = false;
-
-  /* First perform complete loop peeling (it is almost surely a win,
-     and affects parameters for further decision a lot).  */
-  peel_loops_completely (flags);
-
-  /* Now decide rest of unrolling and peeling.  */
-  decide_unrolling_and_peeling (flags);
-
-  /* Scan the loops, inner ones first.  */
-  FOR_EACH_LOOP (loop, LI_FROM_INNERMOST)
-    {
-      /* And perform the appropriate transformations.  */
-      switch (loop->lpt_decision.decision)
-       {
-       case LPT_PEEL_COMPLETELY:
-         /* Already done.  */
-         gcc_unreachable ();
-       case LPT_PEEL_SIMPLE:
-         peel_loop_simple (loop);
-         changed = true;
-         break;
-       case LPT_UNROLL_CONSTANT:
-         unroll_loop_constant_iterations (loop);
-         changed = true;
-         break;
-       case LPT_UNROLL_RUNTIME:
-         unroll_loop_runtime_iterations (loop);
-         changed = true;
-         break;
-       case LPT_UNROLL_STUPID:
-         unroll_loop_stupid (loop);
-         changed = true;
-         break;
-       case LPT_NONE:
-         break;
-       default:
-         gcc_unreachable ();
-       }
-    }
-
-    if (changed)
-      {
-       calculate_dominance_info (CDI_DOMINATORS);
-       fix_loop_structure (NULL);
-      }
-
-  iv_analysis_done ();
-}
-
-/* Check whether exit of the LOOP is at the end of loop body.  */
-
-static bool
-loop_exit_at_end_p (struct loop *loop)
-{
-  struct niter_desc *desc = get_simple_loop_desc (loop);
-  rtx_insn *insn;
-
-  if (desc->in_edge->dest != loop->latch)
-    return false;
-
-  /* Check that the latch is empty.  */
-  FOR_BB_INSNS (loop->latch, insn)
-    {
-      if (NONDEBUG_INSN_P (insn))
-       return false;
-    }
-
-  return true;
-}
-
-/* Depending on FLAGS, check whether to peel loops completely and do so.  */
+/* Decide whether unroll loops and how much.  */
 static void
-peel_loops_completely (int flags)
-{
-  struct loop *loop;
-  bool changed = false;
-
-  /* Scan the loops, the inner ones first.  */
-  FOR_EACH_LOOP (loop, LI_FROM_INNERMOST)
-    {
-      loop->lpt_decision.decision = LPT_NONE;
-      location_t locus = get_loop_location (loop);
-
-      if (dump_enabled_p ())
-       dump_printf_loc (TDF_RTL, locus,
-                         ";; *** Considering loop %d at BB %d for "
-                         "complete peeling ***\n",
-                         loop->num, loop->header->index);
-
-      loop->ninsns = num_loop_insns (loop);
-
-      decide_peel_once_rolling (loop, flags);
-      if (loop->lpt_decision.decision == LPT_NONE)
-       decide_peel_completely (loop, flags);
-
-      if (loop->lpt_decision.decision == LPT_PEEL_COMPLETELY)
-       {
-         report_unroll_peel (loop, locus);
-         peel_loop_completely (loop);
-         changed = true;
-       }
-    }
-
-    if (changed)
-      {
-       calculate_dominance_info (CDI_DOMINATORS);
-       fix_loop_structure (NULL);
-      }
-}
-
-/* Decide whether unroll or peel loops (depending on FLAGS) and how much.  */
-static void
-decide_unrolling_and_peeling (int flags)
+decide_unrolling (int flags)
 {
   struct loop *loop;
 
@@ -389,7 +240,7 @@ decide_unrolling_and_peeling (int flags)
       if (dump_enabled_p ())
        dump_printf_loc (TDF_RTL, locus,
                          ";; *** Considering loop %d at BB %d for "
-                         "unrolling and peeling ***\n",
+                         "unrolling ***\n",
                          loop->num, loop->header->index);
 
       /* Do not peel cold areas.  */
@@ -428,204 +279,77 @@ decide_unrolling_and_peeling (int flags)
        decide_unroll_runtime_iterations (loop, flags);
       if (loop->lpt_decision.decision == LPT_NONE)
        decide_unroll_stupid (loop, flags);
-      if (loop->lpt_decision.decision == LPT_NONE)
-       decide_peel_simple (loop, flags);
 
-      report_unroll_peel (loop, locus);
+      report_unroll (loop, locus);
     }
 }
 
-/* Decide whether the LOOP is once rolling and suitable for complete
-   peeling.  */
-static void
-decide_peel_once_rolling (struct loop *loop, int flags ATTRIBUTE_UNUSED)
-{
-  struct niter_desc *desc;
-
-  if (dump_file)
-    fprintf (dump_file, "\n;; Considering peeling once rolling loop\n");
-
-  /* Is the loop small enough?  */
-  if ((unsigned) PARAM_VALUE (PARAM_MAX_ONCE_PEELED_INSNS) < loop->ninsns)
-    {
-      if (dump_file)
-       fprintf (dump_file, ";; Not considering loop, is too big\n");
-      return;
-    }
-
-  /* Check for simple loops.  */
-  desc = get_simple_loop_desc (loop);
-
-  /* Check number of iterations.  */
-  if (!desc->simple_p
-      || desc->assumptions
-      || desc->infinite
-      || !desc->const_iter
-      || (desc->niter != 0
-         && get_max_loop_iterations_int (loop) != 0))
-    {
-      if (dump_file)
-       fprintf (dump_file,
-                ";; Unable to prove that the loop rolls exactly once\n");
-      return;
-    }
-
-  /* Success.  */
-  loop->lpt_decision.decision = LPT_PEEL_COMPLETELY;
-}
-
-/* Decide whether the LOOP is suitable for complete peeling.  */
-static void
-decide_peel_completely (struct loop *loop, int flags ATTRIBUTE_UNUSED)
+/* Unroll LOOPS.  */
+void
+unroll_loops (int flags)
 {
-  unsigned npeel;
-  struct niter_desc *desc;
-
-  if (dump_file)
-    fprintf (dump_file, "\n;; Considering peeling completely\n");
-
-  /* Skip non-innermost loops.  */
-  if (loop->inner)
-    {
-      if (dump_file)
-       fprintf (dump_file, ";; Not considering loop, is not innermost\n");
-      return;
-    }
-
-  /* Do not peel cold areas.  */
-  if (optimize_loop_for_size_p (loop))
-    {
-      if (dump_file)
-       fprintf (dump_file, ";; Not considering loop, cold area\n");
-      return;
-    }
-
-  /* Can the loop be manipulated?  */
-  if (!can_duplicate_loop_p (loop))
-    {
-      if (dump_file)
-       fprintf (dump_file,
-                ";; Not considering loop, cannot duplicate\n");
-      return;
-    }
-
-  /* npeel = number of iterations to peel.  */
-  npeel = PARAM_VALUE (PARAM_MAX_COMPLETELY_PEELED_INSNS) / loop->ninsns;
-  if (npeel > (unsigned) PARAM_VALUE (PARAM_MAX_COMPLETELY_PEEL_TIMES))
-    npeel = PARAM_VALUE (PARAM_MAX_COMPLETELY_PEEL_TIMES);
-
-  /* Is the loop small enough?  */
-  if (!npeel)
-    {
-      if (dump_file)
-       fprintf (dump_file, ";; Not considering loop, is too big\n");
-      return;
-    }
-
-  /* Check for simple loops.  */
-  desc = get_simple_loop_desc (loop);
+  struct loop *loop;
+  bool changed = false;
 
-  /* Check number of iterations.  */
-  if (!desc->simple_p
-      || desc->assumptions
-      || !desc->const_iter
-      || desc->infinite)
-    {
-      if (dump_file)
-       fprintf (dump_file,
-                ";; Unable to prove that the loop iterates constant times\n");
-      return;
-    }
+  /* Now decide rest of unrolling.  */
+  decide_unrolling (flags);
 
-  if (desc->niter > npeel - 1)
+  /* Scan the loops, inner ones first.  */
+  FOR_EACH_LOOP (loop, LI_FROM_INNERMOST)
     {
-      if (dump_file)
+      /* And perform the appropriate transformations.  */
+      switch (loop->lpt_decision.decision)
        {
-         fprintf (dump_file,
-                  ";; Not peeling loop completely, rolls too much (");
-         fprintf (dump_file, "%"PRId64, desc->niter);
-         fprintf (dump_file, " iterations > %d [maximum peelings])\n", npeel);
+       case LPT_UNROLL_CONSTANT:
+         unroll_loop_constant_iterations (loop);
+         changed = true;
+         break;
+       case LPT_UNROLL_RUNTIME:
+         unroll_loop_runtime_iterations (loop);
+         changed = true;
+         break;
+       case LPT_UNROLL_STUPID:
+         unroll_loop_stupid (loop);
+         changed = true;
+         break;
+       case LPT_NONE:
+         break;
+       default:
+         gcc_unreachable ();
        }
-      return;
     }
 
-  /* Success.  */
-  loop->lpt_decision.decision = LPT_PEEL_COMPLETELY;
-}
-
-/* Peel all iterations of LOOP, remove exit edges and cancel the loop
-   completely.  The transformation done:
+    if (changed)
+      {
+       calculate_dominance_info (CDI_DOMINATORS);
+       fix_loop_structure (NULL);
+      }
 
-   for (i = 0; i < 4; i++)
-     body;
+  iv_analysis_done ();
+}
 
-   ==>
+/* Check whether exit of the LOOP is at the end of loop body.  */
 
-   i = 0;
-   body; i++;
-   body; i++;
-   body; i++;
-   body; i++;
-   */
-static void
-peel_loop_completely (struct loop *loop)
+static bool
+loop_exit_at_end_p (struct loop *loop)
 {
-  sbitmap wont_exit;
-  unsigned HOST_WIDE_INT npeel;
-  unsigned i;
-  edge ein;
   struct niter_desc *desc = get_simple_loop_desc (loop);
-  struct opt_info *opt_info = NULL;
-
-  npeel = desc->niter;
-
-  if (npeel)
-    {
-      bool ok;
-
-      wont_exit = sbitmap_alloc (npeel + 1);
-      bitmap_ones (wont_exit);
-      bitmap_clear_bit (wont_exit, 0);
-      if (desc->noloop_assumptions)
-       bitmap_clear_bit (wont_exit, 1);
-
-      auto_vec<edge> remove_edges;
-      if (flag_split_ivs_in_unroller)
-        opt_info = analyze_insns_in_loop (loop);
-
-      opt_info_start_duplication (opt_info);
-      ok = duplicate_loop_to_header_edge (loop, loop_preheader_edge (loop),
-                                         npeel,
-                                         wont_exit, desc->out_edge,
-                                         &remove_edges,
-                                         DLTHE_FLAG_UPDATE_FREQ
-                                         | DLTHE_FLAG_COMPLETTE_PEEL
-                                         | (opt_info
-                                            ? DLTHE_RECORD_COPY_NUMBER : 0));
-      gcc_assert (ok);
+  rtx_insn *insn;
 
-      free (wont_exit);
+  /* We should never have conditional in latch block.  */
+  gcc_assert (desc->in_edge->dest != loop->header);
 
-      if (opt_info)
-       {
-         apply_opt_in_copies (opt_info, npeel, false, true);
-         free_opt_info (opt_info);
-       }
+  if (desc->in_edge->dest != loop->latch)
+    return false;
 
-      /* Remove the exit edges.  */
-      FOR_EACH_VEC_ELT (remove_edges, i, ein)
-       remove_path (ein);
+  /* Check that the latch is empty.  */
+  FOR_BB_INSNS (loop->latch, insn)
+    {
+      if (INSN_P (insn) && active_insn_p (insn))
+       return false;
     }
 
-  ein = desc->in_edge;
-  free_simple_loop_desc (loop);
-
-  /* Now remove the unreachable part of the last iteration and cancel
-     the loop.  */
-  remove_path (ein);
-
-  if (dump_file)
-    fprintf (dump_file, ";; Peeled loop completely, %d times\n", (int) npeel);
+  return true;
 }
 
 /* Decide whether to unroll LOOP iterating constant number of times
@@ -1054,12 +778,13 @@ split_edge_and_insert (edge e, rtx_insn *insns)
    in order to create a jump.  */
 
 static rtx_insn *
-compare_and_jump_seq (rtx op0, rtx op1, enum rtx_code comp, rtx label, int prob,
-                     rtx_insn *cinsn)
+compare_and_jump_seq (rtx op0, rtx op1, enum rtx_code comp,
+                     rtx_code_label *label, int prob, rtx_insn *cinsn)
 {
-  rtx_insn *seq, *jump;
+  rtx_insn *seq;
+  rtx_jump_insn *jump;
   rtx cond;
-  enum machine_mode mode;
+  machine_mode mode;
 
   mode = GET_MODE (op0);
   if (mode == VOIDmode)
@@ -1076,8 +801,7 @@ compare_and_jump_seq (rtx op0, rtx op1, enum rtx_code comp, rtx label, int prob,
       gcc_assert (rtx_equal_p (op0, XEXP (cond, 0)));
       gcc_assert (rtx_equal_p (op1, XEXP (cond, 1)));
       emit_jump_insn (copy_insn (PATTERN (cinsn)));
-      jump = get_last_insn ();
-      gcc_assert (JUMP_P (jump));
+      jump = as_a <rtx_jump_insn *> (get_last_insn ());
       JUMP_LABEL (jump) = JUMP_LABEL (cinsn);
       LABEL_NUSES (JUMP_LABEL (jump))++;
       redirect_jump (jump, label, 0);
@@ -1089,10 +813,9 @@ compare_and_jump_seq (rtx op0, rtx op1, enum rtx_code comp, rtx label, int prob,
       op0 = force_operand (op0, NULL_RTX);
       op1 = force_operand (op1, NULL_RTX);
       do_compare_rtx_and_jump (op0, op1, comp, 0,
-                              mode, NULL_RTX, NULL_RTX, label, -1);
-      jump = get_last_insn ();
-      gcc_assert (JUMP_P (jump));
-      JUMP_LABEL (jump) = label;
+                              mode, NULL_RTX, NULL, label, -1);
+      jump = as_a <rtx_jump_insn *> (get_last_insn ());
+      jump->set_jump_target (label);
       LABEL_NUSES (label)++;
     }
   add_int_reg_note (jump, REG_BR_PROB, prob);
@@ -1372,160 +1095,6 @@ unroll_loop_runtime_iterations (struct loop *loop)
             max_unroll, num_loop_insns (loop));
 }
 
-/* Decide whether to simply peel LOOP and how much.  */
-static void
-decide_peel_simple (struct loop *loop, int flags)
-{
-  unsigned npeel;
-  widest_int iterations;
-
-  if (!(flags & UAP_PEEL))
-    {
-      /* We were not asked to, just return back silently.  */
-      return;
-    }
-
-  if (dump_file)
-    fprintf (dump_file, "\n;; Considering simply peeling loop\n");
-
-  /* npeel = number of iterations to peel.  */
-  npeel = PARAM_VALUE (PARAM_MAX_PEELED_INSNS) / loop->ninsns;
-  if (npeel > (unsigned) PARAM_VALUE (PARAM_MAX_PEEL_TIMES))
-    npeel = PARAM_VALUE (PARAM_MAX_PEEL_TIMES);
-
-  /* Skip big loops.  */
-  if (!npeel)
-    {
-      if (dump_file)
-       fprintf (dump_file, ";; Not considering loop, is too big\n");
-      return;
-    }
-
-  /* Do not simply peel loops with branches inside -- it increases number
-     of mispredicts.  
-     Exception is when we do have profile and we however have good chance
-     to peel proper number of iterations loop will iterate in practice.
-     TODO: this heuristic needs tunning; while for complette unrolling
-     the branch inside loop mostly eliminates any improvements, for
-     peeling it is not the case.  Also a function call inside loop is
-     also branch from branch prediction POV (and probably better reason
-     to not unroll/peel).  */
-  if (num_loop_branches (loop) > 1
-      && profile_status_for_fn (cfun) != PROFILE_READ)
-    {
-      if (dump_file)
-       fprintf (dump_file, ";; Not peeling, contains branches\n");
-      return;
-    }
-
-  /* If we have realistic estimate on number of iterations, use it.  */
-  if (get_estimated_loop_iterations (loop, &iterations))
-    {
-      if (wi::leu_p (npeel, iterations))
-       {
-         if (dump_file)
-           {
-             fprintf (dump_file, ";; Not peeling loop, rolls too much (");
-             fprintf (dump_file, "%"PRId64,
-                      (int64_t) (iterations.to_shwi () + 1));
-             fprintf (dump_file, " iterations > %d [maximum peelings])\n",
-                      npeel);
-           }
-         return;
-       }
-      npeel = iterations.to_shwi () + 1;
-    }
-  /* If we have small enough bound on iterations, we can still peel (completely
-     unroll).  */
-  else if (get_max_loop_iterations (loop, &iterations)
-           && wi::ltu_p (iterations, npeel))
-    npeel = iterations.to_shwi () + 1;
-  else
-    {
-      /* For now we have no good heuristics to decide whether loop peeling
-         will be effective, so disable it.  */
-      if (dump_file)
-       fprintf (dump_file,
-                ";; Not peeling loop, no evidence it will be profitable\n");
-      return;
-    }
-
-  /* Success.  */
-  loop->lpt_decision.decision = LPT_PEEL_SIMPLE;
-  loop->lpt_decision.times = npeel;
-}
-
-/* Peel a LOOP LOOP->LPT_DECISION.TIMES times.  The transformation does this:
-
-   while (cond)
-     body;
-
-   ==>  (LOOP->LPT_DECISION.TIMES == 3)
-
-   if (!cond) goto end;
-   body;
-   if (!cond) goto end;
-   body;
-   if (!cond) goto end;
-   body;
-   while (cond)
-     body;
-   end: ;
-   */
-static void
-peel_loop_simple (struct loop *loop)
-{
-  sbitmap wont_exit;
-  unsigned npeel = loop->lpt_decision.times;
-  struct niter_desc *desc = get_simple_loop_desc (loop);
-  struct opt_info *opt_info = NULL;
-  bool ok;
-
-  if (flag_split_ivs_in_unroller && npeel > 1)
-    opt_info = analyze_insns_in_loop (loop);
-
-  wont_exit = sbitmap_alloc (npeel + 1);
-  bitmap_clear (wont_exit);
-
-  opt_info_start_duplication (opt_info);
-
-  ok = duplicate_loop_to_header_edge (loop, loop_preheader_edge (loop),
-                                     npeel, wont_exit, NULL,
-                                     NULL, DLTHE_FLAG_UPDATE_FREQ
-                                     | (opt_info
-                                        ? DLTHE_RECORD_COPY_NUMBER
-                                          : 0));
-  gcc_assert (ok);
-
-  free (wont_exit);
-
-  if (opt_info)
-    {
-      apply_opt_in_copies (opt_info, npeel, false, false);
-      free_opt_info (opt_info);
-    }
-
-  if (desc->simple_p)
-    {
-      if (desc->const_iter)
-       {
-         desc->niter -= npeel;
-         desc->niter_expr = GEN_INT (desc->niter);
-         desc->noloop_assumptions = NULL_RTX;
-       }
-      else
-       {
-         /* We cannot just update niter_expr, as its value might be clobbered
-            inside loop.  We could handle this by counting the number into
-            temporary just like we do in runtime unrolling, but it does not
-            seem worthwhile.  */
-         free_simple_loop_desc (loop);
-       }
-    }
-  if (dump_file)
-    fprintf (dump_file, ";; Peeling loop %d times\n", npeel);
-}
-
 /* Decide whether to unroll LOOP stupidly and how much.  */
 static void
 decide_unroll_stupid (struct loop *loop, int flags)
@@ -1679,7 +1248,7 @@ unroll_loop_stupid (struct loop *loop)
    Set *DEBUG_USES to the number of debug insns that reference the
    variable.  */
 
-bool
+static bool
 referenced_in_one_insn_in_loop_p (struct loop *loop, rtx reg,
                                  int *debug_uses)
 {
@@ -2112,7 +1681,7 @@ split_iv (struct iv_to_split *ivts, rtx_insn *insn, unsigned delta)
 {
   rtx expr, *loc, incr, var;
   rtx_insn *seq;
-  enum machine_mode mode = GET_MODE (ivts->base_var);
+  machine_mode mode = GET_MODE (ivts->base_var);
   rtx src, dest, set;
 
   /* Construct base + DELTA * step.  */
@@ -2252,7 +1821,7 @@ insert_var_expansion_initialization (struct var_to_expand *ve,
   rtx_insn *seq;
   rtx var, zero_init;
   unsigned i;
-  enum machine_mode mode = GET_MODE (ve->reg);
+  machine_mode mode = GET_MODE (ve->reg);
   bool honor_signed_zero_p = HONOR_SIGNED_ZEROS (mode);
 
   if (ve->var_expansions.length () == 0)