re PR target/65697 (__atomic memory barriers not strong enough for __sync builtins)
[gcc.git] / gcc / ira.c
index 628fd031208460c6db8456bfda521795fbd67dda..92d5eb11ed7c71ce682145db958805610f5319ab 100644 (file)
--- a/gcc/ira.c
+++ b/gcc/ira.c
@@ -1,5 +1,5 @@
 /* Integrated Register Allocator (IRA) entry point.
-   Copyright (C) 2006-2013 Free Software Foundation, Inc.
+   Copyright (C) 2006-2015 Free Software Foundation, Inc.
    Contributed by Vladimir Makarov <vmakarov@redhat.com>.
 
 This file is part of GCC.
@@ -153,7 +153,7 @@ along with GCC; see the file COPYING3.  If not see
          calculates its initial (non-accumulated) cost of memory and
          each hard-register of its allocno class (file ira-cost.c).
 
-       * IRA creates live ranges of each allocno, calulates register
+       * IRA creates live ranges of each allocno, calculates register
          pressure for each pressure class in each region, sets up
          conflict hard registers for each allocno and info about calls
          the allocno lives through (file ira-lives.c).
@@ -192,7 +192,14 @@ along with GCC; see the file COPYING3.  If not see
          this point.  There is some freedom in the order of putting
          allocnos on the stack which can affect the final result of
          the allocation.  IRA uses some heuristics to improve the
-         order.
+         order.  The major one is to form *threads* from colorable
+         allocnos and push them on the stack by threads.  Thread is a
+         set of non-conflicting colorable allocnos connected by
+         copies.  The thread contains allocnos from the colorable
+         bucket or colorable allocnos already pushed onto the coloring
+         stack.  Pushing thread allocnos one after another onto the
+         stack increases chances of removing copies when the allocnos
+         get the same hard reg.
         
         We also use a modification of Chaitin-Briggs algorithm which
          works for intersected register classes of allocnos.  To
@@ -238,13 +245,13 @@ along with GCC; see the file COPYING3.  If not see
          hard-register for allocnos conflicting with given allocno.
 
        * Chaitin-Briggs coloring assigns as many pseudos as possible
-         to hard registers.  After coloringh we try to improve
+         to hard registers.  After coloring we try to improve
          allocation with cost point of view.  We improve the
          allocation by spilling some allocnos and assigning the freed
          hard registers to other allocnos if it decreases the overall
          allocation cost.
 
-       * After allono assigning in the region, IRA modifies the hard
+       * After allocno assigning in the region, IRA modifies the hard
          register and memory costs for the corresponding allocnos in
          the subregions to reflect the cost of possible loads, stores,
          or moves on the border of the region and its subregions.
@@ -300,7 +307,7 @@ along with GCC; see the file COPYING3.  If not see
        rebuilding would be, but is much faster.
 
      o After IR flattening, IRA tries to assign hard registers to all
-       spilled allocnos.  This is impelemented by a simple and fast
+       spilled allocnos.  This is implemented by a simple and fast
        priority coloring algorithm (see function
        ira_reassign_conflict_allocnos::ira-color.c).  Here new allocnos
        created during the code change pass can be assigned to hard
@@ -321,7 +328,7 @@ along with GCC; see the file COPYING3.  If not see
          in places where the pseudo-register lives.
 
    IRA uses a lot of data representing the target processors.  These
-   data are initilized in file ira.c.
+   data are initialized in file ira.c.
 
    If function has no loops (or the loops are ignored when
    -fira-algorithm=CB is used), we have classic Chaitin-Briggs
@@ -361,16 +368,33 @@ along with GCC; see the file COPYING3.  If not see
 #include "coretypes.h"
 #include "tm.h"
 #include "regs.h"
+#include "alias.h"
+#include "symtab.h"
 #include "tree.h"
+#include "hard-reg-set.h"
 #include "rtl.h"
 #include "tm_p.h"
 #include "target.h"
 #include "flags.h"
 #include "obstack.h"
 #include "bitmap.h"
-#include "hard-reg-set.h"
+#include "predict.h"
+#include "function.h"
+#include "dominance.h"
+#include "cfg.h"
+#include "cfgrtl.h"
+#include "cfgbuild.h"
+#include "cfgcleanup.h"
 #include "basic-block.h"
 #include "df.h"
+#include "insn-config.h"
+#include "expmed.h"
+#include "dojump.h"
+#include "explow.h"
+#include "calls.h"
+#include "emit-rtl.h"
+#include "varasm.h"
+#include "stmt.h"
 #include "expr.h"
 #include "recog.h"
 #include "params.h"
@@ -379,12 +403,12 @@ along with GCC; see the file COPYING3.  If not see
 #include "except.h"
 #include "reload.h"
 #include "diagnostic-core.h"
-#include "function.h"
-#include "ggc.h"
 #include "ira-int.h"
 #include "lra.h"
 #include "dce.h"
 #include "dbgcnt.h"
+#include "rtl-iter.h"
+#include "shrink-wrap.h"
 
 struct target_ira default_target_ira;
 struct target_ira_int default_target_ira_int;
@@ -411,9 +435,9 @@ struct ira_spilled_reg_stack_slot *ira_spilled_reg_stack_slots;
    the allocnos assigned to memory, cost of loads, stores and register
    move insns generated for pseudo-register live range splitting (see
    ira-emit.c).  */
-int ira_overall_cost, overall_cost_before;
-int ira_reg_cost, ira_mem_cost;
-int ira_load_cost, ira_store_cost, ira_shuffle_cost;
+int64_t ira_overall_cost, overall_cost_before;
+int64_t ira_reg_cost, ira_mem_cost;
+int64_t ira_load_cost, ira_store_cost, ira_shuffle_cost;
 int ira_move_loops_num, ira_additional_jumps_num;
 
 /* All registers that can be eliminated.  */
@@ -573,11 +597,11 @@ setup_class_subset_and_memory_move_costs (void)
          {
            ira_max_memory_move_cost[mode][cl][0]
              = ira_memory_move_cost[mode][cl][0]
-             = memory_move_cost ((enum machine_mode) mode,
+             = memory_move_cost ((machine_mode) mode,
                                  (reg_class_t) cl, false);
            ira_max_memory_move_cost[mode][cl][1]
              = ira_memory_move_cost[mode][cl][1]
-             = memory_move_cost ((enum machine_mode) mode,
+             = memory_move_cost ((machine_mode) mode,
                                  (reg_class_t) cl, true);
            /* Costs for NO_REGS are used in cost calculation on the
               1st pass when the preferred register classes are not
@@ -810,7 +834,7 @@ setup_pressure_classes (void)
                                      ira_prohibited_class_mode_regs[cl][m]);
              if (hard_reg_set_empty_p (temp_hard_regset))
                continue;
-             ira_init_register_move_cost_if_necessary ((enum machine_mode) m);
+             ira_init_register_move_cost_if_necessary ((machine_mode) m);
              cost = ira_register_move_cost[m][cl][cl];
              if (cost <= ira_max_memory_move_cost[m][cl][1]
                  || cost <= ira_max_memory_move_cost[m][cl][0])
@@ -889,7 +913,7 @@ setup_pressure_classes (void)
          IOR_HARD_REG_SET (temp_hard_regset, reg_class_contents[cl]);
       }
     for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
-      /* Some targets (like SPARC with ICC reg) have alocatable regs
+      /* Some targets (like SPARC with ICC reg) have allocatable regs
         for which no reg class is defined.  */
       if (REGNO_REG_CLASS (i) == NO_REGS)
        SET_HARD_REG_BIT (ignore_hard_regs, i);
@@ -934,7 +958,7 @@ setup_uniform_class_p (void)
          for (m = 0; m < NUM_MACHINE_MODES; m++)
            if (contains_reg_of_mode[cl][m] && contains_reg_of_mode[cl2][m])
              {
-               ira_init_register_move_cost_if_necessary ((enum machine_mode) m);
+               ira_init_register_move_cost_if_necessary ((machine_mode) m);
                if (ira_register_move_cost[m][cl][cl]
                    != ira_register_move_cost[m][cl2][cl2])
                  break;
@@ -950,7 +974,7 @@ setup_uniform_class_p (void)
 /* Set up IRA_ALLOCNO_CLASSES, IRA_ALLOCNO_CLASSES_NUM,
    IRA_IMPORTANT_CLASSES, and IRA_IMPORTANT_CLASSES_NUM.
 
-   Target may have many subtargets and not all target hard regiters can
+   Target may have many subtargets and not all target hard registers can
    be used for allocation, e.g. x86 port in 32-bit mode can not use
    hard registers introduced in x86-64 like r8-r15).  Some classes
    might have the same allocatable hard registers, e.g.  INDEX_REGS
@@ -1010,7 +1034,7 @@ setup_allocno_and_important_classes (void)
   classes[n] = LIM_REG_CLASSES;
 
   /* Set up classes which can be used for allocnos as classes
-     conatining non-empty unique sets of allocatable hard
+     containing non-empty unique sets of allocatable hard
      registers.  */
   ira_allocno_classes_num = 0;
   for (i = 0; (cl = classes[i]) != LIM_REG_CLASSES; i++)
@@ -1069,7 +1093,7 @@ setup_allocno_and_important_classes (void)
    containing a given class.  If allocatable hard register set of a
    given class is not a subset of any corresponding set of a class
    from CLASSES, we use the cheapest (with load/store point of view)
-   class from CLASSES whose set intersects with given class set */
+   class from CLASSES whose set intersects with given class set */
 static void
 setup_class_translate_array (enum reg_class *class_translate,
                             int classes_num, enum reg_class *classes)
@@ -1304,7 +1328,7 @@ setup_reg_class_relations (void)
              if (important_class_p[cl3]
                  && hard_reg_set_subset_p (temp_hard_regset, union_set))
                {
-                 /* CL3 allocatbale hard register set is inside of
+                 /* CL3 allocatable hard register set is inside of
                     union of allocatable hard register sets of CL1
                     and CL2.  */
                  COPY_HARD_REG_SET
@@ -1357,7 +1381,7 @@ setup_reg_class_relations (void)
     }
 }
 
-/* Output all unifrom and important classes into file F.  */
+/* Output all uniform and important classes into file F.  */
 static void
 print_unform_and_important_classes (FILE *f)
 {
@@ -1464,7 +1488,7 @@ setup_reg_class_nregs (void)
       for (cl = 0; cl < N_REG_CLASSES; cl++)
        ira_reg_class_max_nregs[cl][m]
          = ira_reg_class_min_nregs[cl][m]
-         = targetm.class_max_nregs ((reg_class_t) cl, (enum machine_mode) m);
+         = targetm.class_max_nregs ((reg_class_t) cl, (machine_mode) m);
       for (cl = 0; cl < N_REG_CLASSES; cl++)
        for (i = 0;
             (cl2 = alloc_reg_class_subclasses[cl][i]) != LIM_REG_CLASSES;
@@ -1496,11 +1520,11 @@ setup_prohibited_class_mode_regs (void)
          for (k = ira_class_hard_regs_num[cl] - 1; k >= 0; k--)
            {
              hard_regno = ira_class_hard_regs[cl][k];
-             if (! HARD_REGNO_MODE_OK (hard_regno, (enum machine_mode) j))
+             if (! HARD_REGNO_MODE_OK (hard_regno, (machine_mode) j))
                SET_HARD_REG_BIT (ira_prohibited_class_mode_regs[cl][j],
                                  hard_regno);
              else if (in_hard_reg_set_p (temp_hard_regset,
-                                         (enum machine_mode) j, hard_regno))
+                                         (machine_mode) j, hard_regno))
                {
                  last_hard_regno = hard_regno;
                  count++;
@@ -1548,7 +1572,7 @@ clarify_prohibited_class_mode_regs (void)
            if (!TEST_HARD_REG_BIT (ira_prohibited_class_mode_regs[cl][j],
                                    hard_regno))
              add_to_hard_reg_set (&ira_useful_class_mode_regs[cl][j],
-                                  (enum machine_mode) j, hard_regno);
+                                  (machine_mode) j, hard_regno);
          }
       }
 }
@@ -1556,7 +1580,7 @@ clarify_prohibited_class_mode_regs (void)
 /* Allocate and initialize IRA_REGISTER_MOVE_COST, IRA_MAY_MOVE_IN_COST
    and IRA_MAY_MOVE_OUT_COST for MODE.  */
 void
-ira_init_register_move_cost (enum machine_mode mode)
+ira_init_register_move_cost (machine_mode mode)
 {
   static unsigned short last_move_cost[N_REG_CLASSES][N_REG_CLASSES];
   bool all_match = true;
@@ -1567,21 +1591,30 @@ ira_init_register_move_cost (enum machine_mode mode)
              && ira_may_move_out_cost[mode] == NULL);
   ira_assert (have_regs_of_mode[mode]);
   for (cl1 = 0; cl1 < N_REG_CLASSES; cl1++)
-    if (contains_reg_of_mode[cl1][mode])
-      for (cl2 = 0; cl2 < N_REG_CLASSES; cl2++)
-       {
-         int cost;
-         if (!contains_reg_of_mode[cl2][mode])
-           cost = 65535;
-         else
-           {
-             cost = register_move_cost (mode, (enum reg_class) cl1,
-                                        (enum reg_class) cl2);
-             ira_assert (cost < 65535);
-           }
-         all_match &= (last_move_cost[cl1][cl2] == cost);
-         last_move_cost[cl1][cl2] = cost;
-       }
+    for (cl2 = 0; cl2 < N_REG_CLASSES; cl2++)
+      {
+       int cost;
+       if (!contains_reg_of_mode[cl1][mode]
+           || !contains_reg_of_mode[cl2][mode])
+         {
+           if ((ira_reg_class_max_nregs[cl1][mode]
+                > ira_class_hard_regs_num[cl1])
+               || (ira_reg_class_max_nregs[cl2][mode]
+                   > ira_class_hard_regs_num[cl2]))
+             cost = 65535;
+           else
+             cost = (ira_memory_move_cost[mode][cl1][0]
+                     + ira_memory_move_cost[mode][cl2][1]) * 2;
+         }
+       else
+         {
+           cost = register_move_cost (mode, (enum reg_class) cl1,
+                                      (enum reg_class) cl2);
+           ira_assert (cost < 65535);
+         }
+       all_match &= (last_move_cost[cl1][cl2] == cost);
+       last_move_cost[cl1][cl2] = cost;
+      }
   if (all_match && last_mode_for_init_move_cost != -1)
     {
       ira_register_move_cost[mode]
@@ -1597,58 +1630,51 @@ ira_init_register_move_cost (enum machine_mode mode)
   ira_may_move_in_cost[mode] = XNEWVEC (move_table, N_REG_CLASSES);
   ira_may_move_out_cost[mode] = XNEWVEC (move_table, N_REG_CLASSES);
   for (cl1 = 0; cl1 < N_REG_CLASSES; cl1++)
-    if (contains_reg_of_mode[cl1][mode])
-      for (cl2 = 0; cl2 < N_REG_CLASSES; cl2++)
-       {
-         int cost;
-         enum reg_class *p1, *p2;
-
-         if (last_move_cost[cl1][cl2] == 65535)
-           {
-             ira_register_move_cost[mode][cl1][cl2] = 65535;
-             ira_may_move_in_cost[mode][cl1][cl2] = 65535;
-             ira_may_move_out_cost[mode][cl1][cl2] = 65535;
-           }
-         else
-           {
-             cost = last_move_cost[cl1][cl2];
-
-             for (p2 = &reg_class_subclasses[cl2][0];
-                  *p2 != LIM_REG_CLASSES; p2++)
-               if (ira_class_hard_regs_num[*p2] > 0
-                   && (ira_reg_class_max_nregs[*p2][mode]
-                       <= ira_class_hard_regs_num[*p2]))
-                 cost = MAX (cost, ira_register_move_cost[mode][cl1][*p2]);
-
-             for (p1 = &reg_class_subclasses[cl1][0];
-                  *p1 != LIM_REG_CLASSES; p1++)
-               if (ira_class_hard_regs_num[*p1] > 0
-                   && (ira_reg_class_max_nregs[*p1][mode]
-                       <= ira_class_hard_regs_num[*p1]))
-                 cost = MAX (cost, ira_register_move_cost[mode][*p1][cl2]);
-
-             ira_assert (cost <= 65535);
-             ira_register_move_cost[mode][cl1][cl2] = cost;
-
-             if (ira_class_subset_p[cl1][cl2])
-               ira_may_move_in_cost[mode][cl1][cl2] = 0;
-             else
-               ira_may_move_in_cost[mode][cl1][cl2] = cost;
-
-             if (ira_class_subset_p[cl2][cl1])
-               ira_may_move_out_cost[mode][cl1][cl2] = 0;
-             else
-               ira_may_move_out_cost[mode][cl1][cl2] = cost;
-           }
-       }
-    else
-      for (cl2 = 0; cl2 < N_REG_CLASSES; cl2++)
-       {
-         ira_register_move_cost[mode][cl1][cl2] = 65535;
-         ira_may_move_in_cost[mode][cl1][cl2] = 65535;
-         ira_may_move_out_cost[mode][cl1][cl2] = 65535;
-       }
+    for (cl2 = 0; cl2 < N_REG_CLASSES; cl2++)
+      {
+       int cost;
+       enum reg_class *p1, *p2;
+       
+       if (last_move_cost[cl1][cl2] == 65535)
+         {
+           ira_register_move_cost[mode][cl1][cl2] = 65535;
+           ira_may_move_in_cost[mode][cl1][cl2] = 65535;
+           ira_may_move_out_cost[mode][cl1][cl2] = 65535;
+         }
+       else
+         {
+           cost = last_move_cost[cl1][cl2];
+           
+           for (p2 = &reg_class_subclasses[cl2][0];
+                *p2 != LIM_REG_CLASSES; p2++)
+             if (ira_class_hard_regs_num[*p2] > 0
+                 && (ira_reg_class_max_nregs[*p2][mode]
+                     <= ira_class_hard_regs_num[*p2]))
+               cost = MAX (cost, ira_register_move_cost[mode][cl1][*p2]);
+           
+           for (p1 = &reg_class_subclasses[cl1][0];
+                *p1 != LIM_REG_CLASSES; p1++)
+             if (ira_class_hard_regs_num[*p1] > 0
+                 && (ira_reg_class_max_nregs[*p1][mode]
+                     <= ira_class_hard_regs_num[*p1]))
+               cost = MAX (cost, ira_register_move_cost[mode][*p1][cl2]);
+           
+           ira_assert (cost <= 65535);
+           ira_register_move_cost[mode][cl1][cl2] = cost;
+           
+           if (ira_class_subset_p[cl1][cl2])
+             ira_may_move_in_cost[mode][cl1][cl2] = 0;
+           else
+             ira_may_move_in_cost[mode][cl1][cl2] = cost;
+           
+           if (ira_class_subset_p[cl2][cl1])
+             ira_may_move_out_cost[mode][cl1][cl2] = 0;
+           else
+             ira_may_move_out_cost[mode][cl1][cl2] = cost;
+         }
+      }
 }
+
 \f
 
 /* This is called once during compiler work.  It sets up
@@ -1663,40 +1689,46 @@ ira_init_once (void)
 
 /* Free ira_max_register_move_cost, ira_may_move_in_cost and
    ira_may_move_out_cost for each mode.  */
-static void
-free_register_move_costs (void)
+void
+target_ira_int::free_register_move_costs (void)
 {
   int mode, i;
 
   /* Reset move_cost and friends, making sure we only free shared
      table entries once.  */
   for (mode = 0; mode < MAX_MACHINE_MODE; mode++)
-    if (ira_register_move_cost[mode])
+    if (x_ira_register_move_cost[mode])
       {
        for (i = 0;
-            i < mode && (ira_register_move_cost[i]
-                         != ira_register_move_cost[mode]);
+            i < mode && (x_ira_register_move_cost[i]
+                         != x_ira_register_move_cost[mode]);
             i++)
          ;
        if (i == mode)
          {
-           free (ira_register_move_cost[mode]);
-           free (ira_may_move_in_cost[mode]);
-           free (ira_may_move_out_cost[mode]);
+           free (x_ira_register_move_cost[mode]);
+           free (x_ira_may_move_in_cost[mode]);
+           free (x_ira_may_move_out_cost[mode]);
          }
       }
-  memset (ira_register_move_cost, 0, sizeof ira_register_move_cost);
-  memset (ira_may_move_in_cost, 0, sizeof ira_may_move_in_cost);
-  memset (ira_may_move_out_cost, 0, sizeof ira_may_move_out_cost);
+  memset (x_ira_register_move_cost, 0, sizeof x_ira_register_move_cost);
+  memset (x_ira_may_move_in_cost, 0, sizeof x_ira_may_move_in_cost);
+  memset (x_ira_may_move_out_cost, 0, sizeof x_ira_may_move_out_cost);
   last_mode_for_init_move_cost = -1;
 }
 
+target_ira_int::~target_ira_int ()
+{
+  free_ira_costs ();
+  free_register_move_costs ();
+}
+
 /* This is called every time when register related information is
    changed.  */
 void
 ira_init (void)
 {
-  free_register_move_costs ();
+  this_target_ira_int->free_register_move_costs ();
   setup_reg_mode_hard_regset ();
   setup_alloc_regs (flag_omit_frame_pointer != 0);
   setup_class_subset_and_memory_move_costs ();
@@ -1706,16 +1738,6 @@ ira_init (void)
   clarify_prohibited_class_mode_regs ();
   setup_hard_regno_aclass ();
   ira_init_costs ();
-  lra_init ();
-}
-
-/* Function called once at the end of compiler work.  */
-void
-ira_finish_once (void)
-{
-  ira_finish_costs_once ();
-  free_register_move_costs ();
-  lra_finish_once ();
 }
 
 \f
@@ -1727,32 +1749,33 @@ static void
 setup_prohibited_mode_move_regs (void)
 {
   int i, j;
-  rtx test_reg1, test_reg2, move_pat, move_insn;
+  rtx test_reg1, test_reg2, move_pat;
+  rtx_insn *move_insn;
 
   if (ira_prohibited_mode_move_regs_initialized_p)
     return;
   ira_prohibited_mode_move_regs_initialized_p = true;
-  test_reg1 = gen_rtx_REG (VOIDmode, 0);
-  test_reg2 = gen_rtx_REG (VOIDmode, 0);
-  move_pat = gen_rtx_SET (VOIDmode, test_reg1, test_reg2);
-  move_insn = gen_rtx_INSN (VOIDmode, 0, 0, 0, 0, move_pat, 0, -1, 0);
+  test_reg1 = gen_rtx_REG (word_mode, LAST_VIRTUAL_REGISTER + 1);
+  test_reg2 = gen_rtx_REG (word_mode, LAST_VIRTUAL_REGISTER + 2);
+  move_pat = gen_rtx_SET (test_reg1, test_reg2);
+  move_insn = gen_rtx_INSN (VOIDmode, 0, 0, 0, move_pat, 0, -1, 0);
   for (i = 0; i < NUM_MACHINE_MODES; i++)
     {
       SET_HARD_REG_SET (ira_prohibited_mode_move_regs[i]);
       for (j = 0; j < FIRST_PSEUDO_REGISTER; j++)
        {
-         if (! HARD_REGNO_MODE_OK (j, (enum machine_mode) i))
+         if (! HARD_REGNO_MODE_OK (j, (machine_mode) i))
            continue;
-         SET_REGNO_RAW (test_reg1, j);
-         PUT_MODE (test_reg1, (enum machine_mode) i);
-         SET_REGNO_RAW (test_reg2, j);
-         PUT_MODE (test_reg2, (enum machine_mode) i);
+         set_mode_and_regno (test_reg1, (machine_mode) i, j);
+         set_mode_and_regno (test_reg2, (machine_mode) i, j);
          INSN_CODE (move_insn) = -1;
          recog_memoized (move_insn);
          if (INSN_CODE (move_insn) < 0)
            continue;
          extract_insn (move_insn);
-         if (! constrain_operands (1))
+         /* We don't know whether the move will be in code that is optimized
+            for size or speed, so consider all enabled alternatives.  */
+         if (! constrain_operands (1, get_enabled_alternatives (move_insn)))
            continue;
          CLEAR_HARD_REG_BIT (ira_prohibited_mode_move_regs[i], j);
        }
@@ -1761,6 +1784,414 @@ setup_prohibited_mode_move_regs (void)
 
 \f
 
+/* Setup possible alternatives in ALTS for INSN.  */
+void
+ira_setup_alts (rtx_insn *insn, HARD_REG_SET &alts)
+{
+  /* MAP nalt * nop -> start of constraints for given operand and
+     alternative.  */
+  static vec<const char *> insn_constraints;
+  int nop, nalt;
+  bool curr_swapped;
+  const char *p;
+  int commutative = -1;
+
+  extract_insn (insn);
+  alternative_mask preferred = get_preferred_alternatives (insn);
+  CLEAR_HARD_REG_SET (alts);
+  insn_constraints.release ();
+  insn_constraints.safe_grow_cleared (recog_data.n_operands
+                                     * recog_data.n_alternatives + 1);
+  /* Check that the hard reg set is enough for holding all
+     alternatives.  It is hard to imagine the situation when the
+     assertion is wrong.  */
+  ira_assert (recog_data.n_alternatives
+             <= (int) MAX (sizeof (HARD_REG_ELT_TYPE) * CHAR_BIT,
+                           FIRST_PSEUDO_REGISTER));
+  for (curr_swapped = false;; curr_swapped = true)
+    {
+      /* Calculate some data common for all alternatives to speed up the
+        function.  */
+      for (nop = 0; nop < recog_data.n_operands; nop++)
+       {
+         for (nalt = 0, p = recog_data.constraints[nop];
+              nalt < recog_data.n_alternatives;
+              nalt++)
+           {
+             insn_constraints[nop * recog_data.n_alternatives + nalt] = p;
+             while (*p && *p != ',')
+               p++;
+             if (*p)
+               p++;
+           }
+       }
+      for (nalt = 0; nalt < recog_data.n_alternatives; nalt++)
+       {
+         if (!TEST_BIT (preferred, nalt)
+             || TEST_HARD_REG_BIT (alts, nalt))
+           continue;
+
+         for (nop = 0; nop < recog_data.n_operands; nop++)
+           {
+             int c, len;
+
+             rtx op = recog_data.operand[nop];
+             p = insn_constraints[nop * recog_data.n_alternatives + nalt];
+             if (*p == 0 || *p == ',')
+               continue;
+             
+             do
+               switch (c = *p, len = CONSTRAINT_LEN (c, p), c)
+                 {
+                 case '#':
+                 case ',':
+                   c = '\0';
+                 case '\0':
+                   len = 0;
+                   break;
+                 
+                 case '%':
+                   /* We only support one commutative marker, the
+                      first one.  We already set commutative
+                      above.  */
+                   if (commutative < 0)
+                     commutative = nop;
+                   break;
+
+                 case '0':  case '1':  case '2':  case '3':  case '4':
+                 case '5':  case '6':  case '7':  case '8':  case '9':
+                   goto op_success;
+                   break;
+                   
+                 case 'g':
+                   goto op_success;
+                   break;
+                   
+                 default:
+                   {
+                     enum constraint_num cn = lookup_constraint (p);
+                     switch (get_constraint_type (cn))
+                       {
+                       case CT_REGISTER:
+                         if (reg_class_for_constraint (cn) != NO_REGS)
+                           goto op_success;
+                         break;
+
+                       case CT_CONST_INT:
+                         if (CONST_INT_P (op)
+                             && (insn_const_int_ok_for_constraint
+                                 (INTVAL (op), cn)))
+                           goto op_success;
+                         break;
+
+                       case CT_ADDRESS:
+                       case CT_MEMORY:
+                         goto op_success;
+
+                       case CT_FIXED_FORM:
+                         if (constraint_satisfied_p (op, cn))
+                           goto op_success;
+                         break;
+                       }
+                     break;
+                   }
+                 }
+             while (p += len, c);
+             break;
+           op_success:
+             ;
+           }
+         if (nop >= recog_data.n_operands)
+           SET_HARD_REG_BIT (alts, nalt);
+       }
+      if (commutative < 0)
+       break;
+      if (curr_swapped)
+       break;
+      std::swap (recog_data.operand[commutative],
+                recog_data.operand[commutative + 1]);
+    }
+}
+
+/* Return the number of the output non-early clobber operand which
+   should be the same in any case as operand with number OP_NUM (or
+   negative value if there is no such operand).  The function takes
+   only really possible alternatives into consideration.  */
+int
+ira_get_dup_out_num (int op_num, HARD_REG_SET &alts)
+{
+  int curr_alt, c, original, dup;
+  bool ignore_p, use_commut_op_p;
+  const char *str;
+
+  if (op_num < 0 || recog_data.n_alternatives == 0)
+    return -1;
+  /* We should find duplications only for input operands.  */
+  if (recog_data.operand_type[op_num] != OP_IN)
+    return -1;
+  str = recog_data.constraints[op_num];
+  use_commut_op_p = false;
+  for (;;)
+    {
+      rtx op = recog_data.operand[op_num];
+      
+      for (curr_alt = 0, ignore_p = !TEST_HARD_REG_BIT (alts, curr_alt),
+          original = -1;;)
+       {
+         c = *str;
+         if (c == '\0')
+           break;
+         if (c == '#')
+           ignore_p = true;
+         else if (c == ',')
+           {
+             curr_alt++;
+             ignore_p = !TEST_HARD_REG_BIT (alts, curr_alt);
+           }
+         else if (! ignore_p)
+           switch (c)
+             {
+             case 'g':
+               goto fail;
+             default:
+               {
+                 enum constraint_num cn = lookup_constraint (str);
+                 enum reg_class cl = reg_class_for_constraint (cn);
+                 if (cl != NO_REGS
+                     && !targetm.class_likely_spilled_p (cl))
+                   goto fail;
+                 if (constraint_satisfied_p (op, cn))
+                   goto fail;
+                 break;
+               }
+               
+             case '0': case '1': case '2': case '3': case '4':
+             case '5': case '6': case '7': case '8': case '9':
+               if (original != -1 && original != c)
+                 goto fail;
+               original = c;
+               break;
+             }
+         str += CONSTRAINT_LEN (c, str);
+       }
+      if (original == -1)
+       goto fail;
+      dup = -1;
+      for (ignore_p = false, str = recog_data.constraints[original - '0'];
+          *str != 0;
+          str++)
+       if (ignore_p)
+         {
+           if (*str == ',')
+             ignore_p = false;
+         }
+       else if (*str == '#')
+         ignore_p = true;
+       else if (! ignore_p)
+         {
+           if (*str == '=')
+             dup = original - '0';
+           /* It is better ignore an alternative with early clobber.  */
+           else if (*str == '&')
+             goto fail;
+         }
+      if (dup >= 0)
+       return dup;
+    fail:
+      if (use_commut_op_p)
+       break;
+      use_commut_op_p = true;
+      if (recog_data.constraints[op_num][0] == '%')
+       str = recog_data.constraints[op_num + 1];
+      else if (op_num > 0 && recog_data.constraints[op_num - 1][0] == '%')
+       str = recog_data.constraints[op_num - 1];
+      else
+       break;
+    }
+  return -1;
+}
+
+\f
+
+/* Search forward to see if the source register of a copy insn dies
+   before either it or the destination register is modified, but don't
+   scan past the end of the basic block.  If so, we can replace the
+   source with the destination and let the source die in the copy
+   insn.
+
+   This will reduce the number of registers live in that range and may
+   enable the destination and the source coalescing, thus often saving
+   one register in addition to a register-register copy.  */
+
+static void
+decrease_live_ranges_number (void)
+{
+  basic_block bb;
+  rtx_insn *insn;
+  rtx set, src, dest, dest_death, note;
+  rtx_insn *p, *q;
+  int sregno, dregno;
+
+  if (! flag_expensive_optimizations)
+    return;
+
+  if (ira_dump_file)
+    fprintf (ira_dump_file, "Starting decreasing number of live ranges...\n");
+
+  FOR_EACH_BB_FN (bb, cfun)
+    FOR_BB_INSNS (bb, insn)
+      {
+       set = single_set (insn);
+       if (! set)
+         continue;
+       src = SET_SRC (set);
+       dest = SET_DEST (set);
+       if (! REG_P (src) || ! REG_P (dest)
+           || find_reg_note (insn, REG_DEAD, src))
+         continue;
+       sregno = REGNO (src);
+       dregno = REGNO (dest);
+       
+       /* We don't want to mess with hard regs if register classes
+          are small.  */
+       if (sregno == dregno
+           || (targetm.small_register_classes_for_mode_p (GET_MODE (src))
+               && (sregno < FIRST_PSEUDO_REGISTER
+                   || dregno < FIRST_PSEUDO_REGISTER))
+           /* We don't see all updates to SP if they are in an
+              auto-inc memory reference, so we must disallow this
+              optimization on them.  */
+           || sregno == STACK_POINTER_REGNUM
+           || dregno == STACK_POINTER_REGNUM)
+         continue;
+       
+       dest_death = NULL_RTX;
+
+       for (p = NEXT_INSN (insn); p; p = NEXT_INSN (p))
+         {
+           if (! INSN_P (p))
+             continue;
+           if (BLOCK_FOR_INSN (p) != bb)
+             break;
+           
+           if (reg_set_p (src, p) || reg_set_p (dest, p)
+               /* If SRC is an asm-declared register, it must not be
+                  replaced in any asm.  Unfortunately, the REG_EXPR
+                  tree for the asm variable may be absent in the SRC
+                  rtx, so we can't check the actual register
+                  declaration easily (the asm operand will have it,
+                  though).  To avoid complicating the test for a rare
+                  case, we just don't perform register replacement
+                  for a hard reg mentioned in an asm.  */
+               || (sregno < FIRST_PSEUDO_REGISTER
+                   && asm_noperands (PATTERN (p)) >= 0
+                   && reg_overlap_mentioned_p (src, PATTERN (p)))
+               /* Don't change hard registers used by a call.  */
+               || (CALL_P (p) && sregno < FIRST_PSEUDO_REGISTER
+                   && find_reg_fusage (p, USE, src))
+               /* Don't change a USE of a register.  */
+               || (GET_CODE (PATTERN (p)) == USE
+                   && reg_overlap_mentioned_p (src, XEXP (PATTERN (p), 0))))
+             break;
+           
+           /* See if all of SRC dies in P.  This test is slightly
+              more conservative than it needs to be.  */
+           if ((note = find_regno_note (p, REG_DEAD, sregno))
+               && GET_MODE (XEXP (note, 0)) == GET_MODE (src))
+             {
+               int failed = 0;
+               
+               /* We can do the optimization.  Scan forward from INSN
+                  again, replacing regs as we go.  Set FAILED if a
+                  replacement can't be done.  In that case, we can't
+                  move the death note for SRC.  This should be
+                  rare.  */
+               
+               /* Set to stop at next insn.  */
+               for (q = next_real_insn (insn);
+                    q != next_real_insn (p);
+                    q = next_real_insn (q))
+                 {
+                   if (reg_overlap_mentioned_p (src, PATTERN (q)))
+                     {
+                       /* If SRC is a hard register, we might miss
+                          some overlapping registers with
+                          validate_replace_rtx, so we would have to
+                          undo it.  We can't if DEST is present in
+                          the insn, so fail in that combination of
+                          cases.  */
+                       if (sregno < FIRST_PSEUDO_REGISTER
+                           && reg_mentioned_p (dest, PATTERN (q)))
+                         failed = 1;
+                       
+                       /* Attempt to replace all uses.  */
+                       else if (!validate_replace_rtx (src, dest, q))
+                         failed = 1;
+                       
+                       /* If this succeeded, but some part of the
+                          register is still present, undo the
+                          replacement.  */
+                       else if (sregno < FIRST_PSEUDO_REGISTER
+                                && reg_overlap_mentioned_p (src, PATTERN (q)))
+                         {
+                           validate_replace_rtx (dest, src, q);
+                           failed = 1;
+                         }
+                     }
+                   
+                   /* If DEST dies here, remove the death note and
+                      save it for later.  Make sure ALL of DEST dies
+                      here; again, this is overly conservative.  */
+                   if (! dest_death
+                       && (dest_death = find_regno_note (q, REG_DEAD, dregno)))
+                     {
+                       if (GET_MODE (XEXP (dest_death, 0)) == GET_MODE (dest))
+                         remove_note (q, dest_death);
+                       else
+                         {
+                           failed = 1;
+                           dest_death = 0;
+                         }
+                     }
+                 }
+               
+               if (! failed)
+                 {
+                   /* Move death note of SRC from P to INSN.  */
+                   remove_note (p, note);
+                   XEXP (note, 1) = REG_NOTES (insn);
+                   REG_NOTES (insn) = note;
+                 }
+               
+               /* DEST is also dead if INSN has a REG_UNUSED note for
+                  DEST.  */
+               if (! dest_death
+                   && (dest_death
+                       = find_regno_note (insn, REG_UNUSED, dregno)))
+                 {
+                   PUT_REG_NOTE_KIND (dest_death, REG_DEAD);
+                   remove_note (insn, dest_death);
+                 }
+               
+               /* Put death note of DEST on P if we saw it die.  */
+               if (dest_death)
+                 {
+                   XEXP (dest_death, 1) = REG_NOTES (p);
+                   REG_NOTES (p) = dest_death;
+                 }
+               break;
+             }
+           
+           /* If SRC is a hard register which is set or killed in
+              some other way, we can't do this optimization.  */
+           else if (sregno < FIRST_PSEUDO_REGISTER && dead_or_set_p (p, src))
+             break;
+         }
+      }
+}
+
+\f
+
 /* Return nonzero if REGNO is a particularly bad choice for reloading X.  */
 static bool
 ira_bad_reload_regno_1 (int regno, rtx x)
@@ -1805,42 +2236,22 @@ ira_bad_reload_regno (int regno, rtx in, rtx out)
          || ira_bad_reload_regno_1 (regno, out));
 }
 
-/* Return TRUE if *LOC contains an asm.  */
-static int
-insn_contains_asm_1 (rtx *loc, void *data ATTRIBUTE_UNUSED)
-{
-  if ( !*loc)
-    return FALSE;
-  if (GET_CODE (*loc) == ASM_OPERANDS)
-    return TRUE;
-  return FALSE;
-}
-
-
-/* Return TRUE if INSN contains an ASM.  */
-static bool
-insn_contains_asm (rtx insn)
-{
-  return for_each_rtx (&insn, insn_contains_asm_1, NULL);
-}
-
 /* Add register clobbers from asm statements.  */
 static void
 compute_regs_asm_clobbered (void)
 {
   basic_block bb;
 
-  FOR_EACH_BB (bb)
+  FOR_EACH_BB_FN (bb, cfun)
     {
-      rtx insn;
+      rtx_insn *insn;
       FOR_BB_INSNS_REVERSE (bb, insn)
        {
-         df_ref *def_rec;
+         df_ref def;
 
-         if (insn_contains_asm (insn))
-           for (def_rec = DF_INSN_DEFS (insn); *def_rec; def_rec++)
+         if (NONDEBUG_INSN_P (insn) && extract_asm_operands (PATTERN (insn)))
+           FOR_EACH_INSN_DEF (def, insn)
              {
-               df_ref def = *def_rec;
                unsigned int dregno = DF_REF_REGNO (def);
                if (HARD_REGISTER_NUM_P (dregno))
                  add_to_hard_reg_set (&crtl->asm_clobbers,
@@ -1852,11 +2263,10 @@ compute_regs_asm_clobbered (void)
 }
 
 
-/* Set up ELIMINABLE_REGSET, IRA_NO_ALLOC_REGS, and REGS_EVER_LIVE.
-   If the function is called from IRA (not from the insn scheduler or
-   RTL loop invariant motion), FROM_IRA_P is true.  */
+/* Set up ELIMINABLE_REGSET, IRA_NO_ALLOC_REGS, and
+   REGS_EVER_LIVE.  */
 void
-ira_setup_eliminable_regset (bool from_ira_p)
+ira_setup_eliminable_regset (void)
 {
 #ifdef ELIMINABLE_REGS
   int i;
@@ -1873,16 +2283,16 @@ ira_setup_eliminable_regset (bool from_ira_p)
          if the stack pointer is moving.  */
        || (flag_stack_check && STACK_CHECK_MOVING_SP)
        || crtl->accesses_prior_frames
-       || crtl->stack_realign_needed
+       || (SUPPORTS_STACK_ALIGNMENT && crtl->stack_realign_needed)
        /* We need a frame pointer for all Cilk Plus functions that use
          Cilk keywords.  */
-       || (flag_enable_cilkplus && cfun->is_cilk_function)
+       || (flag_cilkplus && cfun->is_cilk_function)
        || targetm.frame_pointer_required ());
 
-  if (from_ira_p && ira_use_lra_p)
-    /* It can change FRAME_POINTER_NEEDED.  We call it only from IRA
-       because it is expensive.  */
-    lra_init_elimination ();
+    /* The chance that FRAME_POINTER_NEEDED is changed from inspecting
+       RTL is very small.  So if we use frame pointer for RA and RTL
+       actually prevents this, we will spill pseudos assigned to the
+       frame pointer in LRA.  */
 
   if (frame_pointer_needed)
     df_set_regs_ever_live (HARD_FRAME_POINTER_REGNUM, true);
@@ -1914,19 +2324,20 @@ ira_setup_eliminable_regset (bool from_ira_p)
       else
        df_set_regs_ever_live (eliminables[i].from, true);
     }
-#if !HARD_FRAME_POINTER_IS_FRAME_POINTER
-  if (!TEST_HARD_REG_BIT (crtl->asm_clobbers, HARD_FRAME_POINTER_REGNUM))
+  if (!HARD_FRAME_POINTER_IS_FRAME_POINTER)
     {
-      SET_HARD_REG_BIT (eliminable_regset, HARD_FRAME_POINTER_REGNUM);
-      if (frame_pointer_needed)
-       SET_HARD_REG_BIT (ira_no_alloc_regs, HARD_FRAME_POINTER_REGNUM);
+      if (!TEST_HARD_REG_BIT (crtl->asm_clobbers, HARD_FRAME_POINTER_REGNUM))
+       {
+         SET_HARD_REG_BIT (eliminable_regset, HARD_FRAME_POINTER_REGNUM);
+         if (frame_pointer_needed)
+           SET_HARD_REG_BIT (ira_no_alloc_regs, HARD_FRAME_POINTER_REGNUM);
+       }
+      else if (frame_pointer_needed)
+       error ("%s cannot be used in asm here",
+              reg_names[HARD_FRAME_POINTER_REGNUM]);
+      else
+       df_set_regs_ever_live (HARD_FRAME_POINTER_REGNUM, true);
     }
-  else if (frame_pointer_needed)
-    error ("%s cannot be used in asm here",
-          reg_names[HARD_FRAME_POINTER_REGNUM]);
-  else
-    df_set_regs_ever_live (HARD_FRAME_POINTER_REGNUM, true);
-#endif
 
 #else
   if (!TEST_HARD_REG_BIT (crtl->asm_clobbers, HARD_FRAME_POINTER_REGNUM))
@@ -2078,10 +2489,15 @@ calculate_allocation_cost (void)
   if (internal_flag_ira_verbose > 0 && ira_dump_file != NULL)
     {
       fprintf (ira_dump_file,
-              "+++Costs: overall %d, reg %d, mem %d, ld %d, st %d, move %d\n",
+              "+++Costs: overall %" PRId64
+              ", reg %" PRId64
+              ", mem %" PRId64
+              ", ld %" PRId64
+              ", st %" PRId64
+              ", move %" PRId64,
               ira_overall_cost, ira_reg_cost, ira_mem_cost,
               ira_load_cost, ira_store_cost, ira_shuffle_cost);
-      fprintf (ira_dump_file, "+++       move loops %d, new jumps %d\n",
+      fprintf (ira_dump_file, "\n+++       move loops %d, new jumps %d\n",
               ira_move_loops_num, ira_additional_jumps_num);
     }
 
@@ -2184,9 +2600,10 @@ setup_reg_equiv_init (void)
    to update equiv info for register shuffles on the region borders
    and for caller save/restore insns.  */
 void
-ira_update_equiv_info_by_shuffle_insn (int to_regno, int from_regno, rtx insns)
+ira_update_equiv_info_by_shuffle_insn (int to_regno, int from_regno, rtx_insn *insns)
 {
-  rtx insn, x, note;
+  rtx_insn *insn;
+  rtx x, note;
 
   if (! ira_reg_equiv[from_regno].defined_p
       && (! ira_reg_equiv[to_regno].defined_p
@@ -2205,7 +2622,7 @@ ira_update_equiv_info_by_shuffle_insn (int to_regno, int from_regno, rtx insns)
       ira_reg_equiv[to_regno].memory
        = ira_reg_equiv[to_regno].constant
        = ira_reg_equiv[to_regno].invariant
-       = ira_reg_equiv[to_regno].init_insns = NULL_RTX;
+       = ira_reg_equiv[to_regno].init_insns = NULL;
       if (internal_flag_ira_verbose > 3 && ira_dump_file != NULL)
        fprintf (ira_dump_file,
                 "      Invalidating equiv info for reg %d\n", to_regno);
@@ -2275,19 +2692,21 @@ fix_reg_equiv_init (void)
 {
   int max_regno = max_reg_num ();
   int i, new_regno, max;
-  rtx x, prev, next, insn, set;
+  rtx set;
+  rtx_insn_list *x, *next, *prev;
+  rtx_insn *insn;
 
   if (max_regno_before_ira < max_regno)
     {
       max = vec_safe_length (reg_equivs);
       grow_reg_equivs ();
       for (i = FIRST_PSEUDO_REGISTER; i < max; i++)
-       for (prev = NULL_RTX, x = reg_equiv_init (i);
+       for (prev = NULL, x = reg_equiv_init (i);
             x != NULL_RTX;
             x = next)
          {
-           next = XEXP (x, 1);
-           insn = XEXP (x, 0);
+           next = x->next ();
+           insn = x->insn ();
            set = single_set (insn);
            ira_assert (set != NULL_RTX
                        && (REG_P (SET_DEST (set)) || REG_P (SET_SRC (set))));
@@ -2330,7 +2749,7 @@ print_redundant_copies (void)
   FOR_EACH_ALLOCNO (a, ai)
     {
       if (ALLOCNO_CAP_MEMBER (a) != NULL)
-       /* It is a cap. */
+       /* It is a cap.  */
        continue;
       hard_regno = ALLOCNO_HARD_REGNO (a);
       if (hard_regno >= 0)
@@ -2376,7 +2795,7 @@ setup_preferred_alternate_classes_for_new_pseudos (int start)
 }
 
 \f
-/* The number of entries allocated in teg_info.  */
+/* The number of entries allocated in reg_info.  */
 static int allocated_reg_info_size;
 
 /* Regional allocation can create new pseudo-registers.  This function
@@ -2424,7 +2843,7 @@ mark_elimination (int from, int to)
   basic_block bb;
   bitmap r;
 
-  FOR_EACH_BB (bb)
+  FOR_EACH_BB_FN (bb, cfun)
     {
       r = DF_LR_IN (bb);
       if (bitmap_bit_p (r, from))
@@ -2449,7 +2868,7 @@ mark_elimination (int from, int to)
 int ira_reg_equiv_len;
 
 /* Info about equiv. info for each register.  */
-struct ira_reg_equiv *ira_reg_equiv;
+struct ira_reg_equiv_s *ira_reg_equiv;
 
 /* Expand ira_reg_equiv if necessary.  */
 void
@@ -2461,12 +2880,12 @@ ira_expand_reg_equiv (void)
     return;
   ira_reg_equiv_len = max_reg_num () * 3 / 2 + 1;
   ira_reg_equiv
-    = (struct ira_reg_equiv *) xrealloc (ira_reg_equiv,
+    = (struct ira_reg_equiv_s *) xrealloc (ira_reg_equiv,
                                         ira_reg_equiv_len
-                                        * sizeof (struct ira_reg_equiv));
+                                        * sizeof (struct ira_reg_equiv_s));
   gcc_assert (old < ira_reg_equiv_len);
   memset (ira_reg_equiv + old, 0,
-         sizeof (struct ira_reg_equiv) * (ira_reg_equiv_len - old));
+         sizeof (struct ira_reg_equiv_s) * (ira_reg_equiv_len - old));
 }
 
 static void
@@ -2492,16 +2911,26 @@ struct equivalence
      e.g. by reload.  */
   rtx replacement;
   rtx *src_p;
-  /* The list of each instruction which initializes this register.  */
-  rtx init_insns;
+
+  /* The list of each instruction which initializes this register.
+
+     NULL indicates we know nothing about this register's equivalence
+     properties.
+
+     An INSN_LIST with a NULL insn indicates this pseudo is already
+     known to not have a valid equivalence.  */
+  rtx_insn_list *init_insns;
+
   /* Loop depth is used to recognize equivalences which appear
      to be present within the same loop (or in an inner loop).  */
-  int loop_depth;
+  short loop_depth;
   /* Nonzero if this had a preexisting REG_EQUIV note.  */
-  int is_arg_equivalence;
+  unsigned char is_arg_equivalence : 1;
   /* Set when an attempt should be made to replace a register
      with the associated src_p entry.  */
-  char replace;
+  unsigned char replace : 1;
+  /* Set if this register has no known equivalence.  */
+  unsigned char no_equiv : 1;
 };
 
 /* reg_equiv[N] (where N is a pseudo reg number) is the equivalence
@@ -2535,9 +2964,9 @@ validate_equiv_mem_from_store (rtx dest, const_rtx set ATTRIBUTE_UNUSED,
 
    Return 1 if MEMREF remains valid.  */
 static int
-validate_equiv_mem (rtx start, rtx reg, rtx memref)
+validate_equiv_mem (rtx_insn *start, rtx reg, rtx memref)
 {
-  rtx insn;
+  rtx_insn *insn;
   rtx note;
 
   equiv_mem = memref;
@@ -2811,9 +3240,9 @@ memref_referenced_p (rtx memref, rtx x)
 /* TRUE if some insn in the range (START, END] references a memory location
    that would be affected by a store to MEMREF.  */
 static int
-memref_used_between_p (rtx memref, rtx start, rtx end)
+memref_used_between_p (rtx memref, rtx_insn *start, rtx_insn *end)
 {
-  rtx insn;
+  rtx_insn *insn;
 
   for (insn = NEXT_INSN (start); insn != NEXT_INSN (end);
        insn = NEXT_INSN (insn))
@@ -2844,25 +3273,26 @@ no_equiv (rtx reg, const_rtx store ATTRIBUTE_UNUSED,
          void *data ATTRIBUTE_UNUSED)
 {
   int regno;
-  rtx list;
+  rtx_insn_list *list;
 
   if (!REG_P (reg))
     return;
   regno = REGNO (reg);
+  reg_equiv[regno].no_equiv = 1;
   list = reg_equiv[regno].init_insns;
-  if (list == const0_rtx)
+  if (list && list->insn () == NULL)
     return;
-  reg_equiv[regno].init_insns = const0_rtx;
+  reg_equiv[regno].init_insns = gen_rtx_INSN_LIST (VOIDmode, NULL_RTX, NULL);
   reg_equiv[regno].replacement = NULL_RTX;
   /* This doesn't matter for equivalences made for argument registers, we
      should keep their initialization insns.  */
   if (reg_equiv[regno].is_arg_equivalence)
     return;
   ira_reg_equiv[regno].defined_p = false;
-  ira_reg_equiv[regno].init_insns = NULL_RTX;
-  for (; list; list =  XEXP (list, 1))
+  ira_reg_equiv[regno].init_insns = NULL;
+  for (; list; list = list->next ())
     {
-      rtx insn = XEXP (list, 0);
+      rtx_insn *insn = list->insn ();
       remove_note (insn, find_reg_note (insn, REG_EQUIV, NULL_RTX));
     }
 }
@@ -2870,23 +3300,20 @@ no_equiv (rtx reg, const_rtx store ATTRIBUTE_UNUSED,
 /* Check whether the SUBREG is a paradoxical subreg and set the result
    in PDX_SUBREGS.  */
 
-static int
-set_paradoxical_subreg (rtx *subreg, void *pdx_subregs)
+static void
+set_paradoxical_subreg (rtx_insn *insn, bool *pdx_subregs)
 {
-  rtx reg;
-
-  if ((*subreg) == NULL_RTX)
-    return 1;
-  if (GET_CODE (*subreg) != SUBREG)
-    return 0;
-  reg = SUBREG_REG (*subreg);
-  if (!REG_P (reg))
-    return 0;
-
-  if (paradoxical_subreg_p (*subreg))
-    ((bool *)pdx_subregs)[REGNO (reg)] = true;
-
-  return 0;
+  subrtx_iterator::array_type array;
+  FOR_EACH_SUBRTX (iter, array, PATTERN (insn), NONCONST)
+    {
+      const_rtx subreg = *iter;
+      if (GET_CODE (subreg) == SUBREG)
+       {
+         const_rtx reg = SUBREG_REG (subreg);
+         if (REG_P (reg) && paradoxical_subreg_p (subreg))
+           pdx_subregs[REGNO (reg)] = true;
+       }
+    }
 }
 
 /* In DEBUG_INSN location adjust REGs from CLEARED_REGS bitmap to the
@@ -2899,7 +3326,7 @@ adjust_cleared_regs (rtx loc, const_rtx old_rtx ATTRIBUTE_UNUSED, void *data)
     {
       bitmap cleared_regs = (bitmap) data;
       if (bitmap_bit_p (cleared_regs, REGNO (loc)))
-       return simplify_replace_fn_rtx (*reg_equiv[REGNO (loc)].src_p,
+       return simplify_replace_fn_rtx (copy_rtx (*reg_equiv[REGNO (loc)].src_p),
                                        NULL_RTX, adjust_cleared_regs, data);
     }
   return NULL_RTX;
@@ -2923,7 +3350,7 @@ static int recorded_label_ref;
 static int
 update_equiv_regs (void)
 {
-  rtx insn;
+  rtx_insn *insn;
   basic_block bb;
   int loop_depth;
   bitmap cleared_regs;
@@ -2943,18 +3370,18 @@ update_equiv_regs (void)
   init_alias_analysis ();
 
   /* Scan insns and set pdx_subregs[regno] if the reg is used in a
-     paradoxical subreg. Don't set such reg sequivalent to a mem,
+     paradoxical subreg. Don't set such reg equivalent to a mem,
      because lra will not substitute such equiv memory in order to
      prevent access beyond allocated memory for paradoxical memory subreg.  */
-  FOR_EACH_BB (bb)
+  FOR_EACH_BB_FN (bb, cfun)
     FOR_BB_INSNS (bb, insn)
       if (NONDEBUG_INSN_P (insn))
-       for_each_rtx (&insn, set_paradoxical_subreg, (void *) pdx_subregs);
+       set_paradoxical_subreg (insn, pdx_subregs);
 
   /* Scan the insns and find which registers have equivalences.  Do this
      in a separate scan of the insns because (due to -fcse-follow-jumps)
      a register can be set below its use.  */
-  FOR_EACH_BB (bb)
+  FOR_EACH_BB_FN (bb, cfun)
     {
       loop_depth = bb_loop_depth (bb);
 
@@ -2978,7 +3405,7 @@ update_equiv_regs (void)
 
          /* If this insn contains more (or less) than a single SET,
             only mark all destinations as having no known equivalence.  */
-         if (set == 0)
+         if (set == NULL_RTX)
            {
              note_stores (PATTERN (insn), no_equiv, NULL);
              continue;
@@ -3042,7 +3469,8 @@ update_equiv_regs (void)
 
          if (!REG_P (dest)
              || (regno = REGNO (dest)) < FIRST_PSEUDO_REGISTER
-             || reg_equiv[regno].init_insns == const0_rtx
+             || (reg_equiv[regno].init_insns
+                 && reg_equiv[regno].init_insns->insn () == NULL)
              || (targetm.class_likely_spilled_p (reg_preferred_class (regno))
                  && MEM_P (src) && ! reg_equiv[regno].is_arg_equivalence))
            {
@@ -3068,20 +3496,53 @@ update_equiv_regs (void)
            note = set_unique_reg_note (insn, REG_EQUAL, copy_rtx (src));
 
          /* Don't bother considering a REG_EQUAL note containing an EXPR_LIST
-            since it represents a function call */
+            since it represents a function call */
          if (note && GET_CODE (XEXP (note, 0)) == EXPR_LIST)
            note = NULL_RTX;
 
-         if (DF_REG_DEF_COUNT (regno) != 1
-             && (! note
+         if (DF_REG_DEF_COUNT (regno) != 1)
+           {
+             bool equal_p = true;
+             rtx_insn_list *list;
+
+             /* If we have already processed this pseudo and determined it
+                can not have an equivalence, then honor that decision.  */
+             if (reg_equiv[regno].no_equiv)
+               continue;
+
+             if (! note
                  || rtx_varies_p (XEXP (note, 0), 0)
                  || (reg_equiv[regno].replacement
                      && ! rtx_equal_p (XEXP (note, 0),
-                                       reg_equiv[regno].replacement))))
-           {
-             no_equiv (dest, set, NULL);
-             continue;
+                                       reg_equiv[regno].replacement)))
+               {
+                 no_equiv (dest, set, NULL);
+                 continue;
+               }
+
+             list = reg_equiv[regno].init_insns;
+             for (; list; list = list->next ())
+               {
+                 rtx note_tmp;
+                 rtx_insn *insn_tmp;
+
+                 insn_tmp = list->insn ();
+                 note_tmp = find_reg_note (insn_tmp, REG_EQUAL, NULL_RTX);
+                 gcc_assert (note_tmp);
+                 if (! rtx_equal_p (XEXP (note, 0), XEXP (note_tmp, 0)))
+                   {
+                     equal_p = false;
+                     break;
+                   }
+               }
+
+             if (! equal_p)
+               {
+                 no_equiv (dest, set, NULL);
+                 continue;
+               }
            }
+
          /* Record this insn as initializing this register.  */
          reg_equiv[regno].init_insns
            = gen_rtx_INSN_LIST (VOIDmode, insn, reg_equiv[regno].init_insns);
@@ -3110,10 +3571,9 @@ update_equiv_regs (void)
             a register used only in one basic block from a MEM.  If so, and the
             MEM remains unchanged for the life of the register, add a REG_EQUIV
             note.  */
-
          note = find_reg_note (insn, REG_EQUIV, NULL_RTX);
 
-         if (note == 0 && REG_BASIC_BLOCK (regno) >= NUM_FIXED_BLOCKS
+         if (note == NULL_RTX && REG_BASIC_BLOCK (regno) >= NUM_FIXED_BLOCKS
              && MEM_P (SET_SRC (set))
              && validate_equiv_mem (insn, dest, SET_SRC (set)))
            note = set_unique_reg_note (insn, REG_EQUIV, copy_rtx (SET_SRC (set)));
@@ -3143,7 +3603,7 @@ update_equiv_regs (void)
 
              reg_equiv[regno].replacement = x;
              reg_equiv[regno].src_p = &SET_SRC (set);
-             reg_equiv[regno].loop_depth = loop_depth;
+             reg_equiv[regno].loop_depth = (short) loop_depth;
 
              /* Don't mess with things live during setjmp.  */
              if (REG_LIVE_LENGTH (regno) >= 0 && optimize)
@@ -3213,14 +3673,15 @@ update_equiv_regs (void)
          && (regno = REGNO (src)) >= FIRST_PSEUDO_REGISTER
          && REG_BASIC_BLOCK (regno) >= NUM_FIXED_BLOCKS
          && DF_REG_DEF_COUNT (regno) == 1
-         && reg_equiv[regno].init_insns != 0
-         && reg_equiv[regno].init_insns != const0_rtx
+         && reg_equiv[regno].init_insns != NULL
+         && reg_equiv[regno].init_insns->insn () != NULL
          && ! find_reg_note (XEXP (reg_equiv[regno].init_insns, 0),
                              REG_EQUIV, NULL_RTX)
          && ! contains_replace_regs (XEXP (dest, 0))
          && ! pdx_subregs[regno])
        {
-         rtx init_insn = XEXP (reg_equiv[regno].init_insns, 0);
+         rtx_insn *init_insn =
+           as_a <rtx_insn *> (XEXP (reg_equiv[regno].init_insns, 0));
          if (validate_equiv_mem (init_insn, src, dest)
              && ! memref_used_between_p (dest, init_insn, insn)
              /* Attaching a REG_EQUIV note will fail if INIT_INSN has
@@ -3245,7 +3706,7 @@ update_equiv_regs (void)
      within the same loop (or in an inner loop), then move the register
      initialization just before the use, so that they are in the same
      basic block.  */
-  FOR_EACH_BB_REVERSE (bb)
+  FOR_EACH_BB_REVERSE_FN (bb, cfun)
     {
       loop_depth = bb_loop_depth (bb);
       for (insn = BB_END (bb);
@@ -3272,12 +3733,13 @@ update_equiv_regs (void)
                  rtx equiv_insn;
 
                  if (! reg_equiv[regno].replace
-                     || reg_equiv[regno].loop_depth < loop_depth
-                     /* There is no sense to move insns if we did
-                        register pressure-sensitive scheduling was
-                        done because it will not improve allocation
-                        but worsen insn schedule with a big
-                        probability.  */
+                     || reg_equiv[regno].loop_depth < (short) loop_depth
+                     /* There is no sense to move insns if live range
+                        shrinkage or register pressure-sensitive
+                        scheduling were done because it will not
+                        improve allocation but worsen insn schedule
+                        with a big probability.  */
+                     || flag_live_range_shrinkage
                      || (flag_sched_pressure && flag_schedule_insns))
                    continue;
 
@@ -3331,16 +3793,16 @@ update_equiv_regs (void)
                      delete_insn (equiv_insn);
 
                      reg_equiv[regno].init_insns
-                       = XEXP (reg_equiv[regno].init_insns, 1);
+                       = reg_equiv[regno].init_insns->next ();
 
-                     ira_reg_equiv[regno].init_insns = NULL_RTX;
+                     ira_reg_equiv[regno].init_insns = NULL;
                      bitmap_set_bit (cleared_regs, regno);
                    }
                  /* Move the initialization of the register to just before
                     INSN.  Update the flow information.  */
                  else if (prev_nondebug_insn (insn) != equiv_insn)
                    {
-                     rtx new_insn;
+                     rtx_insn *new_insn;
 
                      new_insn = emit_insn_before (PATTERN (equiv_insn), insn);
                      REG_NOTES (new_insn) = REG_NOTES (equiv_insn);
@@ -3377,7 +3839,7 @@ update_equiv_regs (void)
 
   if (!bitmap_empty_p (cleared_regs))
     {
-      FOR_EACH_BB (bb)
+      FOR_EACH_BB_FN (bb, cfun)
        {
          bitmap_and_compl_into (DF_LR_IN (bb), cleared_regs);
          bitmap_and_compl_into (DF_LR_OUT (bb), cleared_regs);
@@ -3421,15 +3883,17 @@ static void
 setup_reg_equiv (void)
 {
   int i;
-  rtx elem, prev_elem, next_elem, insn, set, x;
+  rtx_insn_list *elem, *prev_elem, *next_elem;
+  rtx_insn *insn;
+  rtx set, x;
 
   for (i = FIRST_PSEUDO_REGISTER; i < ira_reg_equiv_len; i++)
     for (prev_elem = NULL, elem = ira_reg_equiv[i].init_insns;
         elem;
         prev_elem = elem, elem = next_elem)
       {
-       next_elem = XEXP (elem, 1);
-       insn = XEXP (elem, 0);
+       next_elem = elem->next ();
+       insn = elem->insn ();
        set = single_set (insn);
        
        /* Init insns can set up equivalence when the reg is a destination or
@@ -3482,7 +3946,7 @@ setup_reg_equiv (void)
                  }
                else if (function_invariant_p (x))
                  {
-                   enum machine_mode mode;
+                   machine_mode mode;
                    
                    mode = GET_MODE (SET_DEST (set));
                    if (GET_CODE (x) == PLUS
@@ -3498,7 +3962,7 @@ setup_reg_equiv (void)
                        if (ira_reg_equiv[i].memory == NULL_RTX)
                          {
                            ira_reg_equiv[i].defined_p = false;
-                           ira_reg_equiv[i].init_insns = NULL_RTX;
+                           ira_reg_equiv[i].init_insns = NULL;
                            break;
                          }
                      }
@@ -3508,7 +3972,7 @@ setup_reg_equiv (void)
              }
          }
        ira_reg_equiv[i].defined_p = false;
-       ira_reg_equiv[i].init_insns = NULL_RTX;
+       ira_reg_equiv[i].init_insns = NULL;
        break;
       }
 }
@@ -3599,10 +4063,10 @@ build_insn_chain (void)
   for (i = 0; i < FIRST_PSEUDO_REGISTER; i++)
     if (TEST_HARD_REG_BIT (eliminable_regset, i))
       bitmap_set_bit (elim_regset, i);
-  FOR_EACH_BB_REVERSE (bb)
+  FOR_EACH_BB_REVERSE_FN (bb, cfun)
     {
       bitmap_iterator bi;
-      rtx insn;
+      rtx_insn *insn;
 
       CLEAR_REG_SET (live_relevant_regs);
       bitmap_clear (live_subregs_used);
@@ -3625,9 +4089,8 @@ build_insn_chain (void)
        {
          if (!NOTE_P (insn) && !BARRIER_P (insn))
            {
-             unsigned int uid = INSN_UID (insn);
-             df_ref *def_rec;
-             df_ref *use_rec;
+             struct df_insn_info *insn_info = DF_INSN_INFO_GET (insn);
+             df_ref def, use;
 
              c = new_insn_chain ();
              c->next = next;
@@ -3639,9 +4102,8 @@ build_insn_chain (void)
              c->block = bb->index;
 
              if (NONDEBUG_INSN_P (insn))
-               for (def_rec = DF_INSN_UID_DEFS (uid); *def_rec; def_rec++)
+               FOR_EACH_INSN_INFO_DEF (def, insn_info)
                  {
-                   df_ref def = *def_rec;
                    unsigned int regno = DF_REF_REGNO (def);
 
                    /* Ignore may clobbers because these are generated
@@ -3730,9 +4192,8 @@ build_insn_chain (void)
              bitmap_copy (&c->live_throughout, live_relevant_regs);
 
              if (NONDEBUG_INSN_P (insn))
-               for (use_rec = DF_INSN_UID_USES (uid); *use_rec; use_rec++)
+               FOR_EACH_INSN_INFO_USE (use, insn_info)
                  {
-                   df_ref use = *use_rec;
                    unsigned int regno = DF_REF_REGNO (use);
                    rtx reg = DF_REF_REG (use);
 
@@ -3741,7 +4202,7 @@ build_insn_chain (void)
                       to a multiword reg.  Here, we only model the
                       subreg case that is not wrapped in ZERO_EXTRACT
                       precisely so we do not need to look at the
-                      fabricated use. */
+                      fabricated use.  */
                    if (DF_REF_FLAGS_IS_SET (use, DF_REF_READ_WRITE)
                        && !DF_REF_FLAGS_IS_SET (use, DF_REF_ZERO_EXTRACT)
                        && DF_REF_FLAGS_IS_SET (use, DF_REF_SUBREG))
@@ -3904,6 +4365,12 @@ rtx_moveable_p (rtx *loc, enum op_type type)
     case CLOBBER:
       return rtx_moveable_p (&SET_DEST (x), OP_OUT);
 
+    case UNSPEC_VOLATILE:
+      /* It is a bad idea to consider insns with with such rtl
+        as moveable ones.  The insn scheduler also considers them as barrier
+        for a reason.  */
+      return false;
+
     default:
       break;
     }
@@ -3977,14 +4444,17 @@ find_moveable_pseudos (void)
   int max_uid = get_max_uid ();
   basic_block bb;
   int *uid_luid = XNEWVEC (int, max_uid);
-  rtx *closest_uses = XNEWVEC (rtx, max_regs);
+  rtx_insn **closest_uses = XNEWVEC (rtx_insn *, max_regs);
   /* A set of registers which are live but not modified throughout a block.  */
-  bitmap_head *bb_transp_live = XNEWVEC (bitmap_head, last_basic_block);
+  bitmap_head *bb_transp_live = XNEWVEC (bitmap_head,
+                                        last_basic_block_for_fn (cfun));
   /* A set of registers which only exist in a given basic block.  */
-  bitmap_head *bb_local = XNEWVEC (bitmap_head, last_basic_block);
+  bitmap_head *bb_local = XNEWVEC (bitmap_head,
+                                  last_basic_block_for_fn (cfun));
   /* A set of registers which are set once, in an instruction that can be
      moved freely downwards, but are otherwise transparent to a block.  */
-  bitmap_head *bb_moveable_reg_sets = XNEWVEC (bitmap_head, last_basic_block);
+  bitmap_head *bb_moveable_reg_sets = XNEWVEC (bitmap_head,
+                                              last_basic_block_for_fn (cfun));
   bitmap_head live, used, set, interesting, unusable_as_input;
   bitmap_iterator bi;
   bitmap_initialize (&interesting, 0);
@@ -4001,9 +4471,9 @@ find_moveable_pseudos (void)
   bitmap_initialize (&used, 0);
   bitmap_initialize (&set, 0);
   bitmap_initialize (&unusable_as_input, 0);
-  FOR_EACH_BB (bb)
+  FOR_EACH_BB_FN (bb, cfun)
     {
-      rtx insn;
+      rtx_insn *insn;
       bitmap transp = bb_transp_live + bb->index;
       bitmap moveable = bb_moveable_reg_sets + bb->index;
       bitmap local = bb_local + bb->index;
@@ -4021,41 +4491,40 @@ find_moveable_pseudos (void)
       FOR_BB_INSNS (bb, insn)
        if (NONDEBUG_INSN_P (insn))
          {
-           df_ref *u_rec, *d_rec;
+           df_insn_info *insn_info = DF_INSN_INFO_GET (insn);
+           df_ref def, use;
 
            uid_luid[INSN_UID (insn)] = i++;
            
-           u_rec = DF_INSN_USES (insn);
-           d_rec = DF_INSN_DEFS (insn);
-           if (d_rec[0] != NULL && d_rec[1] == NULL
-               && u_rec[0] != NULL && u_rec[1] == NULL
-               && DF_REF_REGNO (*u_rec) == DF_REF_REGNO (*d_rec)
-               && !bitmap_bit_p (&set, DF_REF_REGNO (*u_rec))
+           def = df_single_def (insn_info);
+           use = df_single_use (insn_info);
+           if (use
+               && def
+               && DF_REF_REGNO (use) == DF_REF_REGNO (def)
+               && !bitmap_bit_p (&set, DF_REF_REGNO (use))
                && rtx_moveable_p (&PATTERN (insn), OP_IN))
              {
-               unsigned regno = DF_REF_REGNO (*u_rec);
+               unsigned regno = DF_REF_REGNO (use);
                bitmap_set_bit (moveable, regno);
                bitmap_set_bit (&set, regno);
                bitmap_set_bit (&used, regno);
                bitmap_clear_bit (transp, regno);
                continue;
              }
-           while (*u_rec)
+           FOR_EACH_INSN_INFO_USE (use, insn_info)
              {
-               unsigned regno = DF_REF_REGNO (*u_rec);
+               unsigned regno = DF_REF_REGNO (use);
                bitmap_set_bit (&used, regno);
                if (bitmap_clear_bit (moveable, regno))
                  bitmap_clear_bit (transp, regno);
-               u_rec++;
              }
 
-           while (*d_rec)
+           FOR_EACH_INSN_INFO_DEF (def, insn_info)
              {
-               unsigned regno = DF_REF_REGNO (*d_rec);
+               unsigned regno = DF_REF_REGNO (def);
                bitmap_set_bit (&set, regno);
                bitmap_clear_bit (transp, regno);
                bitmap_clear_bit (moveable, regno);
-               d_rec++;
              }
          }
     }
@@ -4064,24 +4533,25 @@ find_moveable_pseudos (void)
   bitmap_clear (&used);
   bitmap_clear (&set);
 
-  FOR_EACH_BB (bb)
+  FOR_EACH_BB_FN (bb, cfun)
     {
       bitmap local = bb_local + bb->index;
-      rtx insn;
+      rtx_insn *insn;
 
       FOR_BB_INSNS (bb, insn)
        if (NONDEBUG_INSN_P (insn))
          {
-           rtx def_insn, closest_use, note;
-           df_ref *def_rec, def, use;
+           df_insn_info *insn_info = DF_INSN_INFO_GET (insn);
+           rtx_insn *def_insn;
+           rtx closest_use, note;
+           df_ref def, use;
            unsigned regno;
            bool all_dominated, all_local;
-           enum machine_mode mode;
+           machine_mode mode;
 
-           def_rec = DF_INSN_DEFS (insn);
+           def = df_single_def (insn_info);
            /* There must be exactly one def in this insn.  */
-           def = *def_rec;
-           if (!def || def_rec[1] || !single_set (insn))
+           if (!def || !single_set (insn))
              continue;
            /* This must be the only definition of the reg.  We also limit
               which modes we deal with so that we can assume we can generate
@@ -4115,7 +4585,7 @@ find_moveable_pseudos (void)
            closest_use = NULL_RTX;
            for (; use; use = DF_REF_NEXT_REG (use))
              {
-               rtx insn;
+               rtx_insn *insn;
                if (!DF_REF_INSN_INFO (use))
                  {
                    all_dominated = false;
@@ -4157,17 +4627,18 @@ find_moveable_pseudos (void)
                           ? " (no unique first use)" : "");
                continue;
              }
-#ifdef HAVE_cc0
-           if (reg_referenced_p (cc0_rtx, PATTERN (closest_use)))
+           if (HAVE_cc0 && reg_referenced_p (cc0_rtx, PATTERN (closest_use)))
              {
                if (dump_file)
                  fprintf (dump_file, "Reg %d: closest user uses cc0\n",
                           regno);
                continue;
              }
-#endif
+
            bitmap_set_bit (&interesting, regno);
-           closest_uses[regno] = closest_use;
+           /* If we get here, we know closest_use is a non-NULL insn
+              (as opposed to const_0_rtx).  */
+           closest_uses[regno] = as_a <rtx_insn *> (closest_use);
 
            if (dump_file && (all_local || all_dominated))
              {
@@ -4186,14 +4657,14 @@ find_moveable_pseudos (void)
   EXECUTE_IF_SET_IN_BITMAP (&interesting, 0, i, bi)
     {
       df_ref def = DF_REG_DEF_CHAIN (i);
-      rtx def_insn = DF_REF_INSN (def);
+      rtx_insn *def_insn = DF_REF_INSN (def);
       basic_block def_block = BLOCK_FOR_INSN (def_insn);
       bitmap def_bb_local = bb_local + def_block->index;
       bitmap def_bb_moveable = bb_moveable_reg_sets + def_block->index;
       bitmap def_bb_transp = bb_transp_live + def_block->index;
       bool local_to_bb_p = bitmap_bit_p (def_bb_local, i);
-      rtx use_insn = closest_uses[i];
-      df_ref *def_insn_use_rec = DF_INSN_USES (def_insn);
+      rtx_insn *use_insn = closest_uses[i];
+      df_ref use;
       bool all_ok = true;
       bool all_transp = true;
 
@@ -4224,9 +4695,8 @@ find_moveable_pseudos (void)
       if (dump_file)
        fprintf (dump_file, "Examining insn %d, def for %d\n",
                 INSN_UID (def_insn), i);
-      while (*def_insn_use_rec != NULL)
+      FOR_EACH_INSN_USE (use, def_insn)
        {
-         df_ref use = *def_insn_use_rec;
          unsigned regno = DF_REF_REGNO (use);
          if (bitmap_bit_p (&unusable_as_input, regno))
            {
@@ -4239,14 +4709,11 @@ find_moveable_pseudos (void)
            {
              if (bitmap_bit_p (def_bb_moveable, regno)
                  && !control_flow_insn_p (use_insn)
-#ifdef HAVE_cc0
-                 && !sets_cc0_p (use_insn)
-#endif
-                 )
+                 && (!HAVE_cc0 || !sets_cc0_p (use_insn)))
                {
                  if (modified_between_p (DF_REF_REG (use), def_insn, use_insn))
                    {
-                     rtx x = NEXT_INSN (def_insn);
+                     rtx_insn *x = NEXT_INSN (def_insn);
                      while (!modified_in_p (DF_REF_REG (use), x))
                        {
                          gcc_assert (x != use_insn);
@@ -4269,8 +4736,6 @@ find_moveable_pseudos (void)
              else
                all_transp = false;
            }
-
-         def_insn_use_rec++;
        }
       if (!all_ok)
        continue;
@@ -4283,7 +4748,7 @@ find_moveable_pseudos (void)
        {
          rtx def_reg = DF_REF_REG (def);
          rtx newreg = ira_create_new_reg (def_reg);
-         if (validate_change (def_insn, DF_REF_LOC (def), newreg, 0))
+         if (validate_change (def_insn, DF_REF_REAL_LOC (def), newreg, 0))
            {
              unsigned nregno = REGNO (newreg);
              emit_insn_before (gen_move_insn (def_reg, newreg), use_insn);
@@ -4293,7 +4758,7 @@ find_moveable_pseudos (void)
        }
     }
   
-  FOR_EACH_BB (bb)
+  FOR_EACH_BB_FN (bb, cfun)
     {
       bitmap_clear (bb_local + bb->index);
       bitmap_clear (bb_transp_live + bb->index);
@@ -4318,6 +4783,216 @@ find_moveable_pseudos (void)
   free_dominance_info (CDI_DOMINATORS);
 }
 
+/* If SET pattern SET is an assignment from a hard register to a pseudo which
+   is live at CALL_DOM (if non-NULL, otherwise this check is omitted), return
+   the destination.  Otherwise return NULL.  */
+
+static rtx
+interesting_dest_for_shprep_1 (rtx set, basic_block call_dom)
+{
+  rtx src = SET_SRC (set);
+  rtx dest = SET_DEST (set);
+  if (!REG_P (src) || !HARD_REGISTER_P (src)
+      || !REG_P (dest) || HARD_REGISTER_P (dest)
+      || (call_dom && !bitmap_bit_p (df_get_live_in (call_dom), REGNO (dest))))
+    return NULL;
+  return dest;
+}
+
+/* If insn is interesting for parameter range-splitting shrink-wrapping
+   preparation, i.e. it is a single set from a hard register to a pseudo, which
+   is live at CALL_DOM (if non-NULL, otherwise this check is omitted), or a
+   parallel statement with only one such statement, return the destination.
+   Otherwise return NULL.  */
+
+static rtx
+interesting_dest_for_shprep (rtx_insn *insn, basic_block call_dom)
+{
+  if (!INSN_P (insn))
+    return NULL;
+  rtx pat = PATTERN (insn);
+  if (GET_CODE (pat) == SET)
+    return interesting_dest_for_shprep_1 (pat, call_dom);
+
+  if (GET_CODE (pat) != PARALLEL)
+    return NULL;
+  rtx ret = NULL;
+  for (int i = 0; i < XVECLEN (pat, 0); i++)
+    {
+      rtx sub = XVECEXP (pat, 0, i);
+      if (GET_CODE (sub) == USE || GET_CODE (sub) == CLOBBER)
+       continue;
+      if (GET_CODE (sub) != SET
+         || side_effects_p (sub))
+       return NULL;
+      rtx dest = interesting_dest_for_shprep_1 (sub, call_dom);
+      if (dest && ret)
+       return NULL;
+      if (dest)
+       ret = dest;
+    }
+  return ret;
+}
+
+/* Split live ranges of pseudos that are loaded from hard registers in the
+   first BB in a BB that dominates all non-sibling call if such a BB can be
+   found and is not in a loop.  Return true if the function has made any
+   changes.  */
+
+static bool
+split_live_ranges_for_shrink_wrap (void)
+{
+  basic_block bb, call_dom = NULL;
+  basic_block first = single_succ (ENTRY_BLOCK_PTR_FOR_FN (cfun));
+  rtx_insn *insn, *last_interesting_insn = NULL;
+  bitmap_head need_new, reachable;
+  vec<basic_block> queue;
+
+  if (!SHRINK_WRAPPING_ENABLED)
+    return false;
+
+  bitmap_initialize (&need_new, 0);
+  bitmap_initialize (&reachable, 0);
+  queue.create (n_basic_blocks_for_fn (cfun));
+
+  FOR_EACH_BB_FN (bb, cfun)
+    FOR_BB_INSNS (bb, insn)
+      if (CALL_P (insn) && !SIBLING_CALL_P (insn))
+       {
+         if (bb == first)
+           {
+             bitmap_clear (&need_new);
+             bitmap_clear (&reachable);
+             queue.release ();
+             return false;
+           }
+
+         bitmap_set_bit (&need_new, bb->index);
+         bitmap_set_bit (&reachable, bb->index);
+         queue.quick_push (bb);
+         break;
+       }
+
+  if (queue.is_empty ())
+    {
+      bitmap_clear (&need_new);
+      bitmap_clear (&reachable);
+      queue.release ();
+      return false;
+    }
+
+  while (!queue.is_empty ())
+    {
+      edge e;
+      edge_iterator ei;
+
+      bb = queue.pop ();
+      FOR_EACH_EDGE (e, ei, bb->succs)
+       if (e->dest != EXIT_BLOCK_PTR_FOR_FN (cfun)
+           && bitmap_set_bit (&reachable, e->dest->index))
+         queue.quick_push (e->dest);
+    }
+  queue.release ();
+
+  FOR_BB_INSNS (first, insn)
+    {
+      rtx dest = interesting_dest_for_shprep (insn, NULL);
+      if (!dest)
+       continue;
+
+      if (DF_REG_DEF_COUNT (REGNO (dest)) > 1)
+       {
+         bitmap_clear (&need_new);
+         bitmap_clear (&reachable);
+         return false;
+       }
+
+      for (df_ref use = DF_REG_USE_CHAIN (REGNO(dest));
+          use;
+          use = DF_REF_NEXT_REG (use))
+       {
+         int ubbi = DF_REF_BB (use)->index;
+         if (bitmap_bit_p (&reachable, ubbi))
+           bitmap_set_bit (&need_new, ubbi);
+       }
+      last_interesting_insn = insn;
+    }
+
+  bitmap_clear (&reachable);
+  if (!last_interesting_insn)
+    {
+      bitmap_clear (&need_new);
+      return false;
+    }
+
+  call_dom = nearest_common_dominator_for_set (CDI_DOMINATORS, &need_new);
+  bitmap_clear (&need_new);
+  if (call_dom == first)
+    return false;
+
+  loop_optimizer_init (AVOID_CFG_MODIFICATIONS);
+  while (bb_loop_depth (call_dom) > 0)
+    call_dom = get_immediate_dominator (CDI_DOMINATORS, call_dom);
+  loop_optimizer_finalize ();
+
+  if (call_dom == first)
+    return false;
+
+  calculate_dominance_info (CDI_POST_DOMINATORS);
+  if (dominated_by_p (CDI_POST_DOMINATORS, first, call_dom))
+    {
+      free_dominance_info (CDI_POST_DOMINATORS);
+      return false;
+    }
+  free_dominance_info (CDI_POST_DOMINATORS);
+
+  if (dump_file)
+    fprintf (dump_file, "Will split live ranges of parameters at BB %i\n",
+            call_dom->index);
+
+  bool ret = false;
+  FOR_BB_INSNS (first, insn)
+    {
+      rtx dest = interesting_dest_for_shprep (insn, call_dom);
+      if (!dest || dest == pic_offset_table_rtx)
+       continue;
+
+      rtx newreg = NULL_RTX;
+      df_ref use, next;
+      for (use = DF_REG_USE_CHAIN (REGNO (dest)); use; use = next)
+       {
+         rtx_insn *uin = DF_REF_INSN (use);
+         next = DF_REF_NEXT_REG (use);
+
+         basic_block ubb = BLOCK_FOR_INSN (uin);
+         if (ubb == call_dom
+             || dominated_by_p (CDI_DOMINATORS, ubb, call_dom))
+           {
+             if (!newreg)
+               newreg = ira_create_new_reg (dest);
+             validate_change (uin, DF_REF_REAL_LOC (use), newreg, true);
+           }
+       }
+
+      if (newreg)
+       {
+         rtx_insn *new_move = gen_move_insn (newreg, dest);
+         emit_insn_after (new_move, bb_note (call_dom));
+         if (dump_file)
+           {
+             fprintf (dump_file, "Split live-range of register ");
+             print_rtl_single (dump_file, dest);
+           }
+         ret = true;
+       }
+
+      if (insn == last_interesting_insn)
+       break;
+    }
+  apply_change_group ();
+  return ret;
+}
+
 /* Perform the second half of the transformation started in
    find_moveable_pseudos.  We look for instances where the newly introduced
    pseudo remains unallocated, and remove it by moving the definition to
@@ -4332,12 +5007,12 @@ move_unallocated_pseudos (void)
       {
        int idx = i - first_moveable_pseudo;
        rtx other_reg = pseudo_replaced_reg[idx];
-       rtx def_insn = DF_REF_INSN (DF_REG_DEF_CHAIN (i));
+       rtx_insn *def_insn = DF_REF_INSN (DF_REG_DEF_CHAIN (i));
        /* The use must follow all definitions of OTHER_REG, so we can
           insert the new definition immediately after any of them.  */
        df_ref other_def = DF_REG_DEF_CHAIN (REGNO (other_reg));
-       rtx move_insn = DF_REF_INSN (other_def);
-       rtx newinsn = emit_insn_after (PATTERN (def_insn), move_insn);
+       rtx_insn *move_insn = DF_REF_INSN (other_def);
+       rtx_insn *newinsn = emit_insn_after (PATTERN (def_insn), move_insn);
        rtx set;
        int success;
 
@@ -4393,7 +5068,7 @@ allocate_initial_values (void)
                     fixed regs are accepted.  */
                  SET_REGNO (preg, new_regno);
                  /* Update global register liveness information.  */
-                 FOR_EACH_BB (bb)
+                 FOR_EACH_BB_FN (bb, cfun)
                    {
                      if (REGNO_REG_SET_P (df_get_live_in (bb), regno))
                        SET_REGNO_REG_SET (df_get_live_in (bb), new_regno);
@@ -4431,6 +5106,9 @@ ira (FILE *f)
   bool saved_flag_caller_saves = flag_caller_saves;
   enum ira_region saved_flag_ira_region = flag_ira_region;
 
+  /* Perform target specific PIC register initialization.  */
+  targetm.init_pic_reg ();
+
   ira_conflicts_p = optimize > 0;
 
   ira_use_lra_p = targetm.lra_p ();
@@ -4438,7 +5116,8 @@ ira (FILE *f)
      pseudos and 10K blocks or 100K pseudos and 1K blocks), we will
      use simplified and faster algorithms in LRA.  */
   lra_simple_p
-    = (ira_use_lra_p && max_reg_num () >= (1 << 26) / last_basic_block);
+    = (ira_use_lra_p
+       && max_reg_num () >= (1 << 26) / last_basic_block_for_fn (cfun));
   if (lra_simple_p)
     {
       /* It permits to skip live range splitting in LRA.  */
@@ -4454,7 +5133,8 @@ ira (FILE *f)
 #endif
   bitmap_obstack_initialize (&ira_bitmap_obstack);
 
-  if (flag_caller_saves)
+  /* LRA uses its own infrastructure to handle caller save registers.  */
+  if (flag_caller_saves && !ira_use_lra_p)
     init_caller_save ();
 
   if (flag_ira_verbose < 10)
@@ -4469,7 +5149,7 @@ ira (FILE *f)
     }
 
   setup_prohibited_mode_move_regs ();
-
+  decrease_live_ranges_number ();
   df_note_add_problem ();
 
   /* DF_LIVE can't be used in the register allocator, too many other
@@ -4485,7 +5165,20 @@ ira (FILE *f)
   df->changeable_flags |= DF_VERIFY_SCHEDULED;
 #endif
   df_analyze ();
+
+  init_reg_equiv ();
+  if (ira_conflicts_p)
+    {
+      calculate_dominance_info (CDI_DOMINATORS);
+
+      if (split_live_ranges_for_shrink_wrap ())
+       df_analyze ();
+
+      free_dominance_info (CDI_DOMINATORS);
+    }
+
   df_clear_flags (DF_NO_INSN_RESCAN);
+
   regstat_init_n_sets_and_refs ();
   regstat_compute_ri ();
 
@@ -4503,7 +5196,6 @@ ira (FILE *f)
   if (resize_reg_info () && flag_ira_loop_pressure)
     ira_set_pseudo_classes (true, ira_dump_file);
 
-  init_reg_equiv ();
   rebuild_p = update_equiv_regs ();
   setup_reg_equiv ();
   setup_reg_equiv_init ();
@@ -4529,7 +5221,7 @@ ira (FILE *f)
     find_moveable_pseudos ();
 
   max_regno_before_ira = max_reg_num ();
-  ira_setup_eliminable_regset (true);
+  ira_setup_eliminable_regset ();
 
   ira_overall_cost = ira_reg_cost = ira_mem_cost = 0;
   ira_load_cost = ira_store_cost = ira_shuffle_cost = 0;
@@ -4580,7 +5272,18 @@ ira (FILE *f)
              ira_allocno_iterator ai;
 
              FOR_EACH_ALLOCNO (a, ai)
-               ALLOCNO_REGNO (a) = REGNO (ALLOCNO_EMIT_DATA (a)->reg);
+                {
+                  int old_regno = ALLOCNO_REGNO (a);
+                  int new_regno = REGNO (ALLOCNO_EMIT_DATA (a)->reg);
+
+                  ALLOCNO_REGNO (a) = new_regno;
+
+                  if (old_regno != new_regno)
+                    setup_reg_classes (new_regno, reg_preferred_class (old_regno),
+                                       reg_alternate_class (old_regno),
+                                       reg_allocno_class (old_regno));
+                }
+
            }
          else
            {
@@ -4638,14 +5341,16 @@ ira (FILE *f)
 #ifdef ENABLE_IRA_CHECKING
       print_redundant_copies ();
 #endif
-
-      ira_spilled_reg_stack_slots_num = 0;
-      ira_spilled_reg_stack_slots
-       = ((struct ira_spilled_reg_stack_slot *)
-          ira_allocate (max_regno
-                        * sizeof (struct ira_spilled_reg_stack_slot)));
-      memset (ira_spilled_reg_stack_slots, 0,
-             max_regno * sizeof (struct ira_spilled_reg_stack_slot));
+      if (! ira_use_lra_p)
+       {
+         ira_spilled_reg_stack_slots_num = 0;
+         ira_spilled_reg_stack_slots
+           = ((struct ira_spilled_reg_stack_slot *)
+              ira_allocate (max_regno
+                            * sizeof (struct ira_spilled_reg_stack_slot)));
+         memset (ira_spilled_reg_stack_slots, 0,
+                 max_regno * sizeof (struct ira_spilled_reg_stack_slot));
+       }
     }
   allocate_initial_values ();
 
@@ -4666,10 +5371,18 @@ do_reload (void)
 {
   basic_block bb;
   bool need_dce;
+  unsigned pic_offset_table_regno = INVALID_REGNUM;
 
   if (flag_ira_verbose < 10)
     ira_dump_file = dump_file;
 
+  /* If pic_offset_table_rtx is a pseudo register, then keep it so
+     after reload to avoid possible wrong usages of hard reg assigned
+     to it.  */
+  if (pic_offset_table_rtx
+      && REGNO (pic_offset_table_rtx) >= FIRST_PSEUDO_REGISTER)
+    pic_offset_table_regno = REGNO (pic_offset_table_rtx);
+
   timevar_push (TV_RELOAD);
   if (ira_use_lra_p)
     {
@@ -4678,12 +5391,9 @@ do_reload (void)
          loop_optimizer_finalize ();
          free_dominance_info (CDI_DOMINATORS);
        }
-      FOR_ALL_BB (bb)
+      FOR_ALL_BB_FN (bb, cfun)
        bb->loop_father = NULL;
       current_loops = NULL;
-      
-      if (ira_conflicts_p)
-       ira_free (ira_spilled_reg_stack_slots);
 
       ira_destroy ();
 
@@ -4715,7 +5425,8 @@ do_reload (void)
 
   if (internal_flag_ira_verbose > 0 && ira_dump_file != NULL
       && overall_cost_before != ira_overall_cost)
-    fprintf (ira_dump_file, "+++Overall after reload %d\n", ira_overall_cost);
+    fprintf (ira_dump_file, "+++Overall after reload %" PRId64 "\n",
+            ira_overall_cost);
 
   flag_ira_share_spill_slots = saved_flag_ira_share_spill_slots;
 
@@ -4727,7 +5438,7 @@ do_reload (void)
          loop_optimizer_finalize ();
          free_dominance_info (CDI_DOMINATORS);
        }
-      FOR_ALL_BB (bb)
+      FOR_ALL_BB_FN (bb, cfun)
        bb->loop_father = NULL;
       current_loops = NULL;
       
@@ -4765,16 +5476,25 @@ do_reload (void)
   if (need_dce && optimize)
     run_fast_dce ();
 
+  /* Diagnose uses of the hard frame pointer when it is used as a global
+     register.  Often we can get away with letting the user appropriate
+     the frame pointer, but we should let them know when code generation
+     makes that impossible.  */
+  if (global_regs[HARD_FRAME_POINTER_REGNUM] && frame_pointer_needed)
+    {
+      tree decl = global_regs_decl[HARD_FRAME_POINTER_REGNUM];
+      error_at (DECL_SOURCE_LOCATION (current_function_decl),
+                "frame pointer required, but reserved");
+      inform (DECL_SOURCE_LOCATION (decl), "for %qD", decl);
+    }
+
+  if (pic_offset_table_regno != INVALID_REGNUM)
+    pic_offset_table_rtx = gen_rtx_REG (Pmode, pic_offset_table_regno);
+
   timevar_pop (TV_IRA);
 }
 \f
 /* Run the integrated register allocator.  */
-static unsigned int
-rest_of_handle_ira (void)
-{
-  ira (dump_file);
-  return 0;
-}
 
 namespace {
 
@@ -4783,8 +5503,6 @@ const pass_data pass_data_ira =
   RTL_PASS, /* type */
   "ira", /* name */
   OPTGROUP_NONE, /* optinfo_flags */
-  false, /* has_gate */
-  true, /* has_execute */
   TV_IRA, /* tv_id */
   0, /* properties_required */
   0, /* properties_provided */
@@ -4801,7 +5519,15 @@ public:
   {}
 
   /* opt_pass methods: */
-  unsigned int execute () { return rest_of_handle_ira (); }
+  virtual bool gate (function *)
+    {
+      return !targetm.no_register_allocation;
+    }
+  virtual unsigned int execute (function *)
+    {
+      ira (dump_file);
+      return 0;
+    }
 
 }; // class pass_ira
 
@@ -4813,13 +5539,6 @@ make_pass_ira (gcc::context *ctxt)
   return new pass_ira (ctxt);
 }
 
-static unsigned int
-rest_of_handle_reload (void)
-{
-  do_reload ();
-  return 0;
-}
-
 namespace {
 
 const pass_data pass_data_reload =
@@ -4827,8 +5546,6 @@ const pass_data pass_data_reload =
   RTL_PASS, /* type */
   "reload", /* name */
   OPTGROUP_NONE, /* optinfo_flags */
-  false, /* has_gate */
-  true, /* has_execute */
   TV_RELOAD, /* tv_id */
   0, /* properties_required */
   0, /* properties_provided */
@@ -4845,7 +5562,15 @@ public:
   {}
 
   /* opt_pass methods: */
-  unsigned int execute () { return rest_of_handle_reload (); }
+  virtual bool gate (function *)
+    {
+      return !targetm.no_register_allocation;
+    }
+  virtual unsigned int execute (function *)
+    {
+      do_reload ();
+      return 0;
+    }
 
 }; // class pass_reload