builtins.c, [...]: Fix comment typos.
authorKazu Hirata <kazu@cs.umass.edu>
Thu, 29 Apr 2004 15:39:12 +0000 (15:39 +0000)
committerKazu Hirata <kazu@gcc.gnu.org>
Thu, 29 Apr 2004 15:39:12 +0000 (15:39 +0000)
* builtins.c, cgraph.c, cgraphunit.c, final.c, fold-const.c:
Fix comment typos.

From-SVN: r81291

gcc/ChangeLog
gcc/builtins.c
gcc/cgraph.c
gcc/cgraphunit.c
gcc/final.c
gcc/fold-const.c

index 68ee9a5ff1169f1cef0692d2d022ad081a04723e..b660fdbf794b3d137fb7a673a713d537b50b63f8 100644 (file)
@@ -1,3 +1,8 @@
+2004-04-29  Kazu Hirata  <kazu@cs.umass.edu>
+
+       * builtins.c, cgraph.c, cgraphunit.c, final.c, fold-const.c:
+       Fix comment typos.
+
 2004-04-29  Douglas B Rupp  <rupp@gnat.com>
 
        * gcc.c (DELETE_IF_ORDINARY): New macro default definition.
index e2d393444d1a4d1cf9a357ea90e414205d405184..3130f3b70890b217027fa52995d6914cacd4c228 100644 (file)
@@ -5134,7 +5134,7 @@ expand_builtin_fork_or_exec (tree fn, tree arglist, rtx target, int ignore)
 
   /* Otherwise call the wrapper.  This should be equivalent for the rest of
      compiler, so the code does not diverge, and the wrapper may run the
-     code neccesary for keeping the profiling sane.  */
+     code necessary for keeping the profiling sane.  */
 
   switch (DECL_FUNCTION_CODE (fn))
     {
index 04049df6bf57a82a52e4c29c277b6bfc70152f50..0766a5dcb6be5555a49f2a83a2ae4f9a37e0c195 100644 (file)
@@ -68,8 +68,8 @@ The callgraph:
       caller. 
 
       Each edge has "inline_failed" field.  When the field is set to NULL,
-      the call will be inlined.  When it is non-NULL it contains an reason
-      why inlining wasn't performaned.
+      the call will be inlined.  When it is non-NULL it contains a reason
+      why inlining wasn't performed.
 
 
 The varpool data structure:
@@ -99,8 +99,8 @@ The varpool data structure:
 /* Hash table used to convert declarations into nodes.  */
 static GTY((param_is (struct cgraph_node))) htab_t cgraph_hash;
 
-/* We destructivly update callgraph during inlining and thus we need to
-   keep information on whether inlining happent separately.  */
+/* We destructively update callgraph during inlining and thus we need to
+   keep information on whether inlining happend separately.  */
 htab_t cgraph_inline_hash;
 
 /* The linked list of cgraph nodes.  */
@@ -209,7 +209,7 @@ cgraph_edge (struct cgraph_node *node, tree call_expr)
 
   /* This loop may turn out to be performance problem.  In such case adding
      hashtables into call nodes with very many edges is probably best
-     sollution.  It is not good idea to add pointer into CALL_EXPR itself
+     solution.  It is not good idea to add pointer into CALL_EXPR itself
      because we want to make possible having multiple cgraph nodes representing
      different clones of the same body before the body is actually cloned.  */
   for (e = node->callees; e; e= e->next_callee)
index 4bdd41a5aa97f6e948a4a85d7aeab9feee15f420..cbe468e2a9eaef0fa3ea918e1e3b129a3acfb5ee 100644 (file)
@@ -923,7 +923,7 @@ cgraph_remove_unreachable_nodes (void)
      eliminated
      Reachable extern inline functions we sometimes inlined will be turned into
      unanalyzed nodes so they look like for true extern functions to the rest
-     of code.  Body of such functions is relased via remove_node once the
+     of code.  Body of such functions is released via remove_node once the
      inline clones are eliminated.  */
   for (node = cgraph_nodes; node; node = node->next)
     {
@@ -1047,7 +1047,7 @@ cgraph_clone_inlined_nodes (struct cgraph_edge *e, bool duplicate)
   else
     e->callee->global.inlined_to = e->caller;
 
-  /* Recursivly clone all bodies.  */
+  /* Recursively clone all bodies.  */
   for (e = e->callee->callees; e; e = e->next_callee)
     if (!e->inline_failed)
       cgraph_clone_inlined_nodes (e, duplicate);
@@ -1110,7 +1110,7 @@ cgraph_mark_inline (struct cgraph_edge *edge)
   struct cgraph_edge *e, *next;
   int times = 0;
 
-  /* Look for all calls, mark them inline and clone recursivly
+  /* Look for all calls, mark them inline and clone recursively
      all inlined functions.  */
   for (e = what->callers; e; e = next)
     {
@@ -1182,7 +1182,7 @@ cgraph_default_inline_p (struct cgraph_node *n)
 
 /* Return true when inlining WHAT would create recursive inlining.
    We call recursive inlining all cases where same function appears more than
-   once in the single recusion nest path in the inline graph.  */
+   once in the single recursion nest path in the inline graph.  */
 
 static bool
 cgraph_recursive_inlining_p (struct cgraph_node *to,
index 9aa4657b068c2a61b7804d093945255276a1a6a0..500f4062e2dde41d8f3da29fd17e1e25bbb43c85 100644 (file)
@@ -1713,7 +1713,7 @@ final_scan_insn (rtx insn, FILE *file, int optimize ATTRIBUTE_UNUSED,
          
        case NOTE_INSN_BASIC_BLOCK:
          
-         /* If we are performing the optimization that paritions
+         /* If we are performing the optimization that partitions
             basic blocks into hot & cold sections of the .o file,
             then at the start of each new basic block, before
             beginning to write code for the basic block, we need to
index 57ae918392c6179162969c4214f2561fda68cfeb..e2a1ffb096fe8573b4de2cfaa1b7c696981829ea 100644 (file)
@@ -4806,7 +4806,7 @@ count_cond (tree expr, int lim)
    expression, and ARG to `a'.  If COND_FIRST_P is nonzero, then the
    COND is the first argument to CODE; otherwise (as in the example
    given here), it is the second argument.  TYPE is the type of the
-   original expression.  Return NULL_TREE if no simplication is
+   original expression.  Return NULL_TREE if no simplification is
    possible.  */
 
 static tree