]> oss.titaniummirror.com Git - msp430-binutils.git/blobdiff - bfd/elf32-spu.c
Imported binutils-2.20
[msp430-binutils.git] / bfd / elf32-spu.c
index eb0b0182f53f2fe029dbe5b2824d065056874885..890f260868f71cacf6789a7b0845a78ba156f953 100644 (file)
@@ -1,6 +1,6 @@
 /* SPU specific support for 32-bit ELF
 
-   Copyright 2006, 2007 Free Software Foundation, Inc.
+   Copyright 2006, 2007, 2008, 2009 Free Software Foundation, Inc.
 
    This file is part of BFD, the Binary File Descriptor library.
 
@@ -19,6 +19,7 @@
    51 Franklin Street - Fifth Floor, Boston, MA 02110-1301, USA.  */
 
 #include "sysdep.h"
+#include "libiberty.h"
 #include "bfd.h"
 #include "bfdlink.h"
 #include "libbfd.h"
@@ -54,7 +55,7 @@ static reloc_howto_type elf_howto_table[] = {
   HOWTO (R_SPU_ADDR18,     0, 2, 18, FALSE,  7, complain_overflow_bitfield,
         bfd_elf_generic_reloc, "SPU_ADDR18",
         FALSE, 0, 0x01ffff80, FALSE),
-  HOWTO (R_SPU_ADDR32,   0, 2, 32, FALSE,  0, complain_overflow_dont,
+  HOWTO (R_SPU_ADDR32,     0, 2, 32, FALSE,  0, complain_overflow_dont,
         bfd_elf_generic_reloc, "SPU_ADDR32",
         FALSE, 0, 0xffffffff, FALSE),
   HOWTO (R_SPU_REL16,      2, 2, 16,  TRUE,  7, complain_overflow_bitfield,
@@ -75,21 +76,25 @@ static reloc_howto_type elf_howto_table[] = {
   HOWTO (R_SPU_ADDR16I,    0, 2, 16, FALSE,  7, complain_overflow_signed,
         bfd_elf_generic_reloc, "SPU_ADDR16I",
         FALSE, 0, 0x007fff80, FALSE),
-  HOWTO (R_SPU_REL32,   0, 2, 32, TRUE,  0, complain_overflow_dont,
+  HOWTO (R_SPU_REL32,      0, 2, 32, TRUE,  0, complain_overflow_dont,
         bfd_elf_generic_reloc, "SPU_REL32",
         FALSE, 0, 0xffffffff, TRUE),
   HOWTO (R_SPU_ADDR16X,    0, 2, 16, FALSE,  7, complain_overflow_bitfield,
         bfd_elf_generic_reloc, "SPU_ADDR16X",
         FALSE, 0, 0x007fff80, FALSE),
-  HOWTO (R_SPU_PPU32,   0, 2, 32, FALSE,  0, complain_overflow_dont,
+  HOWTO (R_SPU_PPU32,      0, 2, 32, FALSE,  0, complain_overflow_dont,
         bfd_elf_generic_reloc, "SPU_PPU32",
         FALSE, 0, 0xffffffff, FALSE),
-  HOWTO (R_SPU_PPU64,   0, 4, 64, FALSE,  0, complain_overflow_dont,
+  HOWTO (R_SPU_PPU64,      0, 4, 64, FALSE,  0, complain_overflow_dont,
         bfd_elf_generic_reloc, "SPU_PPU64",
         FALSE, 0, -1, FALSE),
+  HOWTO (R_SPU_ADD_PIC,      0, 0, 0, FALSE,  0, complain_overflow_dont,
+        bfd_elf_generic_reloc, "SPU_ADD_PIC",
+        FALSE, 0, 0x00000000, FALSE),
 };
 
 static struct bfd_elf_special_section const spu_elf_special_sections[] = {
+  { "._ea", 4, 0, SHT_PROGBITS, SHF_WRITE },
   { ".toe", 4, 0, SHT_NOBITS, SHF_ALLOC },
   { NULL, 0, 0, 0, 0 }
 };
@@ -133,6 +138,8 @@ spu_elf_bfd_to_reloc_type (bfd_reloc_code_real_type code)
       return R_SPU_PPU32;
     case BFD_RELOC_SPU_PPU64:
       return R_SPU_PPU64;
+    case BFD_RELOC_SPU_ADD_PIC:
+      return R_SPU_ADD_PIC;
     }
 }
 
@@ -239,6 +246,44 @@ spu_elf_new_section_hook (bfd *abfd, asection *sec)
   return _bfd_elf_new_section_hook (abfd, sec);
 }
 
+/* Set up overlay info for executables.  */
+
+static bfd_boolean
+spu_elf_object_p (bfd *abfd)
+{
+  if ((abfd->flags & (EXEC_P | DYNAMIC)) != 0)
+    {
+      unsigned int i, num_ovl, num_buf;
+      Elf_Internal_Phdr *phdr = elf_tdata (abfd)->phdr;
+      Elf_Internal_Ehdr *ehdr = elf_elfheader (abfd);
+      Elf_Internal_Phdr *last_phdr = NULL;
+
+      for (num_buf = 0, num_ovl = 0, i = 0; i < ehdr->e_phnum; i++, phdr++)
+       if (phdr->p_type == PT_LOAD && (phdr->p_flags & PF_OVERLAY) != 0)
+         {
+           unsigned int j;
+
+           ++num_ovl;
+           if (last_phdr == NULL
+               || ((last_phdr->p_vaddr ^ phdr->p_vaddr) & 0x3ffff) != 0)
+             ++num_buf;
+           last_phdr = phdr;
+           for (j = 1; j < elf_numsections (abfd); j++)
+             {
+               Elf_Internal_Shdr *shdr = elf_elfsections (abfd)[j];
+
+               if (ELF_IS_SECTION_IN_SEGMENT_MEMORY (shdr, phdr))
+                 {
+                   asection *sec = shdr->bfd_section;
+                   spu_elf_section_data (sec)->u.o.ovl_index = num_ovl;
+                   spu_elf_section_data (sec)->u.o.ovl_buf = num_buf;
+                 }
+             }
+         }
+    }
+  return TRUE;
+}
+
 /* Specially mark defined symbols named _EAR_* with BSF_KEEP so that
    strip --strip-unneeded will not remove them.  */
 
@@ -257,22 +302,21 @@ struct spu_link_hash_table
 {
   struct elf_link_hash_table elf;
 
-  /* The stub hash table.  */
-  struct bfd_hash_table stub_hash_table;
+  struct spu_elf_params *params;
 
   /* Shortcuts to overlay sections.  */
-  asection *stub;
   asection *ovtab;
+  asection *init;
+  asection *toe;
+  asection **ovl_sec;
 
-  struct elf_link_hash_entry *ovly_load;
+  /* Count of stubs in each overlay section.  */
+  unsigned int *stub_count;
 
-  /* An array of two output sections per overlay region, chosen such that
-     the first section vma is the overlay buffer vma (ie. the section has
-     the lowest vma in the group that occupy the region), and the second
-     section vma+size specifies the end of the region.  We keep pointers
-     to sections like this because section vmas may change when laying
-     them out.  */
-  asection **ovl_region;
+  /* The stub section for each overlay section.  */
+  asection **stub_sec;
+
+  struct elf_link_hash_entry *ovly_entry[2];
 
   /* Number of overlay buffers.  */
   unsigned int num_buf;
@@ -280,71 +324,120 @@ struct spu_link_hash_table
   /* Total number of overlays.  */
   unsigned int num_overlays;
 
-  /* Set if we should emit symbols for stubs.  */
-  unsigned int emit_stub_syms:1;
-
-  /* Set if we want stubs on calls out of overlay regions to
-     non-overlay regions.  */
-  unsigned int non_overlay_stubs : 1;
+  /* For soft icache.  */
+  unsigned int line_size_log2;
+  unsigned int num_lines_log2;
+  unsigned int fromelem_size_log2;
+
+  /* How much memory we have.  */
+  unsigned int local_store;
+  /* Local store --auto-overlay should reserve for non-overlay
+     functions and data.  */
+  unsigned int overlay_fixed;
+  /* Local store --auto-overlay should reserve for stack and heap.  */
+  unsigned int reserved;
+  /* If reserved is not specified, stack analysis will calculate a value
+     for the stack.  This parameter adjusts that value to allow for
+     negative sp access (the ABI says 2000 bytes below sp are valid,
+     and the overlay manager uses some of this area).  */
+  int extra_stack_space;
+  /* Count of overlay stubs needed in non-overlay area.  */
+  unsigned int non_ovly_stub;
+
+  /* Pointer to the fixup section */
+  asection *sfixup;
 
   /* Set on error.  */
-  unsigned int stub_overflow : 1;
+  unsigned int stub_err : 1;
+};
 
-  /* Set if stack size analysis should be done.  */
-  unsigned int stack_analysis : 1;
+/* Hijack the generic got fields for overlay stub accounting.  */
 
-  /* Set if __stack_* syms will be emitted.  */
-  unsigned int emit_stack_syms : 1;
+struct got_entry
+{
+  struct got_entry *next;
+  unsigned int ovl;
+  union {
+    bfd_vma addend;
+    bfd_vma br_addr;
+  };
+  bfd_vma stub_addr;
 };
 
 #define spu_hash_table(p) \
   ((struct spu_link_hash_table *) ((p)->hash))
 
-struct spu_stub_hash_entry
+struct call_info
 {
-  struct bfd_hash_entry root;
-
-  /* Destination of this stub.  */
-  asection *target_section;
-  bfd_vma target_off;
-
-  /* Offset of entry in stub section.  */
-  bfd_vma off;
-
-  /* Offset from this stub to stub that loads the overlay index.  */
-  bfd_vma delta;
+  struct function_info *fun;
+  struct call_info *next;
+  unsigned int count;
+  unsigned int max_depth;
+  unsigned int is_tail : 1;
+  unsigned int is_pasted : 1;
+  unsigned int broken_cycle : 1;
+  unsigned int priority : 13;
 };
 
-/* Create an entry in a spu stub hash table.  */
-
-static struct bfd_hash_entry *
-stub_hash_newfunc (struct bfd_hash_entry *entry,
-                  struct bfd_hash_table *table,
-                  const char *string)
+struct function_info
 {
-  /* Allocate the structure if it has not already been allocated by a
-     subclass.  */
-  if (entry == NULL)
-    {
-      entry = bfd_hash_allocate (table, sizeof (struct spu_stub_hash_entry));
-      if (entry == NULL)
-       return entry;
-    }
-
-  /* Call the allocation method of the superclass.  */
-  entry = bfd_hash_newfunc (entry, table, string);
-  if (entry != NULL)
-    {
-      struct spu_stub_hash_entry *sh = (struct spu_stub_hash_entry *) entry;
+  /* List of functions called.  Also branches to hot/cold part of
+     function.  */
+  struct call_info *call_list;
+  /* For hot/cold part of function, point to owner.  */
+  struct function_info *start;
+  /* Symbol at start of function.  */
+  union {
+    Elf_Internal_Sym *sym;
+    struct elf_link_hash_entry *h;
+  } u;
+  /* Function section.  */
+  asection *sec;
+  asection *rodata;
+  /* Where last called from, and number of sections called from.  */
+  asection *last_caller;
+  unsigned int call_count;
+  /* Address range of (this part of) function.  */
+  bfd_vma lo, hi;
+  /* Offset where we found a store of lr, or -1 if none found.  */
+  bfd_vma lr_store;
+  /* Offset where we found the stack adjustment insn.  */
+  bfd_vma sp_adjust;
+  /* Stack usage.  */
+  int stack;
+  /* Distance from root of call tree.  Tail and hot/cold branches
+     count as one deeper.  We aren't counting stack frames here.  */
+  unsigned int depth;
+  /* Set if global symbol.  */
+  unsigned int global : 1;
+  /* Set if known to be start of function (as distinct from a hunk
+     in hot/cold section.  */
+  unsigned int is_func : 1;
+  /* Set if not a root node.  */
+  unsigned int non_root : 1;
+  /* Flags used during call tree traversal.  It's cheaper to replicate
+     the visit flags than have one which needs clearing after a traversal.  */
+  unsigned int visit1 : 1;
+  unsigned int visit2 : 1;
+  unsigned int marking : 1;
+  unsigned int visit3 : 1;
+  unsigned int visit4 : 1;
+  unsigned int visit5 : 1;
+  unsigned int visit6 : 1;
+  unsigned int visit7 : 1;
+};
 
-      sh->target_section = NULL;
-      sh->target_off = 0;
-      sh->off = 0;
-      sh->delta = 0;
-    }
+struct spu_elf_stack_info
+{
+  int num_fun;
+  int max_fun;
+  /* Variable size array describing functions, one per contiguous
+     address range belonging to a function.  */
+  struct function_info fun[1];
+};
 
-  return entry;
-}
+static struct function_info *find_function (asection *, bfd_vma,
+                                           struct bfd_link_info *);
 
 /* Create a spu ELF linker hash table.  */
 
@@ -365,26 +458,31 @@ spu_elf_link_hash_table_create (bfd *abfd)
       return NULL;
     }
 
-  /* Init the stub hash table too.  */
-  if (!bfd_hash_table_init (&htab->stub_hash_table, stub_hash_newfunc,
-                           sizeof (struct spu_stub_hash_entry)))
-    return NULL;
-
-  memset (&htab->stub, 0,
-         sizeof (*htab) - offsetof (struct spu_link_hash_table, stub));
+  memset (&htab->ovtab, 0,
+         sizeof (*htab) - offsetof (struct spu_link_hash_table, ovtab));
 
+  htab->elf.init_got_refcount.refcount = 0;
+  htab->elf.init_got_refcount.glist = NULL;
+  htab->elf.init_got_offset.offset = 0;
+  htab->elf.init_got_offset.glist = NULL;
   return &htab->elf.root;
 }
 
-/* Free the derived linker hash table.  */
-
-static void
-spu_elf_link_hash_table_free (struct bfd_link_hash_table *hash)
+void
+spu_elf_setup (struct bfd_link_info *info, struct spu_elf_params *params)
 {
-  struct spu_link_hash_table *ret = (struct spu_link_hash_table *) hash;
+  bfd_vma max_branch_log2;
 
-  bfd_hash_table_free (&ret->stub_hash_table);
-  _bfd_generic_link_hash_table_free (hash);
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  htab->params = params;
+  htab->line_size_log2 = bfd_log2 (htab->params->line_size);
+  htab->num_lines_log2 = bfd_log2 (htab->params->num_lines);
+
+  /* For the software i-cache, we provide a "from" list whose size
+     is a power-of-two number of quadwords, big enough to hold one
+     byte per outgoing branch.  Compute this number here.  */
+  max_branch_log2 = bfd_log2 (htab->params->max_branch);
+  htab->fromelem_size_log2 = max_branch_log2 > 4 ? max_branch_log2 - 4 : 0;
 }
 
 /* Find the symbol for the given R_SYMNDX in IBFD and set *HP and *SYMP
@@ -435,17 +533,9 @@ get_sym_h (struct elf_link_hash_entry **hp,
        {
          locsyms = (Elf_Internal_Sym *) symtab_hdr->contents;
          if (locsyms == NULL)
-           {
-             size_t symcount = symtab_hdr->sh_info;
-
-             /* If we are reading symbols into the contents, then
-                read the global syms too.  This is done to cache
-                syms for later stack analysis.  */
-             if ((unsigned char **) locsymsp == &symtab_hdr->contents)
-               symcount = symtab_hdr->sh_size / symtab_hdr->sh_entsize;
-             locsyms = bfd_elf_get_elf_syms (ibfd, symtab_hdr, symcount, 0,
-                                             NULL, NULL, NULL);
-           }
+           locsyms = bfd_elf_get_elf_syms (ibfd, symtab_hdr,
+                                           symtab_hdr->sh_info,
+                                           0, NULL, NULL, NULL);
          if (locsyms == NULL)
            return FALSE;
          *locsymsp = locsyms;
@@ -459,79 +549,20 @@ get_sym_h (struct elf_link_hash_entry **hp,
        *symp = sym;
 
       if (symsecp != NULL)
-       {
-         asection *symsec = NULL;
-         if ((sym->st_shndx != SHN_UNDEF
-              && sym->st_shndx < SHN_LORESERVE)
-             || sym->st_shndx > SHN_HIRESERVE)
-           symsec = bfd_section_from_elf_index (ibfd, sym->st_shndx);
-         *symsecp = symsec;
-       }
+       *symsecp = bfd_section_from_elf_index (ibfd, sym->st_shndx);
     }
 
   return TRUE;
 }
 
-/* Build a name for an entry in the stub hash table.  We can't use a
-   local symbol name because ld -r might generate duplicate local symbols.  */
-
-static char *
-spu_stub_name (const asection *sym_sec,
-              const struct elf_link_hash_entry *h,
-              const Elf_Internal_Rela *rel)
-{
-  char *stub_name;
-  bfd_size_type len;
-
-  if (h)
-    {
-      len = strlen (h->root.root.string) + 1 + 8 + 1;
-      stub_name = bfd_malloc (len);
-      if (stub_name == NULL)
-       return stub_name;
-
-      sprintf (stub_name, "%s+%x",
-              h->root.root.string,
-              (int) rel->r_addend & 0xffffffff);
-      len -= 8;
-    }
-  else
-    {
-      len = 8 + 1 + 8 + 1 + 8 + 1;
-      stub_name = bfd_malloc (len);
-      if (stub_name == NULL)
-       return stub_name;
-
-      sprintf (stub_name, "%x:%x+%x",
-              sym_sec->id & 0xffffffff,
-              (int) ELF32_R_SYM (rel->r_info) & 0xffffffff,
-              (int) rel->r_addend & 0xffffffff);
-      len = strlen (stub_name);
-    }
-
-  if (stub_name[len - 2] == '+'
-      && stub_name[len - 1] == '0'
-      && stub_name[len] == 0)
-    stub_name[len - 2] = 0;
-
-  return stub_name;
-}
-
 /* Create the note section if not already present.  This is done early so
    that the linker maps the sections to the right place in the output.  */
 
 bfd_boolean
-spu_elf_create_sections (bfd *output_bfd,
-                        struct bfd_link_info *info,
-                        int stack_analysis,
-                        int emit_stack_syms)
+spu_elf_create_sections (struct bfd_link_info *info)
 {
-  bfd *ibfd;
   struct spu_link_hash_table *htab = spu_hash_table (info);
-
-  /* Stash some options away where we can get at them later.  */
-  htab->stack_analysis = stack_analysis;
-  htab->emit_stack_syms = emit_stack_syms;
+  bfd *ibfd;
 
   for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
     if (bfd_get_section_by_name (ibfd, SPU_PTNOTE_SPUNAME) != NULL)
@@ -553,7 +584,7 @@ spu_elf_create_sections (bfd *output_bfd,
          || !bfd_set_section_alignment (ibfd, s, 4))
        return FALSE;
 
-      name_len = strlen (bfd_get_filename (output_bfd)) + 1;
+      name_len = strlen (bfd_get_filename (info->output_bfd)) + 1;
       size = 12 + ((sizeof (SPU_PLUGIN_NAME) + 3) & -4);
       size += (name_len + 3) & -4;
 
@@ -569,10 +600,23 @@ spu_elf_create_sections (bfd *output_bfd,
       bfd_put_32 (ibfd, 1, data + 8);
       memcpy (data + 12, SPU_PLUGIN_NAME, sizeof (SPU_PLUGIN_NAME));
       memcpy (data + 12 + ((sizeof (SPU_PLUGIN_NAME) + 3) & -4),
-             bfd_get_filename (output_bfd), name_len);
+             bfd_get_filename (info->output_bfd), name_len);
       s->contents = data;
     }
 
+  if (htab->params->emit_fixups)
+    {
+      asection *s;
+      flagword flags;
+      ibfd = info->input_bfds;
+      flags = SEC_LOAD | SEC_ALLOC | SEC_READONLY | SEC_HAS_CONTENTS
+             | SEC_IN_MEMORY;
+      s = bfd_make_section_anyway_with_flags (ibfd, ".fixup", flags);
+      if (s == NULL || !bfd_set_section_alignment (ibfd, s, 2))
+       return FALSE;
+      htab->sfixup = s;
+    }
+
   return TRUE;
 }
 
@@ -591,26 +635,32 @@ sort_sections (const void *a, const void *b)
   return (*s1)->index - (*s2)->index;
 }
 
-/* Identify overlays in the output bfd, and number them.  */
+/* Identify overlays in the output bfd, and number them.
+   Returns 0 on error, 1 if no overlays, 2 if overlays.  */
 
-bfd_boolean
-spu_elf_find_overlays (bfd *output_bfd, struct bfd_link_info *info)
+int
+spu_elf_find_overlays (struct bfd_link_info *info)
 {
   struct spu_link_hash_table *htab = spu_hash_table (info);
   asection **alloc_sec;
   unsigned int i, n, ovl_index, num_buf;
   asection *s;
   bfd_vma ovl_end;
+  static const char *const entry_names[2][2] = {
+    { "__ovly_load", "__icache_br_handler" },
+    { "__ovly_return", "__icache_call_handler" }
+  };
 
-  if (output_bfd->section_count < 2)
-    return FALSE;
+  if (info->output_bfd->section_count < 2)
+    return 1;
 
-  alloc_sec = bfd_malloc (output_bfd->section_count * sizeof (*alloc_sec));
+  alloc_sec
+    = bfd_malloc (info->output_bfd->section_count * sizeof (*alloc_sec));
   if (alloc_sec == NULL)
-    return FALSE;
+    return 0;
 
   /* Pick out all the alloced sections.  */
-  for (n = 0, s = output_bfd->sections; s != NULL; s = s->next)
+  for (n = 0, s = info->output_bfd->sections; s != NULL; s = s->next)
     if ((s->flags & SEC_ALLOC) != 0
        && (s->flags & (SEC_LOAD | SEC_THREAD_LOCAL)) != SEC_THREAD_LOCAL
        && s->size != 0)
@@ -619,68 +669,180 @@ spu_elf_find_overlays (bfd *output_bfd, struct bfd_link_info *info)
   if (n == 0)
     {
       free (alloc_sec);
-      return FALSE;
+      return 1;
     }
 
   /* Sort them by vma.  */
   qsort (alloc_sec, n, sizeof (*alloc_sec), sort_sections);
 
-  /* Look for overlapping vmas.  Any with overlap must be overlays.
-     Count them.  Also count the number of overlay regions and for
-     each region save a section from that region with the lowest vma
-     and another section with the highest end vma.  */
   ovl_end = alloc_sec[0]->vma + alloc_sec[0]->size;
-  for (ovl_index = 0, num_buf = 0, i = 1; i < n; i++)
+  if (htab->params->ovly_flavour == ovly_soft_icache)
     {
-      s = alloc_sec[i];
-      if (s->vma < ovl_end)
+      unsigned int prev_buf = 0, set_id = 0;
+
+      /* Look for an overlapping vma to find the first overlay section.  */
+      bfd_vma vma_start = 0;
+
+      for (i = 1; i < n; i++)
+       {
+         s = alloc_sec[i];
+         if (s->vma < ovl_end)
+           {
+             asection *s0 = alloc_sec[i - 1];
+             vma_start = s0->vma;
+             ovl_end = (s0->vma
+                        + ((bfd_vma) 1
+                           << (htab->num_lines_log2 + htab->line_size_log2)));
+             --i;
+             break;
+           }
+         else
+           ovl_end = s->vma + s->size;
+       }
+
+      /* Now find any sections within the cache area.  */
+      for (ovl_index = 0, num_buf = 0; i < n; i++)
        {
-         asection *s0 = alloc_sec[i - 1];
+         s = alloc_sec[i];
+         if (s->vma >= ovl_end)
+           break;
+
+         /* A section in an overlay area called .ovl.init is not
+            an overlay, in the sense that it might be loaded in
+            by the overlay manager, but rather the initial
+            section contents for the overlay buffer.  */
+         if (strncmp (s->name, ".ovl.init", 9) != 0)
+           {
+             num_buf = ((s->vma - vma_start) >> htab->line_size_log2) + 1;
+             set_id = (num_buf == prev_buf)? set_id + 1 : 0;
+             prev_buf = num_buf;
+
+             if ((s->vma - vma_start) & (htab->params->line_size - 1))
+               {
+                 info->callbacks->einfo (_("%X%P: overlay section %A "
+                                           "does not start on a cache line.\n"),
+                                         s);
+                 bfd_set_error (bfd_error_bad_value);
+                 return 0;
+               }
+             else if (s->size > htab->params->line_size)
+               {
+                 info->callbacks->einfo (_("%X%P: overlay section %A "
+                                           "is larger than a cache line.\n"),
+                                         s);
+                 bfd_set_error (bfd_error_bad_value);
+                 return 0;
+               }
+
+             alloc_sec[ovl_index++] = s;
+             spu_elf_section_data (s)->u.o.ovl_index
+               = (set_id << htab->num_lines_log2) + num_buf;
+             spu_elf_section_data (s)->u.o.ovl_buf = num_buf;
+           }
+       }
 
-         if (spu_elf_section_data (s0)->ovl_index == 0)
+      /* Ensure there are no more overlay sections.  */
+      for ( ; i < n; i++)
+       {
+         s = alloc_sec[i];
+         if (s->vma < ovl_end)
            {
-             spu_elf_section_data (s0)->ovl_index = ++ovl_index;
-             alloc_sec[num_buf * 2] = s0;
-             alloc_sec[num_buf * 2 + 1] = s0;
-             num_buf++;
+             info->callbacks->einfo (_("%X%P: overlay section %A "
+                                       "is not in cache area.\n"),
+                                     alloc_sec[i-1]);
+             bfd_set_error (bfd_error_bad_value);
+             return 0;
            }
-         spu_elf_section_data (s)->ovl_index = ++ovl_index;
-         if (ovl_end < s->vma + s->size)
+         else
+           ovl_end = s->vma + s->size;
+       }
+    }
+  else
+    {
+      /* Look for overlapping vmas.  Any with overlap must be overlays.
+        Count them.  Also count the number of overlay regions.  */
+      for (ovl_index = 0, num_buf = 0, i = 1; i < n; i++)
+       {
+         s = alloc_sec[i];
+         if (s->vma < ovl_end)
            {
-             ovl_end = s->vma + s->size;
-             alloc_sec[num_buf * 2 - 1] = s;
+             asection *s0 = alloc_sec[i - 1];
+
+             if (spu_elf_section_data (s0)->u.o.ovl_index == 0)
+               {
+                 ++num_buf;
+                 if (strncmp (s0->name, ".ovl.init", 9) != 0)
+                   {
+                     alloc_sec[ovl_index] = s0;
+                     spu_elf_section_data (s0)->u.o.ovl_index = ++ovl_index;
+                     spu_elf_section_data (s0)->u.o.ovl_buf = num_buf;
+                   }
+                 else
+                   ovl_end = s->vma + s->size;
+               }
+             if (strncmp (s->name, ".ovl.init", 9) != 0)
+               {
+                 alloc_sec[ovl_index] = s;
+                 spu_elf_section_data (s)->u.o.ovl_index = ++ovl_index;
+                 spu_elf_section_data (s)->u.o.ovl_buf = num_buf;
+                 if (s0->vma != s->vma)
+                   {
+                     info->callbacks->einfo (_("%X%P: overlay sections %A "
+                                               "and %A do not start at the "
+                                               "same address.\n"),
+                                             s0, s);
+                     bfd_set_error (bfd_error_bad_value);
+                     return 0;
+                   }
+                 if (ovl_end < s->vma + s->size)
+                   ovl_end = s->vma + s->size;
+               }
            }
+         else
+           ovl_end = s->vma + s->size;
        }
-      else
-       ovl_end = s->vma + s->size;
     }
 
   htab->num_overlays = ovl_index;
   htab->num_buf = num_buf;
+  htab->ovl_sec = alloc_sec;
+
   if (ovl_index == 0)
+    return 1;
+
+  for (i = 0; i < 2; i++)
     {
-      free (alloc_sec);
-      return FALSE;
-    }
+      const char *name;
+      struct elf_link_hash_entry *h;
 
-  alloc_sec = bfd_realloc (alloc_sec, num_buf * 2 * sizeof (*alloc_sec));
-  if (alloc_sec == NULL)
-    return FALSE;
+      name = entry_names[i][htab->params->ovly_flavour];
+      h = elf_link_hash_lookup (&htab->elf, name, TRUE, FALSE, FALSE);
+      if (h == NULL)
+       return 0;
 
-  htab->ovl_region = alloc_sec;
-  return TRUE;
+      if (h->root.type == bfd_link_hash_new)
+       {
+         h->root.type = bfd_link_hash_undefined;
+         h->ref_regular = 1;
+         h->ref_regular_nonweak = 1;
+         h->non_elf = 0;
+       }
+      htab->ovly_entry[i] = h;
+    }
+
+  return 2;
 }
 
-/* One of these per stub.  */
-#define SIZEOF_STUB1 8
-#define ILA_79 0x4200004f              /* ila $79,function_address */
-#define BR     0x32000000              /* br stub2 */
+/* Non-zero to use bra in overlay stubs rather than br.  */
+#define BRA_STUBS 0
 
-/* One of these per overlay.  */
-#define SIZEOF_STUB2 8
-#define ILA_78 0x4200004e              /* ila $78,overlay_number */
-                                       /* br __ovly_load */
+#define BRA    0x30000000
+#define BRASL  0x31000000
+#define BR     0x32000000
+#define BRSL   0x33000000
 #define NOP    0x40200000
+#define LNOP   0x00200000
+#define ILA    0x42000000
 
 /* Return true for all relative and absolute branch instructions.
    bra   00110000 0..
@@ -698,6 +860,22 @@ is_branch (const unsigned char *insn)
   return (insn[0] & 0xec) == 0x20 && (insn[1] & 0x80) == 0;
 }
 
+/* Return true for all indirect branch instructions.
+   bi     00110101 000
+   bisl   00110101 001
+   iret   00110101 010
+   bisled 00110101 011
+   biz    00100101 000
+   binz   00100101 001
+   bihz   00100101 010
+   bihnz  00100101 011  */
+
+static bfd_boolean
+is_indirect_branch (const unsigned char *insn)
+{
+  return (insn[0] & 0xef) == 0x25 && (insn[1] & 0x80) == 0;
+}
+
 /* Return true for branch hint instructions.
    hbra  0001000..
    hbrr  0001001..  */
@@ -708,170 +886,652 @@ is_hint (const unsigned char *insn)
   return (insn[0] & 0xfc) == 0x10;
 }
 
-/* Return TRUE if this reloc symbol should possibly go via an overlay stub.  */
+/* True if INPUT_SECTION might need overlay stubs.  */
 
 static bfd_boolean
-needs_ovl_stub (const char *sym_name,
-               asection *sym_sec,
-               asection *input_section,
-               struct spu_link_hash_table *htab,
-               bfd_boolean is_branch)
+maybe_needs_stubs (asection *input_section)
 {
-  if (htab->num_overlays == 0)
+  /* No stubs for debug sections and suchlike.  */
+  if ((input_section->flags & SEC_ALLOC) == 0)
     return FALSE;
 
-  if (sym_sec == NULL
-      || sym_sec->output_section == NULL
-      || spu_elf_section_data (sym_sec->output_section) == NULL)
+  /* No stubs for link-once sections that will be discarded.  */
+  if (input_section->output_section == bfd_abs_section_ptr)
     return FALSE;
 
-  /* setjmp always goes via an overlay stub, because then the return
-     and hence the longjmp goes via __ovly_return.  That magically
-     makes setjmp/longjmp between overlays work.  */
-  if (strncmp (sym_name, "setjmp", 6) == 0
-      && (sym_name[6] == '\0' || sym_name[6] == '@'))
-    return TRUE;
-
-  /* Usually, symbols in non-overlay sections don't need stubs.  */
-  if (spu_elf_section_data (sym_sec->output_section)->ovl_index == 0
-      && !htab->non_overlay_stubs)
+  /* Don't create stubs for .eh_frame references.  */
+  if (strcmp (input_section->name, ".eh_frame") == 0)
     return FALSE;
 
-  /* A reference from some other section to a symbol in an overlay
-     section needs a stub.  */
-  if (spu_elf_section_data (sym_sec->output_section)->ovl_index
-       != spu_elf_section_data (input_section->output_section)->ovl_index)
-    return TRUE;
-
-  /* If this insn isn't a branch then we are possibly taking the
-     address of a function and passing it out somehow.  */
-  return !is_branch;
+  return TRUE;
 }
 
-struct stubarr {
-  struct bfd_hash_table *stub_hash_table;
-  struct spu_stub_hash_entry **sh;
-  unsigned int count;
-  int err;
+enum _stub_type
+{
+  no_stub,
+  call_ovl_stub,
+  br000_ovl_stub,
+  br001_ovl_stub,
+  br010_ovl_stub,
+  br011_ovl_stub,
+  br100_ovl_stub,
+  br101_ovl_stub,
+  br110_ovl_stub,
+  br111_ovl_stub,
+  nonovl_stub,
+  stub_error
 };
 
-/* Called via elf_link_hash_traverse to allocate stubs for any _SPUEAR_
-   symbols.  */
+/* Return non-zero if this reloc symbol should go via an overlay stub.
+   Return 2 if the stub must be in non-overlay area.  */
 
-static bfd_boolean
-allocate_spuear_stubs (struct elf_link_hash_entry *h, void *inf)
+static enum _stub_type
+needs_ovl_stub (struct elf_link_hash_entry *h,
+               Elf_Internal_Sym *sym,
+               asection *sym_sec,
+               asection *input_section,
+               Elf_Internal_Rela *irela,
+               bfd_byte *contents,
+               struct bfd_link_info *info)
 {
-  /* Symbols starting with _SPUEAR_ need a stub because they may be
-     invoked by the PPU.  */
-  if ((h->root.type == bfd_link_hash_defined
-       || h->root.type == bfd_link_hash_defweak)
-      && h->def_regular
-      && strncmp (h->root.root.string, "_SPUEAR_", 8) == 0)
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  enum elf_spu_reloc_type r_type;
+  unsigned int sym_type;
+  bfd_boolean branch, hint, call;
+  enum _stub_type ret = no_stub;
+  bfd_byte insn[4];
+
+  if (sym_sec == NULL
+      || sym_sec->output_section == bfd_abs_section_ptr
+      || spu_elf_section_data (sym_sec->output_section) == NULL)
+    return ret;
+
+  if (h != NULL)
     {
-      struct stubarr *stubs = inf;
-      static Elf_Internal_Rela zero_rel;
-      char *stub_name = spu_stub_name (h->root.u.def.section, h, &zero_rel);
-      struct spu_stub_hash_entry *sh;
+      /* Ensure no stubs for user supplied overlay manager syms.  */
+      if (h == htab->ovly_entry[0] || h == htab->ovly_entry[1])
+       return ret;
+
+      /* setjmp always goes via an overlay stub, because then the return
+        and hence the longjmp goes via __ovly_return.  That magically
+        makes setjmp/longjmp between overlays work.  */
+      if (strncmp (h->root.root.string, "setjmp", 6) == 0
+         && (h->root.root.string[6] == '\0' || h->root.root.string[6] == '@'))
+       ret = call_ovl_stub;
+    }
 
-      if (stub_name == NULL)
-       {
-         stubs->err = 1;
-         return FALSE;
-       }
+  if (h != NULL)
+    sym_type = h->type;
+  else
+    sym_type = ELF_ST_TYPE (sym->st_info);
 
-      sh = (struct spu_stub_hash_entry *)
-       bfd_hash_lookup (stubs->stub_hash_table, stub_name, TRUE, FALSE);
-      if (sh == NULL)
+  r_type = ELF32_R_TYPE (irela->r_info);
+  branch = FALSE;
+  hint = FALSE;
+  call = FALSE;
+  if (r_type == R_SPU_REL16 || r_type == R_SPU_ADDR16)
+    {
+      if (contents == NULL)
        {
-         free (stub_name);
-         return FALSE;
+         contents = insn;
+         if (!bfd_get_section_contents (input_section->owner,
+                                        input_section,
+                                        contents,
+                                        irela->r_offset, 4))
+           return stub_error;
        }
+      else
+       contents += irela->r_offset;
 
-      /* If this entry isn't new, we already have a stub.  */
-      if (sh->target_section != NULL)
+      branch = is_branch (contents);
+      hint = is_hint (contents);
+      if (branch || hint)
        {
-         free (stub_name);
-         return TRUE;
-       }
-
-      sh->target_section = h->root.u.def.section;
-      sh->target_off = h->root.u.def.value;
-      stubs->count += 1;
-    }
-  
-  return TRUE;
-}
+         call = (contents[0] & 0xfd) == 0x31;
+         if (call
+             && sym_type != STT_FUNC
+             && contents != insn)
+           {
+             /* It's common for people to write assembly and forget
+                to give function symbols the right type.  Handle
+                calls to such symbols, but warn so that (hopefully)
+                people will fix their code.  We need the symbol
+                type to be correct to distinguish function pointer
+                initialisation from other pointer initialisations.  */
+             const char *sym_name;
 
-/* Called via bfd_hash_traverse to set up pointers to all symbols
-   in the stub hash table.  */
+             if (h != NULL)
+               sym_name = h->root.root.string;
+             else
+               {
+                 Elf_Internal_Shdr *symtab_hdr;
+                 symtab_hdr = &elf_tdata (input_section->owner)->symtab_hdr;
+                 sym_name = bfd_elf_sym_name (input_section->owner,
+                                              symtab_hdr,
+                                              sym,
+                                              sym_sec);
+               }
+             (*_bfd_error_handler) (_("warning: call to non-function"
+                                      " symbol %s defined in %B"),
+                                    sym_sec->owner, sym_name);
 
-static bfd_boolean
-populate_stubs (struct bfd_hash_entry *bh, void *inf)
-{
-  struct stubarr *stubs = inf;
+           }
+       }
+    }
 
-  stubs->sh[--stubs->count] = (struct spu_stub_hash_entry *) bh;
-  return TRUE;
-}
+  if ((!branch && htab->params->ovly_flavour == ovly_soft_icache)
+      || (sym_type != STT_FUNC
+         && !(branch || hint)
+         && (sym_sec->flags & SEC_CODE) == 0))
+    return no_stub;
 
-/* qsort predicate to sort stubs by overlay number.  */
+  /* Usually, symbols in non-overlay sections don't need stubs.  */
+  if (spu_elf_section_data (sym_sec->output_section)->u.o.ovl_index == 0
+      && !htab->params->non_overlay_stubs)
+    return ret;
 
-static int
-sort_stubs (const void *a, const void *b)
-{
-  const struct spu_stub_hash_entry *const *sa = a;
-  const struct spu_stub_hash_entry *const *sb = b;
-  int i;
-  bfd_signed_vma d;
+  /* A reference from some other section to a symbol in an overlay
+     section needs a stub.  */
+  if (spu_elf_section_data (sym_sec->output_section)->u.o.ovl_index
+       != spu_elf_section_data (input_section->output_section)->u.o.ovl_index)
+    {
+      unsigned int lrlive = 0;
+      if (branch)
+       lrlive = (contents[1] & 0x70) >> 4;
 
-  i = spu_elf_section_data ((*sa)->target_section->output_section)->ovl_index;
-  i -= spu_elf_section_data ((*sb)->target_section->output_section)->ovl_index;
-  if (i != 0)
-    return i;
+      if (!lrlive && (call || sym_type == STT_FUNC))
+       ret = call_ovl_stub;
+      else
+       ret = br000_ovl_stub + lrlive;
+    }
 
-  d = ((*sa)->target_section->output_section->vma
-       + (*sa)->target_section->output_offset
-       + (*sa)->target_off
-       - (*sb)->target_section->output_section->vma
-       - (*sb)->target_section->output_offset
-       - (*sb)->target_off);
-  if (d != 0)
-    return d < 0 ? -1 : 1;
+  /* If this insn isn't a branch then we are possibly taking the
+     address of a function and passing it out somehow.  Soft-icache code
+     always generates inline code to do indirect branches.  */
+  if (!(branch || hint)
+      && sym_type == STT_FUNC
+      && htab->params->ovly_flavour != ovly_soft_icache)
+    ret = nonovl_stub;
 
-  /* Two functions at the same address.  Aliases perhaps.  */
-  i = strcmp ((*sb)->root.string, (*sa)->root.string);
-  BFD_ASSERT (i != 0);
-  return i;
+  return ret;
 }
 
-/* Allocate space for overlay call and return stubs.  */
-
-bfd_boolean
-spu_elf_size_stubs (bfd *output_bfd,
-                   struct bfd_link_info *info,
-                   int non_overlay_stubs,
-                   int stack_analysis,
-                   asection **stub,
-                   asection **ovtab,
-                   asection **toe)
+static bfd_boolean
+count_stub (struct spu_link_hash_table *htab,
+           bfd *ibfd,
+           asection *isec,
+           enum _stub_type stub_type,
+           struct elf_link_hash_entry *h,
+           const Elf_Internal_Rela *irela)
+{
+  unsigned int ovl = 0;
+  struct got_entry *g, **head;
+  bfd_vma addend;
+
+  /* If this instruction is a branch or call, we need a stub
+     for it.  One stub per function per overlay.
+     If it isn't a branch, then we are taking the address of
+     this function so need a stub in the non-overlay area
+     for it.  One stub per function.  */
+  if (stub_type != nonovl_stub)
+    ovl = spu_elf_section_data (isec->output_section)->u.o.ovl_index;
+
+  if (h != NULL)
+    head = &h->got.glist;
+  else
+    {
+      if (elf_local_got_ents (ibfd) == NULL)
+       {
+         bfd_size_type amt = (elf_tdata (ibfd)->symtab_hdr.sh_info
+                              * sizeof (*elf_local_got_ents (ibfd)));
+         elf_local_got_ents (ibfd) = bfd_zmalloc (amt);
+         if (elf_local_got_ents (ibfd) == NULL)
+           return FALSE;
+       }
+      head = elf_local_got_ents (ibfd) + ELF32_R_SYM (irela->r_info);
+    }
+
+  if (htab->params->ovly_flavour == ovly_soft_icache)
+    {
+      htab->stub_count[ovl] += 1;
+      return TRUE;
+    }
+
+  addend = 0;
+  if (irela != NULL)
+    addend = irela->r_addend;
+
+  if (ovl == 0)
+    {
+      struct got_entry *gnext;
+
+      for (g = *head; g != NULL; g = g->next)
+       if (g->addend == addend && g->ovl == 0)
+         break;
+
+      if (g == NULL)
+       {
+         /* Need a new non-overlay area stub.  Zap other stubs.  */
+         for (g = *head; g != NULL; g = gnext)
+           {
+             gnext = g->next;
+             if (g->addend == addend)
+               {
+                 htab->stub_count[g->ovl] -= 1;
+                 free (g);
+               }
+           }
+       }
+    }
+  else
+    {
+      for (g = *head; g != NULL; g = g->next)
+       if (g->addend == addend && (g->ovl == ovl || g->ovl == 0))
+         break;
+    }
+
+  if (g == NULL)
+    {
+      g = bfd_malloc (sizeof *g);
+      if (g == NULL)
+       return FALSE;
+      g->ovl = ovl;
+      g->addend = addend;
+      g->stub_addr = (bfd_vma) -1;
+      g->next = *head;
+      *head = g;
+
+      htab->stub_count[ovl] += 1;
+    }
+
+  return TRUE;
+}
+
+/* Support two sizes of overlay stubs, a slower more compact stub of two
+   intructions, and a faster stub of four instructions.
+   Soft-icache stubs are four or eight words.  */
+
+static unsigned int
+ovl_stub_size (struct spu_elf_params *params)
+{
+  return 16 << params->ovly_flavour >> params->compact_stub;
+}
+
+static unsigned int
+ovl_stub_size_log2 (struct spu_elf_params *params)
+{
+  return 4 + params->ovly_flavour - params->compact_stub;
+}
+
+/* Two instruction overlay stubs look like:
+
+   brsl $75,__ovly_load
+   .word target_ovl_and_address
+
+   ovl_and_address is a word with the overlay number in the top 14 bits
+   and local store address in the bottom 18 bits.
+
+   Four instruction overlay stubs look like:
+
+   ila $78,ovl_number
+   lnop
+   ila $79,target_address
+   br __ovly_load
+
+   Software icache stubs are:
+
+   .word target_index
+   .word target_ia;
+   .word lrlive_branchlocalstoreaddr;
+   brasl $75,__icache_br_handler
+   .quad xor_pattern
+*/
+
+static bfd_boolean
+build_stub (struct bfd_link_info *info,
+           bfd *ibfd,
+           asection *isec,
+           enum _stub_type stub_type,
+           struct elf_link_hash_entry *h,
+           const Elf_Internal_Rela *irela,
+           bfd_vma dest,
+           asection *dest_sec)
+{
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  unsigned int ovl, dest_ovl, set_id;
+  struct got_entry *g, **head;
+  asection *sec;
+  bfd_vma addend, from, to, br_dest, patt;
+  unsigned int lrlive;
+
+  ovl = 0;
+  if (stub_type != nonovl_stub)
+    ovl = spu_elf_section_data (isec->output_section)->u.o.ovl_index;
+
+  if (h != NULL)
+    head = &h->got.glist;
+  else
+    head = elf_local_got_ents (ibfd) + ELF32_R_SYM (irela->r_info);
+
+  addend = 0;
+  if (irela != NULL)
+    addend = irela->r_addend;
+
+  if (htab->params->ovly_flavour == ovly_soft_icache)
+    {
+      g = bfd_malloc (sizeof *g);
+      if (g == NULL)
+       return FALSE;
+      g->ovl = ovl;
+      g->br_addr = 0;
+      if (irela != NULL)
+       g->br_addr = (irela->r_offset
+                     + isec->output_offset
+                     + isec->output_section->vma);
+      g->next = *head;
+      *head = g;
+    }
+  else
+    {
+      for (g = *head; g != NULL; g = g->next)
+       if (g->addend == addend && (g->ovl == ovl || g->ovl == 0))
+         break;
+      if (g == NULL)
+       abort ();
+
+      if (g->ovl == 0 && ovl != 0)
+       return TRUE;
+
+      if (g->stub_addr != (bfd_vma) -1)
+       return TRUE;
+    }
+
+  sec = htab->stub_sec[ovl];
+  dest += dest_sec->output_offset + dest_sec->output_section->vma;
+  from = sec->size + sec->output_offset + sec->output_section->vma;
+  g->stub_addr = from;
+  to = (htab->ovly_entry[0]->root.u.def.value
+       + htab->ovly_entry[0]->root.u.def.section->output_offset
+       + htab->ovly_entry[0]->root.u.def.section->output_section->vma);
+
+  if (((dest | to | from) & 3) != 0)
+    {
+      htab->stub_err = 1;
+      return FALSE;
+    }
+  dest_ovl = spu_elf_section_data (dest_sec->output_section)->u.o.ovl_index;
+
+  if (htab->params->ovly_flavour == ovly_normal
+      && !htab->params->compact_stub)
+    {
+      bfd_put_32 (sec->owner, ILA + ((dest_ovl << 7) & 0x01ffff80) + 78,
+                 sec->contents + sec->size);
+      bfd_put_32 (sec->owner, LNOP,
+                 sec->contents + sec->size + 4);
+      bfd_put_32 (sec->owner, ILA + ((dest << 7) & 0x01ffff80) + 79,
+                 sec->contents + sec->size + 8);
+      if (!BRA_STUBS)
+       bfd_put_32 (sec->owner, BR + (((to - (from + 12)) << 5) & 0x007fff80),
+                   sec->contents + sec->size + 12);
+      else
+       bfd_put_32 (sec->owner, BRA + ((to << 5) & 0x007fff80),
+                   sec->contents + sec->size + 12);
+    }
+  else if (htab->params->ovly_flavour == ovly_normal
+          && htab->params->compact_stub)
+    {
+      if (!BRA_STUBS)
+       bfd_put_32 (sec->owner, BRSL + (((to - from) << 5) & 0x007fff80) + 75,
+                   sec->contents + sec->size);
+      else
+       bfd_put_32 (sec->owner, BRASL + ((to << 5) & 0x007fff80) + 75,
+                   sec->contents + sec->size);
+      bfd_put_32 (sec->owner, (dest & 0x3ffff) | (dest_ovl << 18),
+                 sec->contents + sec->size + 4);
+    }
+  else if (htab->params->ovly_flavour == ovly_soft_icache
+          && htab->params->compact_stub)
+    {
+      lrlive = 0;
+      if (stub_type == nonovl_stub)
+       ;
+      else if (stub_type == call_ovl_stub)
+       /* A brsl makes lr live and *(*sp+16) is live.
+          Tail calls have the same liveness.  */
+       lrlive = 5;
+      else if (!htab->params->lrlive_analysis)
+       /* Assume stack frame and lr save.  */
+       lrlive = 1;
+      else if (irela != NULL)
+       {
+         /* Analyse branch instructions.  */
+         struct function_info *caller;
+         bfd_vma off;
+
+         caller = find_function (isec, irela->r_offset, info);
+         if (caller->start == NULL)
+           off = irela->r_offset;
+         else
+           {
+             struct function_info *found = NULL;
+
+             /* Find the earliest piece of this function that
+                has frame adjusting instructions.  We might
+                see dynamic frame adjustment (eg. for alloca)
+                in some later piece, but functions using
+                alloca always set up a frame earlier.  Frame
+                setup instructions are always in one piece.  */
+             if (caller->lr_store != (bfd_vma) -1
+                 || caller->sp_adjust != (bfd_vma) -1)
+               found = caller;
+             while (caller->start != NULL)
+               {
+                 caller = caller->start;
+                 if (caller->lr_store != (bfd_vma) -1
+                     || caller->sp_adjust != (bfd_vma) -1)
+                   found = caller;
+               }
+             if (found != NULL)
+               caller = found;
+             off = (bfd_vma) -1;
+           }
+
+         if (off > caller->sp_adjust)
+           {
+             if (off > caller->lr_store)
+               /* Only *(*sp+16) is live.  */
+               lrlive = 1;
+             else
+               /* If no lr save, then we must be in a
+                  leaf function with a frame.
+                  lr is still live.  */
+               lrlive = 4;
+           }
+         else if (off > caller->lr_store)
+           {
+             /* Between lr save and stack adjust.  */
+             lrlive = 3;
+             /* This should never happen since prologues won't
+                be split here.  */
+             BFD_ASSERT (0);
+           }
+         else
+           /* On entry to function.  */
+           lrlive = 5;
+
+         if (stub_type != br000_ovl_stub
+             && lrlive != stub_type - br000_ovl_stub)
+           info->callbacks->einfo (_("%A:0x%v lrlive .brinfo (%u) differs "
+                                     "from analysis (%u)\n"),
+                                   isec, irela->r_offset, lrlive,
+                                   stub_type - br000_ovl_stub);
+       }
+
+      /* If given lrlive info via .brinfo, use it.  */
+      if (stub_type > br000_ovl_stub)
+       lrlive = stub_type - br000_ovl_stub;
+
+      if (ovl == 0)
+       to = (htab->ovly_entry[1]->root.u.def.value
+             + htab->ovly_entry[1]->root.u.def.section->output_offset
+             + htab->ovly_entry[1]->root.u.def.section->output_section->vma);
+
+      /* The branch that uses this stub goes to stub_addr + 4.  We'll
+        set up an xor pattern that can be used by the icache manager
+        to modify this branch to go directly to its destination.  */
+      g->stub_addr += 4;
+      br_dest = g->stub_addr;
+      if (irela == NULL)
+       {
+         /* Except in the case of _SPUEAR_ stubs, the branch in
+            question is the one in the stub itself.  */
+         BFD_ASSERT (stub_type == nonovl_stub);
+         g->br_addr = g->stub_addr;
+         br_dest = to;
+       }
+
+      set_id = ((dest_ovl - 1) >> htab->num_lines_log2) + 1;
+      bfd_put_32 (sec->owner, (set_id << 18) | (dest & 0x3ffff),
+                 sec->contents + sec->size);
+      bfd_put_32 (sec->owner, BRASL + ((to << 5) & 0x007fff80) + 75,
+                 sec->contents + sec->size + 4);
+      bfd_put_32 (sec->owner, (lrlive << 29) | (g->br_addr & 0x3ffff),
+                 sec->contents + sec->size + 8);
+      patt = dest ^ br_dest;
+      if (irela != NULL && ELF32_R_TYPE (irela->r_info) == R_SPU_REL16)
+       patt = (dest - g->br_addr) ^ (br_dest - g->br_addr);
+      bfd_put_32 (sec->owner, (patt << 5) & 0x007fff80,
+                 sec->contents + sec->size + 12);
+
+      if (ovl == 0)
+       /* Extra space for linked list entries.  */
+       sec->size += 16;
+    }
+  else
+    abort ();
+
+  sec->size += ovl_stub_size (htab->params);
+
+  if (htab->params->emit_stub_syms)
+    {
+      size_t len;
+      char *name;
+      int add;
+
+      len = 8 + sizeof (".ovl_call.") - 1;
+      if (h != NULL)
+       len += strlen (h->root.root.string);
+      else
+       len += 8 + 1 + 8;
+      add = 0;
+      if (irela != NULL)
+       add = (int) irela->r_addend & 0xffffffff;
+      if (add != 0)
+       len += 1 + 8;
+      name = bfd_malloc (len);
+      if (name == NULL)
+       return FALSE;
+
+      sprintf (name, "%08x.ovl_call.", g->ovl);
+      if (h != NULL)
+       strcpy (name + 8 + sizeof (".ovl_call.") - 1, h->root.root.string);
+      else
+       sprintf (name + 8 + sizeof (".ovl_call.") - 1, "%x:%x",
+                dest_sec->id & 0xffffffff,
+                (int) ELF32_R_SYM (irela->r_info) & 0xffffffff);
+      if (add != 0)
+       sprintf (name + len - 9, "+%x", add);
+
+      h = elf_link_hash_lookup (&htab->elf, name, TRUE, TRUE, FALSE);
+      free (name);
+      if (h == NULL)
+       return FALSE;
+      if (h->root.type == bfd_link_hash_new)
+       {
+         h->root.type = bfd_link_hash_defined;
+         h->root.u.def.section = sec;
+         h->size = ovl_stub_size (htab->params);
+         h->root.u.def.value = sec->size - h->size;
+         h->type = STT_FUNC;
+         h->ref_regular = 1;
+         h->def_regular = 1;
+         h->ref_regular_nonweak = 1;
+         h->forced_local = 1;
+         h->non_elf = 0;
+       }
+    }
+
+  return TRUE;
+}
+
+/* Called via elf_link_hash_traverse to allocate stubs for any _SPUEAR_
+   symbols.  */
+
+static bfd_boolean
+allocate_spuear_stubs (struct elf_link_hash_entry *h, void *inf)
+{
+  /* Symbols starting with _SPUEAR_ need a stub because they may be
+     invoked by the PPU.  */
+  struct bfd_link_info *info = inf;
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  asection *sym_sec;
+
+  if ((h->root.type == bfd_link_hash_defined
+       || h->root.type == bfd_link_hash_defweak)
+      && h->def_regular
+      && strncmp (h->root.root.string, "_SPUEAR_", 8) == 0
+      && (sym_sec = h->root.u.def.section) != NULL
+      && sym_sec->output_section != bfd_abs_section_ptr
+      && spu_elf_section_data (sym_sec->output_section) != NULL
+      && (spu_elf_section_data (sym_sec->output_section)->u.o.ovl_index != 0
+         || htab->params->non_overlay_stubs))
+    {
+      return count_stub (htab, NULL, NULL, nonovl_stub, h, NULL);
+    }
+  
+  return TRUE;
+}
+
+static bfd_boolean
+build_spuear_stubs (struct elf_link_hash_entry *h, void *inf)
+{
+  /* Symbols starting with _SPUEAR_ need a stub because they may be
+     invoked by the PPU.  */
+  struct bfd_link_info *info = inf;
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  asection *sym_sec;
+
+  if ((h->root.type == bfd_link_hash_defined
+       || h->root.type == bfd_link_hash_defweak)
+      && h->def_regular
+      && strncmp (h->root.root.string, "_SPUEAR_", 8) == 0
+      && (sym_sec = h->root.u.def.section) != NULL
+      && sym_sec->output_section != bfd_abs_section_ptr
+      && spu_elf_section_data (sym_sec->output_section) != NULL
+      && (spu_elf_section_data (sym_sec->output_section)->u.o.ovl_index != 0
+         || htab->params->non_overlay_stubs))
+    {
+      return build_stub (info, NULL, NULL, nonovl_stub, h, NULL,
+                        h->root.u.def.value, sym_sec);
+    }
+  
+  return TRUE;
+}
+
+/* Size or build stubs.  */
+
+static bfd_boolean
+process_stubs (struct bfd_link_info *info, bfd_boolean build)
 {
   struct spu_link_hash_table *htab = spu_hash_table (info);
   bfd *ibfd;
-  struct stubarr stubs;
-  unsigned i, group;
-  flagword flags;
 
-  htab->non_overlay_stubs = non_overlay_stubs;
-  stubs.stub_hash_table = &htab->stub_hash_table;
-  stubs.count = 0;
-  stubs.err = 0;
   for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
     {
       extern const bfd_target bfd_elf32_spu_vec;
       Elf_Internal_Shdr *symtab_hdr;
-      asection *section;
+      asection *isec;
       Elf_Internal_Sym *local_syms = NULL;
-      void *psyms;
 
       if (ibfd->xvec != &bfd_elf32_spu_vec)
        continue;
@@ -881,39 +1541,28 @@ spu_elf_size_stubs (bfd *output_bfd,
       if (symtab_hdr->sh_info == 0)
        continue;
 
-      /* Arrange to read and keep global syms for later stack analysis.  */
-      psyms = &local_syms;
-      if (stack_analysis)
-       psyms = &symtab_hdr->contents;
-
       /* Walk over each section attached to the input bfd.  */
-      for (section = ibfd->sections; section != NULL; section = section->next)
+      for (isec = ibfd->sections; isec != NULL; isec = isec->next)
        {
          Elf_Internal_Rela *internal_relocs, *irelaend, *irela;
 
          /* If there aren't any relocs, then there's nothing more to do.  */
-         if ((section->flags & SEC_RELOC) == 0
-             || (section->flags & SEC_ALLOC) == 0
-             || (section->flags & SEC_LOAD) == 0
-             || section->reloc_count == 0)
+         if ((isec->flags & SEC_RELOC) == 0
+             || isec->reloc_count == 0)
            continue;
 
-         /* If this section is a link-once section that will be
-            discarded, then don't create any stubs.  */
-         if (section->output_section == NULL
-             || section->output_section->owner != output_bfd)
+         if (!maybe_needs_stubs (isec))
            continue;
 
          /* Get the relocs.  */
-         internal_relocs
-           = _bfd_elf_link_read_relocs (ibfd, section, NULL, NULL,
-                                        info->keep_memory);
+         internal_relocs = _bfd_elf_link_read_relocs (ibfd, isec, NULL, NULL,
+                                                      info->keep_memory);
          if (internal_relocs == NULL)
            goto error_ret_free_local;
 
          /* Now examine each relocation.  */
          irela = internal_relocs;
-         irelaend = irela + section->reloc_count;
+         irelaend = irela + isec->reloc_count;
          for (; irela < irelaend; irela++)
            {
              enum elf_spu_reloc_type r_type;
@@ -921,11 +1570,7 @@ spu_elf_size_stubs (bfd *output_bfd,
              asection *sym_sec;
              Elf_Internal_Sym *sym;
              struct elf_link_hash_entry *h;
-             const char *sym_name;
-             char *stub_name;
-             struct spu_stub_hash_entry *sh;
-             unsigned int sym_type;
-             enum _insn_type { non_branch, branch, call } insn_type;
+             enum _stub_type stub_type;
 
              r_type = ELF32_R_TYPE (irela->r_info);
              r_indx = ELF32_R_SYM (irela->r_info);
@@ -933,116 +1578,59 @@ spu_elf_size_stubs (bfd *output_bfd,
              if (r_type >= R_SPU_max)
                {
                  bfd_set_error (bfd_error_bad_value);
-                 goto error_ret_free_internal;
+               error_ret_free_internal:
+                 if (elf_section_data (isec)->relocs != internal_relocs)
+                   free (internal_relocs);
+               error_ret_free_local:
+                 if (local_syms != NULL
+                     && (symtab_hdr->contents
+                         != (unsigned char *) local_syms))
+                   free (local_syms);
+                 return FALSE;
                }
 
              /* Determine the reloc target section.  */
-             if (!get_sym_h (&h, &sym, &sym_sec, psyms, r_indx, ibfd))
+             if (!get_sym_h (&h, &sym, &sym_sec, &local_syms, r_indx, ibfd))
                goto error_ret_free_internal;
 
-             if (sym_sec == NULL
-                 || sym_sec->output_section == NULL
-                 || sym_sec->output_section->owner != output_bfd)
-               continue;
-
-             /* Ensure no stubs for user supplied overlay manager syms.  */
-             if (h != NULL
-                 && (strcmp (h->root.root.string, "__ovly_load") == 0
-                     || strcmp (h->root.root.string, "__ovly_return") == 0))
+             stub_type = needs_ovl_stub (h, sym, sym_sec, isec, irela,
+                                         NULL, info);
+             if (stub_type == no_stub)
                continue;
+             else if (stub_type == stub_error)
+               goto error_ret_free_internal;
 
-             insn_type = non_branch;
-             if (r_type == R_SPU_REL16
-                 || r_type == R_SPU_ADDR16)
+             if (htab->stub_count == NULL)
                {
-                 unsigned char insn[4];
-
-                 if (!bfd_get_section_contents (ibfd, section, insn,
-                                                irela->r_offset, 4))
+                 bfd_size_type amt;
+                 amt = (htab->num_overlays + 1) * sizeof (*htab->stub_count);
+                 htab->stub_count = bfd_zmalloc (amt);
+                 if (htab->stub_count == NULL)
                    goto error_ret_free_internal;
-
-                 if (is_branch (insn) || is_hint (insn))
-                   {
-                     insn_type = branch;
-                     if ((insn[0] & 0xfd) == 0x31)
-                       insn_type = call;
-                   }
                }
 
-             /* We are only interested in function symbols.  */
-             if (h != NULL)
+             if (!build)
                {
-                 sym_type = h->type;
-                 sym_name = h->root.root.string;
+                 if (!count_stub (htab, ibfd, isec, stub_type, h, irela))
+                   goto error_ret_free_internal;
                }
              else
                {
-                 sym_type = ELF_ST_TYPE (sym->st_info);
-                 sym_name = bfd_elf_sym_name (sym_sec->owner,
-                                              symtab_hdr,
-                                              sym,
-                                              sym_sec);
-               }
-             if (sym_type != STT_FUNC)
-               {
-                 /* It's common for people to write assembly and forget
-                    to give function symbols the right type.  Handle
-                    calls to such symbols, but warn so that (hopefully)
-                    people will fix their code.  We need the symbol
-                    type to be correct to distinguish function pointer
-                    initialisation from other pointer initialisation.  */
-                 if (insn_type == call)
-                   (*_bfd_error_handler) (_("warning: call to non-function"
-                                            " symbol %s defined in %B"),
-                                          sym_sec->owner, sym_name);
-                 else
-                   continue;
-               }
-
-             if (!needs_ovl_stub (sym_name, sym_sec, section, htab,
-                                  insn_type != non_branch))
-               continue;
-
-             stub_name = spu_stub_name (sym_sec, h, irela);
-             if (stub_name == NULL)
-               goto error_ret_free_internal;
-
-             sh = (struct spu_stub_hash_entry *)
-               bfd_hash_lookup (&htab->stub_hash_table, stub_name,
-                                TRUE, FALSE);
-             if (sh == NULL)
-               {
-                 free (stub_name);
-               error_ret_free_internal:
-                 if (elf_section_data (section)->relocs != internal_relocs)
-                   free (internal_relocs);
-               error_ret_free_local:
-                 if (local_syms != NULL
-                     && (symtab_hdr->contents
-                         != (unsigned char *) local_syms))
-                   free (local_syms);
-                 return FALSE;
-               }
+                 bfd_vma dest;
 
-             /* If this entry isn't new, we already have a stub.  */
-             if (sh->target_section != NULL)
-               {
-                 free (stub_name);
-                 continue;
+                 if (h != NULL)
+                   dest = h->root.u.def.value;
+                 else
+                   dest = sym->st_value;
+                 dest += irela->r_addend;
+                 if (!build_stub (info, ibfd, isec, stub_type, h, irela,
+                                  dest, sym_sec))
+                   goto error_ret_free_internal;
                }
-
-             sh->target_section = sym_sec;
-             if (h != NULL)
-               sh->target_off = h->root.u.def.value;
-             else
-               sh->target_off = sym->st_value;
-             sh->target_off += irela->r_addend;
-
-             stubs.count += 1;
            }
 
          /* We're done with the internal relocs, free them.  */
-         if (elf_section_data (section)->relocs != internal_relocs)
+         if (elf_section_data (isec)->relocs != internal_relocs)
            free (internal_relocs);
        }
 
@@ -1056,115 +1644,166 @@ spu_elf_size_stubs (bfd *output_bfd,
        }
     }
 
-  elf_link_hash_traverse (&htab->elf, allocate_spuear_stubs, &stubs);
-  if (stubs.err)
-    return FALSE;
+  return TRUE;
+}
 
-  *stub = NULL;
-  if (stubs.count == 0)
-    return TRUE;
+/* Allocate space for overlay call and return stubs.
+   Return 0 on error, 1 if no overlays, 2 otherwise.  */
 
-  ibfd = info->input_bfds;
-  flags = (SEC_ALLOC | SEC_LOAD | SEC_CODE | SEC_READONLY
-          | SEC_HAS_CONTENTS | SEC_IN_MEMORY);
-  htab->stub = bfd_make_section_anyway_with_flags (ibfd, ".stub", flags);
-  *stub = htab->stub;
-  if (htab->stub == NULL
-      || !bfd_set_section_alignment (ibfd, htab->stub, 2))
-    return FALSE;
+int
+spu_elf_size_stubs (struct bfd_link_info *info)
+{
+  struct spu_link_hash_table *htab;
+  bfd *ibfd;
+  bfd_size_type amt;
+  flagword flags;
+  unsigned int i;
+  asection *stub;
 
-  flags = (SEC_ALLOC | SEC_LOAD
-          | SEC_HAS_CONTENTS | SEC_IN_MEMORY);
-  htab->ovtab = bfd_make_section_anyway_with_flags (ibfd, ".ovtab", flags);
-  *ovtab = htab->ovtab;
-  if (htab->ovtab == NULL
-      || !bfd_set_section_alignment (ibfd, htab->stub, 4))
-    return FALSE;
+  if (!process_stubs (info, FALSE))
+    return 0;
 
-  *toe = bfd_make_section_anyway_with_flags (ibfd, ".toe", SEC_ALLOC);
-  if (*toe == NULL
-      || !bfd_set_section_alignment (ibfd, *toe, 4))
-    return FALSE;
-  (*toe)->size = 16;
+  htab = spu_hash_table (info);
+  elf_link_hash_traverse (&htab->elf, allocate_spuear_stubs, info);
+  if (htab->stub_err)
+    return 0;
 
-  /* Retrieve all the stubs and sort.  */
-  stubs.sh = bfd_malloc (stubs.count * sizeof (*stubs.sh));
-  if (stubs.sh == NULL)
-    return FALSE;
-  i = stubs.count;
-  bfd_hash_traverse (&htab->stub_hash_table, populate_stubs, &stubs);
-  BFD_ASSERT (stubs.count == 0);
-
-  stubs.count = i;
-  qsort (stubs.sh, stubs.count, sizeof (*stubs.sh), sort_stubs);
-
-  /* Now that the stubs are sorted, place them in the stub section.
-     Stubs are grouped per overlay
-     .     ila $79,func1
-     .     br 1f
-     .     ila $79,func2
-     .     br 1f
-     .
-     .
-     .     ila $79,funcn
-     .     nop
-     . 1:
-     .     ila $78,ovl_index
-     .     br __ovly_load  */
-
-  group = 0;
-  for (i = 0; i < stubs.count; i++)
-    {
-      if (spu_elf_section_data (stubs.sh[group]->target_section
-                               ->output_section)->ovl_index
-         != spu_elf_section_data (stubs.sh[i]->target_section
-                                  ->output_section)->ovl_index)
-       {
-         htab->stub->size += SIZEOF_STUB2;
-         for (; group != i; group++)
-           stubs.sh[group]->delta
-             = stubs.sh[i - 1]->off - stubs.sh[group]->off;
-       }
-      if (group == i
-         || ((stubs.sh[i - 1]->target_section->output_section->vma
-              + stubs.sh[i - 1]->target_section->output_offset
-              + stubs.sh[i - 1]->target_off)
-             != (stubs.sh[i]->target_section->output_section->vma
-                 + stubs.sh[i]->target_section->output_offset
-                 + stubs.sh[i]->target_off)))
-       {
-         stubs.sh[i]->off = htab->stub->size;
-         htab->stub->size += SIZEOF_STUB1;
+  ibfd = info->input_bfds;
+  if (htab->stub_count != NULL)
+    {
+      amt = (htab->num_overlays + 1) * sizeof (*htab->stub_sec);
+      htab->stub_sec = bfd_zmalloc (amt);
+      if (htab->stub_sec == NULL)
+       return 0;
+
+      flags = (SEC_ALLOC | SEC_LOAD | SEC_CODE | SEC_READONLY
+              | SEC_HAS_CONTENTS | SEC_IN_MEMORY);
+      stub = bfd_make_section_anyway_with_flags (ibfd, ".stub", flags);
+      htab->stub_sec[0] = stub;
+      if (stub == NULL
+         || !bfd_set_section_alignment (ibfd, stub,
+                                        ovl_stub_size_log2 (htab->params)))
+       return 0;
+      stub->size = htab->stub_count[0] * ovl_stub_size (htab->params);
+      if (htab->params->ovly_flavour == ovly_soft_icache)
+       /* Extra space for linked list entries.  */
+       stub->size += htab->stub_count[0] * 16;
+
+      for (i = 0; i < htab->num_overlays; ++i)
+       {
+         asection *osec = htab->ovl_sec[i];
+         unsigned int ovl = spu_elf_section_data (osec)->u.o.ovl_index;
+         stub = bfd_make_section_anyway_with_flags (ibfd, ".stub", flags);
+         htab->stub_sec[ovl] = stub;
+         if (stub == NULL
+             || !bfd_set_section_alignment (ibfd, stub,
+                                            ovl_stub_size_log2 (htab->params)))
+           return 0;
+         stub->size = htab->stub_count[ovl] * ovl_stub_size (htab->params);
        }
-      else
-       stubs.sh[i]->off = stubs.sh[i - 1]->off;
-    }
-  if (group != i)
-    htab->stub->size += SIZEOF_STUB2;
-  for (; group != i; group++)
-    stubs.sh[group]->delta = stubs.sh[i - 1]->off - stubs.sh[group]->off;
-
- /* htab->ovtab consists of two arrays.
-    .  struct {
-    .    u32 vma;
-    .    u32 size;
-    .    u32 file_off;
-    .    u32 buf;
-    .  } _ovly_table[];
-    .
-    .  struct {
-    .    u32 mapped;
-    .  } _ovly_buf_table[];  */
-
-  htab->ovtab->alignment_power = 4;
-  htab->ovtab->size = htab->num_overlays * 16 + htab->num_buf * 4;
-
-  return TRUE;
-}
-
-/* Functions to handle embedded spu_ovl.o object.  */
+    }
 
-static void *
+  if (htab->params->ovly_flavour == ovly_soft_icache)
+    {
+      /* Space for icache manager tables.
+        a) Tag array, one quadword per cache line.
+        b) Rewrite "to" list, one quadword per cache line.
+        c) Rewrite "from" list, one byte per outgoing branch (rounded up to
+           a power-of-two number of full quadwords) per cache line.  */
+
+      flags = SEC_ALLOC;
+      htab->ovtab = bfd_make_section_anyway_with_flags (ibfd, ".ovtab", flags);
+      if (htab->ovtab == NULL
+         || !bfd_set_section_alignment (ibfd, htab->ovtab, 4))
+       return 0;
+
+      htab->ovtab->size = (16 + 16 + (16 << htab->fromelem_size_log2))
+                         << htab->num_lines_log2;
+
+      flags = SEC_ALLOC | SEC_LOAD | SEC_HAS_CONTENTS | SEC_IN_MEMORY;
+      htab->init = bfd_make_section_anyway_with_flags (ibfd, ".ovini", flags);
+      if (htab->init == NULL
+         || !bfd_set_section_alignment (ibfd, htab->init, 4))
+       return 0;
+
+      htab->init->size = 16;
+    }
+  else if (htab->stub_count == NULL)
+    return 1;
+  else
+    {
+      /* htab->ovtab consists of two arrays.
+        .      struct {
+        .        u32 vma;
+        .        u32 size;
+        .        u32 file_off;
+        .        u32 buf;
+        .      } _ovly_table[];
+        .
+        .      struct {
+        .        u32 mapped;
+        .      } _ovly_buf_table[];
+        .  */
+
+      flags = SEC_ALLOC | SEC_LOAD | SEC_HAS_CONTENTS | SEC_IN_MEMORY;
+      htab->ovtab = bfd_make_section_anyway_with_flags (ibfd, ".ovtab", flags);
+      if (htab->ovtab == NULL
+         || !bfd_set_section_alignment (ibfd, htab->ovtab, 4))
+       return 0;
+
+      htab->ovtab->size = htab->num_overlays * 16 + 16 + htab->num_buf * 4;
+    }
+
+  htab->toe = bfd_make_section_anyway_with_flags (ibfd, ".toe", SEC_ALLOC);
+  if (htab->toe == NULL
+      || !bfd_set_section_alignment (ibfd, htab->toe, 4))
+    return 0;
+  htab->toe->size = 16;
+
+  return 2;
+}
+
+/* Called from ld to place overlay manager data sections.  This is done
+   after the overlay manager itself is loaded, mainly so that the
+   linker's htab->init section is placed after any other .ovl.init
+   sections.  */
+
+void
+spu_elf_place_overlay_data (struct bfd_link_info *info)
+{
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  unsigned int i;
+
+  if (htab->stub_sec != NULL)
+    {
+      (*htab->params->place_spu_section) (htab->stub_sec[0], NULL, ".text");
+
+      for (i = 0; i < htab->num_overlays; ++i)
+       {
+         asection *osec = htab->ovl_sec[i];
+         unsigned int ovl = spu_elf_section_data (osec)->u.o.ovl_index;
+         (*htab->params->place_spu_section) (htab->stub_sec[ovl], osec, NULL);
+       }
+    }
+
+  if (htab->params->ovly_flavour == ovly_soft_icache)
+    (*htab->params->place_spu_section) (htab->init, NULL, ".ovl.init");
+
+  if (htab->ovtab != NULL)
+    {
+      const char *ovout = ".data";
+      if (htab->params->ovly_flavour == ovly_soft_icache)
+       ovout = ".bss";
+      (*htab->params->place_spu_section) (htab->ovtab, NULL, ovout);
+    }
+
+  if (htab->toe != NULL)
+    (*htab->params->place_spu_section) (htab->toe, NULL, ".toe");
+}
+
+/* Functions to handle embedded spu_ovl.o object.  */
+
+static void *
 ovl_mgr_open (struct bfd *nbfd ATTRIBUTE_UNUSED, void *stream)
 {
   return stream;
@@ -1208,84 +1847,13 @@ spu_elf_open_builtin_lib (bfd **ovl_bfd, const struct _ovl_stream *stream)
   return *ovl_bfd != NULL;
 }
 
-/* Fill in the ila and br for a stub.  On the last stub for a group,
-   write the stub that sets the overlay number too.  */
-
-static bfd_boolean
-write_one_stub (struct bfd_hash_entry *bh, void *inf)
+static unsigned int
+overlay_index (asection *sec)
 {
-  struct spu_stub_hash_entry *ent = (struct spu_stub_hash_entry *) bh;
-  struct spu_link_hash_table *htab = inf;
-  asection *sec = htab->stub;
-  asection *s = ent->target_section;
-  unsigned int ovl;
-  bfd_vma val;
-
-  val = ent->target_off + s->output_offset + s->output_section->vma;
-  bfd_put_32 (sec->owner, ILA_79 + ((val << 7) & 0x01ffff80),
-             sec->contents + ent->off);
-  val = ent->delta + 4;
-  bfd_put_32 (sec->owner, BR + ((val << 5) & 0x007fff80),
-             sec->contents + ent->off + 4);
-
-  /* If this is the last stub of this group, write stub2.  */
-  if (ent->delta == 0)
-    {
-      bfd_put_32 (sec->owner, NOP,
-                 sec->contents + ent->off + 4);
-
-      ovl = spu_elf_section_data (s->output_section)->ovl_index;
-      bfd_put_32 (sec->owner, ILA_78 + ((ovl << 7) & 0x01ffff80),
-                 sec->contents + ent->off + 8);
-
-      val = (htab->ovly_load->root.u.def.section->output_section->vma
-            + htab->ovly_load->root.u.def.section->output_offset
-            + htab->ovly_load->root.u.def.value
-            - (sec->output_section->vma
-               + sec->output_offset
-               + ent->off + 12));
-
-      if (val + 0x20000 >= 0x40000)
-       htab->stub_overflow = TRUE;
-
-      bfd_put_32 (sec->owner, BR + ((val << 5) & 0x007fff80),
-                 sec->contents + ent->off + 12);
-    }
-
-  if (htab->emit_stub_syms)
-    {
-      struct elf_link_hash_entry *h;
-      size_t len1, len2;
-      char *name;
-
-      len1 = sizeof ("00000000.ovl_call.") - 1;
-      len2 = strlen (ent->root.string);
-      name = bfd_malloc (len1 + len2 + 1);
-      if (name == NULL)
-       return FALSE;
-      memcpy (name, "00000000.ovl_call.", len1);
-      memcpy (name + len1, ent->root.string, len2 + 1);
-      h = elf_link_hash_lookup (&htab->elf, name, TRUE, TRUE, FALSE);
-      free (name);
-      if (h == NULL)
-       return FALSE;
-      if (h->root.type == bfd_link_hash_new)
-       {
-         h->root.type = bfd_link_hash_defined;
-         h->root.u.def.section = sec;
-         h->root.u.def.value = ent->off;
-         h->size = (ent->delta == 0
-                    ? SIZEOF_STUB1 + SIZEOF_STUB2 : SIZEOF_STUB1);
-         h->type = STT_FUNC;
-         h->ref_regular = 1;
-         h->def_regular = 1;
-         h->ref_regular_nonweak = 1;
-         h->forced_local = 1;
-         h->non_elf = 0;
-       }
-    }
-
-  return TRUE;
+  if (sec == NULL
+      || sec->output_section == bfd_abs_section_ptr)
+    return 0;
+  return spu_elf_section_data (sec->output_section)->u.o.ovl_index;
 }
 
 /* Define an STT_OBJECT symbol.  */
@@ -1310,7 +1878,7 @@ define_ovtab_symbol (struct spu_link_hash_table *htab, const char *name)
       h->ref_regular_nonweak = 1;
       h->non_elf = 0;
     }
-  else
+  else if (h->root.u.def.section->owner != NULL)
     {
       (*_bfd_error_handler) (_("%B is not allowed to define %s"),
                             h->root.u.def.section->owner,
@@ -1318,14 +1886,21 @@ define_ovtab_symbol (struct spu_link_hash_table *htab, const char *name)
       bfd_set_error (bfd_error_bad_value);
       return NULL;
     }
+  else
+    {
+      (*_bfd_error_handler) (_("you are not allowed to define %s in a script"),
+                            h->root.root.string);
+      bfd_set_error (bfd_error_bad_value);
+      return NULL;
+    }
 
   return h;
 }
 
 /* Fill in all stubs and the overlay tables.  */
 
-bfd_boolean
-spu_elf_build_stubs (struct bfd_link_info *info, int emit_syms, asection *toe)
+static bfd_boolean
+spu_elf_build_stubs (struct bfd_link_info *info)
 {
   struct spu_link_hash_table *htab = spu_hash_table (info);
   struct elf_link_hash_entry *h;
@@ -1334,129 +1909,282 @@ spu_elf_build_stubs (struct bfd_link_info *info, int emit_syms, asection *toe)
   bfd *obfd;
   unsigned int i;
 
-  htab->emit_stub_syms = emit_syms;
-  htab->stub->contents = bfd_zalloc (htab->stub->owner, htab->stub->size);
-  if (htab->stub->contents == NULL)
-    return FALSE;
-
-  h = elf_link_hash_lookup (&htab->elf, "__ovly_load", FALSE, FALSE, FALSE);
-  htab->ovly_load = h;
-  BFD_ASSERT (h != NULL
+  if (htab->num_overlays != 0)
+    {
+      for (i = 0; i < 2; i++)
+       {
+         h = htab->ovly_entry[i];
+         if (h != NULL
              && (h->root.type == bfd_link_hash_defined
                  || h->root.type == bfd_link_hash_defweak)
-             && h->def_regular);
+             && h->def_regular)
+           {
+             s = h->root.u.def.section->output_section;
+             if (spu_elf_section_data (s)->u.o.ovl_index)
+               {
+                 (*_bfd_error_handler) (_("%s in overlay section"),
+                                        h->root.root.string);
+                 bfd_set_error (bfd_error_bad_value);
+                 return FALSE;
+               }
+           }
+       }
+    }
 
-  s = h->root.u.def.section->output_section;
-  if (spu_elf_section_data (s)->ovl_index)
+  if (htab->stub_sec != NULL)
     {
-      (*_bfd_error_handler) (_("%s in overlay section"),
-                            h->root.u.def.section->owner);
-      bfd_set_error (bfd_error_bad_value);
-      return FALSE;
-    }
+      for (i = 0; i <= htab->num_overlays; i++)
+       if (htab->stub_sec[i]->size != 0)
+         {
+           htab->stub_sec[i]->contents = bfd_zalloc (htab->stub_sec[i]->owner,
+                                                     htab->stub_sec[i]->size);
+           if (htab->stub_sec[i]->contents == NULL)
+             return FALSE;
+           htab->stub_sec[i]->rawsize = htab->stub_sec[i]->size;
+           htab->stub_sec[i]->size = 0;
+         }
 
-  /* Write out all the stubs.  */
-  bfd_hash_traverse (&htab->stub_hash_table, write_one_stub, htab);
+      /* Fill in all the stubs.  */
+      process_stubs (info, TRUE);
+      if (!htab->stub_err)
+       elf_link_hash_traverse (&htab->elf, build_spuear_stubs, info);
 
-  if (htab->stub_overflow)
-    {
-      (*_bfd_error_handler) (_("overlay stub relocation overflow"));
-      bfd_set_error (bfd_error_bad_value);
-      return FALSE;
+      if (htab->stub_err)
+       {
+         (*_bfd_error_handler) (_("overlay stub relocation overflow"));
+         bfd_set_error (bfd_error_bad_value);
+         return FALSE;
+       }
+
+      for (i = 0; i <= htab->num_overlays; i++)
+       {
+         if (htab->stub_sec[i]->size != htab->stub_sec[i]->rawsize)
+           {
+             (*_bfd_error_handler)  (_("stubs don't match calculated size"));
+             bfd_set_error (bfd_error_bad_value);
+             return FALSE;
+           }
+         htab->stub_sec[i]->rawsize = 0;
+       }
     }
 
+  if (htab->ovtab == NULL || htab->ovtab->size == 0)
+    return TRUE;
+
   htab->ovtab->contents = bfd_zalloc (htab->ovtab->owner, htab->ovtab->size);
   if (htab->ovtab->contents == NULL)
     return FALSE;
 
-  /* Write out _ovly_table.  */
   p = htab->ovtab->contents;
-  obfd = htab->ovtab->output_section->owner;
-  for (s = obfd->sections; s != NULL; s = s->next)
+  if (htab->params->ovly_flavour == ovly_soft_icache)
     {
-      unsigned int ovl_index = spu_elf_section_data (s)->ovl_index;
+      bfd_vma off;
+
+      h = define_ovtab_symbol (htab, "__icache_tag_array");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = 0;
+      h->size = 16 << htab->num_lines_log2;
+      off = h->size;
+
+      h = define_ovtab_symbol (htab, "__icache_tag_array_size");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = 16 << htab->num_lines_log2;
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      h = define_ovtab_symbol (htab, "__icache_rewrite_to");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = off;
+      h->size = 16 << htab->num_lines_log2;
+      off += h->size;
+
+      h = define_ovtab_symbol (htab, "__icache_rewrite_to_size");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = 16 << htab->num_lines_log2;
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      h = define_ovtab_symbol (htab, "__icache_rewrite_from");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = off;
+      h->size = 16 << (htab->fromelem_size_log2 + htab->num_lines_log2);
+      off += h->size;
+
+      h = define_ovtab_symbol (htab, "__icache_rewrite_from_size");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = 16 << (htab->fromelem_size_log2
+                                  + htab->num_lines_log2);
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      h = define_ovtab_symbol (htab, "__icache_log2_fromelemsize");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = htab->fromelem_size_log2;
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      h = define_ovtab_symbol (htab, "__icache_base");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = htab->ovl_sec[0]->vma;
+      h->root.u.def.section = bfd_abs_section_ptr;
+      h->size = htab->num_buf << htab->line_size_log2;
+
+      h = define_ovtab_symbol (htab, "__icache_linesize");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = 1 << htab->line_size_log2;
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      h = define_ovtab_symbol (htab, "__icache_log2_linesize");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = htab->line_size_log2;
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      h = define_ovtab_symbol (htab, "__icache_neg_log2_linesize");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = -htab->line_size_log2;
+      h->root.u.def.section = bfd_abs_section_ptr;
 
-      if (ovl_index != 0)
+      h = define_ovtab_symbol (htab, "__icache_cachesize");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = 1 << (htab->num_lines_log2 + htab->line_size_log2);
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      h = define_ovtab_symbol (htab, "__icache_log2_cachesize");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = htab->num_lines_log2 + htab->line_size_log2;
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      h = define_ovtab_symbol (htab, "__icache_neg_log2_cachesize");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = -(htab->num_lines_log2 + htab->line_size_log2);
+      h->root.u.def.section = bfd_abs_section_ptr;
+
+      if (htab->init != NULL && htab->init->size != 0)
        {
-         unsigned int lo, hi, mid;
-         unsigned long off = (ovl_index - 1) * 16;
-         bfd_put_32 (htab->ovtab->owner, s->vma, p + off);
-         bfd_put_32 (htab->ovtab->owner, (s->size + 15) & -16, p + off + 4);
-         /* file_off written later in spu_elf_modify_program_headers.  */
+         htab->init->contents = bfd_zalloc (htab->init->owner,
+                                            htab->init->size);
+         if (htab->init->contents == NULL)
+           return FALSE;
 
-         lo = 0;
-         hi = htab->num_buf;
-         while (lo < hi)
-           {
-             mid = (lo + hi) >> 1;
-             if (htab->ovl_region[2 * mid + 1]->vma
-                 + htab->ovl_region[2 * mid + 1]->size <= s->vma)
-               lo = mid + 1;
-             else if (htab->ovl_region[2 * mid]->vma > s->vma)
-               hi = mid;
-             else
-               {
-                 bfd_put_32 (htab->ovtab->owner, mid + 1, p + off + 12);
-                 break;
-               }
-           }
-         BFD_ASSERT (lo < hi);
+         h = define_ovtab_symbol (htab, "__icache_fileoff");
+         if (h == NULL)
+           return FALSE;
+         h->root.u.def.value = 0;
+         h->root.u.def.section = htab->init;
+         h->size = 8;
        }
     }
-
-  /* Write out _ovly_buf_table.  */
-  p = htab->ovtab->contents + htab->num_overlays * 16;
-  for (i = 0; i < htab->num_buf; i++)
+  else
     {
-      bfd_put_32 (htab->ovtab->owner, 0, p);
-      p += 4;
-    }
+      /* Write out _ovly_table.  */
+      /* set low bit of .size to mark non-overlay area as present.  */
+      p[7] = 1;
+      obfd = htab->ovtab->output_section->owner;
+      for (s = obfd->sections; s != NULL; s = s->next)
+       {
+         unsigned int ovl_index = spu_elf_section_data (s)->u.o.ovl_index;
 
-  h = define_ovtab_symbol (htab, "_ovly_table");
-  if (h == NULL)
-    return FALSE;
-  h->root.u.def.value = 0;
-  h->size = htab->num_overlays * 16;
+         if (ovl_index != 0)
+           {
+             unsigned long off = ovl_index * 16;
+             unsigned int ovl_buf = spu_elf_section_data (s)->u.o.ovl_buf;
+
+             bfd_put_32 (htab->ovtab->owner, s->vma, p + off);
+             bfd_put_32 (htab->ovtab->owner, (s->size + 15) & -16,
+                         p + off + 4);
+             /* file_off written later in spu_elf_modify_program_headers.  */
+             bfd_put_32 (htab->ovtab->owner, ovl_buf, p + off + 12);
+           }
+       }
 
-  h = define_ovtab_symbol (htab, "_ovly_table_end");
-  if (h == NULL)
-    return FALSE;
-  h->root.u.def.value = htab->num_overlays * 16;
-  h->size = 0;
+      h = define_ovtab_symbol (htab, "_ovly_table");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = 16;
+      h->size = htab->num_overlays * 16;
 
-  h = define_ovtab_symbol (htab, "_ovly_buf_table");
-  if (h == NULL)
-    return FALSE;
-  h->root.u.def.value = htab->num_overlays * 16;
-  h->size = htab->num_buf * 4;
+      h = define_ovtab_symbol (htab, "_ovly_table_end");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = htab->num_overlays * 16 + 16;
+      h->size = 0;
 
-  h = define_ovtab_symbol (htab, "_ovly_buf_table_end");
-  if (h == NULL)
-    return FALSE;
-  h->root.u.def.value = htab->num_overlays * 16 + htab->num_buf * 4;
-  h->size = 0;
+      h = define_ovtab_symbol (htab, "_ovly_buf_table");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = htab->num_overlays * 16 + 16;
+      h->size = htab->num_buf * 4;
+
+      h = define_ovtab_symbol (htab, "_ovly_buf_table_end");
+      if (h == NULL)
+       return FALSE;
+      h->root.u.def.value = htab->num_overlays * 16 + 16 + htab->num_buf * 4;
+      h->size = 0;
+    }
 
   h = define_ovtab_symbol (htab, "_EAR_");
   if (h == NULL)
     return FALSE;
-  h->root.u.def.section = toe;
+  h->root.u.def.section = htab->toe;
   h->root.u.def.value = 0;
   h->size = 16;
 
   return TRUE;
 }
 
+/* Check that all loadable section VMAs lie in the range
+   LO .. HI inclusive, and stash some parameters for --auto-overlay.  */
+
+asection *
+spu_elf_check_vma (struct bfd_link_info *info)
+{
+  struct elf_segment_map *m;
+  unsigned int i;
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  bfd *abfd = info->output_bfd;
+  bfd_vma hi = htab->params->local_store_hi;
+  bfd_vma lo = htab->params->local_store_lo;
+
+  htab->local_store = hi + 1 - lo;
+
+  for (m = elf_tdata (abfd)->segment_map; m != NULL; m = m->next)
+    if (m->p_type == PT_LOAD)
+      for (i = 0; i < m->count; i++)
+       if (m->sections[i]->size != 0
+           && (m->sections[i]->vma < lo
+               || m->sections[i]->vma > hi
+               || m->sections[i]->vma + m->sections[i]->size - 1 > hi))
+         return m->sections[i];
+
+  return NULL;
+}
+
 /* OFFSET in SEC (presumably) is the beginning of a function prologue.
-   Search for stack adjusting insns, and return the sp delta.  */
+   Search for stack adjusting insns, and return the sp delta.
+   If a store of lr is found save the instruction offset to *LR_STORE.
+   If a stack adjusting instruction is found, save that offset to
+   *SP_ADJUST.  */
 
 static int
-find_function_stack_adjust (asection *sec, bfd_vma offset)
+find_function_stack_adjust (asection *sec,
+                           bfd_vma offset,
+                           bfd_vma *lr_store,
+                           bfd_vma *sp_adjust)
 {
-  int unrecog;
   int reg[128];
 
   memset (reg, 0, sizeof (reg));
-  for (unrecog = 0; offset + 4 <= sec->size && unrecog < 32; offset += 4)
+  for ( ; offset + 4 <= sec->size; offset += 4)
     {
       unsigned char buf[4];
       int rt, ra;
@@ -1466,11 +2194,16 @@ find_function_stack_adjust (asection *sec, bfd_vma offset)
       if (!bfd_get_section_contents (sec->owner, sec, buf, offset, 4))
        break;
 
-      if (buf[0] == 0x24 /* stqd */)
-       continue;
-
       rt = buf[3] & 0x7f;
       ra = ((buf[2] & 0x3f) << 1) | (buf[3] >> 7);
+
+      if (buf[0] == 0x24 /* stqd */)
+       {
+         if (rt == 0 /* lr */ && ra == 1 /* sp */)
+           *lr_store = offset;
+         continue;
+       }
+
       /* Partly decoded immediate field.  */
       imm = (buf[1] << 9) | (buf[2] << 1) | (buf[3] >> 7);
 
@@ -1482,8 +2215,9 @@ find_function_stack_adjust (asection *sec, bfd_vma offset)
 
          if (rt == 1 /* sp */)
            {
-             if (imm > 0)
+             if (reg[rt] > 0)
                break;
+             *sp_adjust = offset;
              return reg[rt];
            }
        }
@@ -1493,7 +2227,25 @@ find_function_stack_adjust (asection *sec, bfd_vma offset)
 
          reg[rt] = reg[ra] + reg[rb];
          if (rt == 1)
-           return reg[rt];
+           {
+             if (reg[rt] > 0)
+               break;
+             *sp_adjust = offset;
+             return reg[rt];
+           }
+       }
+      else if (buf[0] == 0x08 && (buf[1] & 0xe0) == 0 /* sf */)
+       {
+         int rb = ((buf[1] & 0x1f) << 2) | ((buf[2] & 0xc0) >> 6);
+
+         reg[rt] = reg[rb] - reg[ra];
+         if (rt == 1)
+           {
+             if (reg[rt] > 0)
+               break;
+             *sp_adjust = offset;
+             return reg[rt];
+           }
        }
       else if ((buf[0] & 0xfc) == 0x40 /* il, ilh, ilhu, ila */)
        {
@@ -1506,7 +2258,7 @@ find_function_stack_adjust (asection *sec, bfd_vma offset)
              if (buf[0] == 0x40 /* il */)
                {
                  if ((buf[1] & 0x80) == 0)
-                   goto unknown_insn;
+                   continue;
                  imm = (imm ^ 0x8000) - 0x8000;
                }
              else if ((buf[1] & 0x80) == 0 /* ilhu */)
@@ -1527,18 +2279,33 @@ find_function_stack_adjust (asection *sec, bfd_vma offset)
          reg[rt] = reg[ra] | imm;
          continue;
        }
-      else if ((buf[0] == 0x33 && imm == 1 /* brsl .+4 */)
-              || (buf[0] == 0x08 && (buf[1] & 0xe0) == 0 /* sf */))
+      else if (buf[0] == 0x32 && (buf[1] & 0x80) != 0 /* fsmbi */)
+       {
+         reg[rt] = (  ((imm & 0x8000) ? 0xff000000 : 0)
+                    | ((imm & 0x4000) ? 0x00ff0000 : 0)
+                    | ((imm & 0x2000) ? 0x0000ff00 : 0)
+                    | ((imm & 0x1000) ? 0x000000ff : 0));
+         continue;
+       }
+      else if (buf[0] == 0x16 /* andbi */)
+       {
+         imm >>= 7;
+         imm &= 0xff;
+         imm |= imm << 8;
+         imm |= imm << 16;
+         reg[rt] = reg[ra] & imm;
+         continue;
+       }
+      else if (buf[0] == 0x33 && imm == 1 /* brsl .+4 */)
        {
-         /* Used in pic reg load.  Say rt is trashed.  */
+         /* Used in pic reg load.  Say rt is trashed.  Won't be used
+            in stack adjust, but we need to continue past this branch.  */
          reg[rt] = 0;
          continue;
        }
-      else if (is_branch (buf))
+      else if (is_branch (buf) || is_indirect_branch (buf))
        /* If we hit a branch then we must be out of the prologue.  */
        break;
-    unknown_insn:
-      ++unrecog;
     }
 
   return 0;
@@ -1574,68 +2341,21 @@ sort_syms (const void *a, const void *b)
   return *s1 < *s2 ? -1 : 1;
 }
 
-struct call_info
-{
-  struct function_info *fun;
-  struct call_info *next;
-  int is_tail;
-};
+/* Allocate a struct spu_elf_stack_info with MAX_FUN struct function_info
+   entries for section SEC.  */
 
-struct function_info
-{
-  /* List of functions called.  Also branches to hot/cold part of
-     function.  */
-  struct call_info *call_list;
-  /* For hot/cold part of function, point to owner.  */
-  struct function_info *start;
-  /* Symbol at start of function.  */
-  union {
-    Elf_Internal_Sym *sym;
-    struct elf_link_hash_entry *h;
-  } u;
-  /* Function section.  */
-  asection *sec;
-  /* Address range of (this part of) function.  */
-  bfd_vma lo, hi;
-  /* Stack usage.  */
-  int stack;
-  /* Set if global symbol.  */
-  unsigned int global : 1;
-  /* Set if known to be start of function (as distinct from a hunk
-     in hot/cold section.  */
-  unsigned int is_func : 1;
-  /* Flags used during call tree traversal.  */
-  unsigned int visit1 : 1;
-  unsigned int non_root : 1;
-  unsigned int visit2 : 1;
-  unsigned int marking : 1;
-  unsigned int visit3 : 1;
-};
-
-struct spu_elf_stack_info
-{
-  int num_fun;
-  int max_fun;
-  /* Variable size array describing functions, one per contiguous
-     address range belonging to a function.  */
-  struct function_info fun[1];
-};
-
-/* Allocate a struct spu_elf_stack_info with MAX_FUN struct function_info
-   entries for section SEC.  */
-
-static struct spu_elf_stack_info *
-alloc_stack_info (asection *sec, int max_fun)
+static struct spu_elf_stack_info *
+alloc_stack_info (asection *sec, int max_fun)
 {
   struct _spu_elf_section_data *sec_data = spu_elf_section_data (sec);
   bfd_size_type amt;
 
   amt = sizeof (struct spu_elf_stack_info);
   amt += (max_fun - 1) * sizeof (struct function_info);
-  sec_data->stack_info = bfd_zmalloc (amt);
-  if (sec_data->stack_info != NULL)
-    sec_data->stack_info->max_fun = max_fun;
-  return sec_data->stack_info;
+  sec_data->u.i.stack_info = bfd_zmalloc (amt);
+  if (sec_data->u.i.stack_info != NULL)
+    sec_data->u.i.stack_info->max_fun = max_fun;
+  return sec_data->u.i.stack_info;
 }
 
 /* Add a new struct function_info describing a (part of a) function
@@ -1648,7 +2368,7 @@ maybe_insert_function (asection *sec,
                       bfd_boolean is_func)
 {
   struct _spu_elf_section_data *sec_data = spu_elf_section_data (sec);
-  struct spu_elf_stack_info *sinfo = sec_data->stack_info;
+  struct spu_elf_stack_info *sinfo = sec_data->u.i.stack_info;
   int i;
   bfd_vma off, size;
 
@@ -1697,10 +2417,7 @@ maybe_insert_function (asection *sec,
        return &sinfo->fun[i];
     }
 
-  if (++i < sinfo->num_fun)
-    memmove (&sinfo->fun[i + 1], &sinfo->fun[i],
-            (sinfo->num_fun - i) * sizeof (sinfo->fun[i]));
-  else if (i >= sinfo->max_fun)
+  if (sinfo->num_fun >= sinfo->max_fun)
     {
       bfd_size_type amt = sizeof (struct spu_elf_stack_info);
       bfd_size_type old = amt;
@@ -1712,8 +2429,12 @@ maybe_insert_function (asection *sec,
       if (sinfo == NULL)
        return NULL;
       memset ((char *) sinfo + old, 0, amt - old);
-      sec_data->stack_info = sinfo;
+      sec_data->u.i.stack_info = sinfo;
     }
+
+  if (++i < sinfo->num_fun)
+    memmove (&sinfo->fun[i + 1], &sinfo->fun[i],
+            (sinfo->num_fun - i) * sizeof (sinfo->fun[i]));
   sinfo->fun[i].is_func = is_func;
   sinfo->fun[i].global = global;
   sinfo->fun[i].sec = sec;
@@ -1723,7 +2444,11 @@ maybe_insert_function (asection *sec,
     sinfo->fun[i].u.sym = sym_h;
   sinfo->fun[i].lo = off;
   sinfo->fun[i].hi = off + size;
-  sinfo->fun[i].stack = -find_function_stack_adjust (sec, off);
+  sinfo->fun[i].lr_store = -1;
+  sinfo->fun[i].sp_adjust = -1;
+  sinfo->fun[i].stack = -find_function_stack_adjust (sec, off,
+                                                    &sinfo->fun[i].lr_store,
+                                                    &sinfo->fun[i].sp_adjust);
   sinfo->num_fun += 1;
   return &sinfo->fun[i];
 }
@@ -1803,7 +2528,7 @@ static bfd_boolean
 check_function_ranges (asection *sec, struct bfd_link_info *info)
 {
   struct _spu_elf_section_data *sec_data = spu_elf_section_data (sec);
-  struct spu_elf_stack_info *sinfo = sec_data->stack_info;
+  struct spu_elf_stack_info *sinfo = sec_data->u.i.stack_info;
   int i;
   bfd_boolean gaps = FALSE;
 
@@ -1849,7 +2574,7 @@ static struct function_info *
 find_function (asection *sec, bfd_vma offset, struct bfd_link_info *info)
 {
   struct _spu_elf_section_data *sec_data = spu_elf_section_data (sec);
-  struct spu_elf_stack_info *sinfo = sec_data->stack_info;
+  struct spu_elf_stack_info *sinfo = sec_data->u.i.stack_info;
   int lo, hi, mid;
 
   lo = 0;
@@ -1866,22 +2591,35 @@ find_function (asection *sec, bfd_vma offset, struct bfd_link_info *info)
     }
   info->callbacks->einfo (_("%A:0x%v not found in function table\n"),
                          sec, offset);
+  bfd_set_error (bfd_error_bad_value);
   return NULL;
 }
 
-/* Add CALLEE to CALLER call list if not already present.  */
+/* Add CALLEE to CALLER call list if not already present.  Return TRUE
+   if CALLEE was new.  If this function return FALSE, CALLEE should
+   be freed.  */
 
 static bfd_boolean
 insert_callee (struct function_info *caller, struct call_info *callee)
 {
-  struct call_info *p;
-  for (p = caller->call_list; p != NULL; p = p->next)
+  struct call_info **pp, *p;
+
+  for (pp = &caller->call_list; (p = *pp) != NULL; pp = &p->next)
     if (p->fun == callee->fun)
       {
        /* Tail calls use less stack than normal calls.  Retain entry
           for normal call over one for tail call.  */
-       if (p->is_tail > callee->is_tail)
-         p->is_tail = callee->is_tail;
+       p->is_tail &= callee->is_tail;
+       if (!p->is_tail)
+         {
+           p->fun->start = NULL;
+           p->fun->is_func = TRUE;
+         }
+       p->count += callee->count;
+       /* Reorder list so most recent call is first.  */
+       *pp = p->next;
+       p->next = caller->call_list;
+       caller->call_list = p;
        return FALSE;
       }
   callee->next = caller->call_list;
@@ -1889,6 +2627,33 @@ insert_callee (struct function_info *caller, struct call_info *callee)
   return TRUE;
 }
 
+/* Copy CALL and insert the copy into CALLER.  */
+
+static bfd_boolean
+copy_callee (struct function_info *caller, const struct call_info *call)
+{
+  struct call_info *callee;
+  callee = bfd_malloc (sizeof (*callee));
+  if (callee == NULL)
+    return FALSE;
+  *callee = *call;
+  if (!insert_callee (caller, callee))
+    free (callee);
+  return TRUE;
+}
+
+/* We're only interested in code sections.  Testing SEC_IN_MEMORY excludes
+   overlay stub sections.  */
+
+static bfd_boolean
+interesting_section (asection *s)
+{
+  return (s->output_section != bfd_abs_section_ptr
+         && ((s->flags & (SEC_ALLOC | SEC_LOAD | SEC_CODE | SEC_IN_MEMORY))
+             == (SEC_ALLOC | SEC_LOAD | SEC_CODE))
+         && s->size != 0);
+}
+
 /* Rummage through the relocs for SEC, looking for function calls.
    If CALL_TREE is true, fill in call graph.  If CALL_TREE is false,
    mark destination symbols on calls as being functions.  Also
@@ -1901,11 +2666,15 @@ mark_functions_via_relocs (asection *sec,
                           int call_tree)
 {
   Elf_Internal_Rela *internal_relocs, *irelaend, *irela;
-  Elf_Internal_Shdr *symtab_hdr = &elf_tdata (sec->owner)->symtab_hdr;
-  Elf_Internal_Sym *syms;
+  Elf_Internal_Shdr *symtab_hdr;
   void *psyms;
+  unsigned int priority = 0;
   static bfd_boolean warned;
 
+  if (!interesting_section (sec)
+      || sec->reloc_count == 0)
+    return TRUE;
+
   internal_relocs = _bfd_elf_link_read_relocs (sec->owner, sec, NULL, NULL,
                                               info->keep_memory);
   if (internal_relocs == NULL)
@@ -1913,7 +2682,6 @@ mark_functions_via_relocs (asection *sec,
 
   symtab_hdr = &elf_tdata (sec->owner)->symtab_hdr;
   psyms = &symtab_hdr->contents;
-  syms = *(Elf_Internal_Sym **) psyms;
   irela = internal_relocs;
   irelaend = irela + sec->reloc_count;
   for (; irela < irelaend; irela++)
@@ -1924,46 +2692,81 @@ mark_functions_via_relocs (asection *sec,
       Elf_Internal_Sym *sym;
       struct elf_link_hash_entry *h;
       bfd_vma val;
-      unsigned char insn[4];
-      bfd_boolean is_call;
+      bfd_boolean reject, is_call;
       struct function_info *caller;
       struct call_info *callee;
 
+      reject = FALSE;
       r_type = ELF32_R_TYPE (irela->r_info);
       if (r_type != R_SPU_REL16
          && r_type != R_SPU_ADDR16)
-       continue;
+       {
+         reject = TRUE;
+         if (!(call_tree && spu_hash_table (info)->params->auto_overlay))
+           continue;
+       }
 
       r_indx = ELF32_R_SYM (irela->r_info);
       if (!get_sym_h (&h, &sym, &sym_sec, psyms, r_indx, sec->owner))
        return FALSE;
 
       if (sym_sec == NULL
-         || sym_sec->output_section == NULL
-         || sym_sec->output_section->owner != sec->output_section->owner)
+         || sym_sec->output_section == bfd_abs_section_ptr)
        continue;
 
-      if (!bfd_get_section_contents (sec->owner, sec, insn,
-                                    irela->r_offset, 4))
-       return FALSE;
-      if (!is_branch (insn))
-       continue;
+      is_call = FALSE;
+      if (!reject)
+       {
+         unsigned char insn[4];
+
+         if (!bfd_get_section_contents (sec->owner, sec, insn,
+                                        irela->r_offset, 4))
+           return FALSE;
+         if (is_branch (insn))
+           {
+             is_call = (insn[0] & 0xfd) == 0x31;
+             priority = insn[1] & 0x0f;
+             priority <<= 8;
+             priority |= insn[2];
+             priority <<= 8;
+             priority |= insn[3];
+             priority >>= 7;
+             if ((sym_sec->flags & (SEC_ALLOC | SEC_LOAD | SEC_CODE))
+                 != (SEC_ALLOC | SEC_LOAD | SEC_CODE))
+               {
+                 if (!warned)
+                   info->callbacks->einfo
+                     (_("%B(%A+0x%v): call to non-code section"
+                        " %B(%A), analysis incomplete\n"),
+                      sec->owner, sec, irela->r_offset,
+                      sym_sec->owner, sym_sec);
+                 warned = TRUE;
+                 continue;
+               }
+           }
+         else
+           {
+             reject = TRUE;
+             if (!(call_tree && spu_hash_table (info)->params->auto_overlay)
+                 || is_hint (insn))
+               continue;
+           }
+       }
 
-      if ((sym_sec->flags & (SEC_ALLOC | SEC_LOAD | SEC_CODE))
-         != (SEC_ALLOC | SEC_LOAD | SEC_CODE))
+      if (reject)
        {
-         if (!call_tree)
-           warned = TRUE;
-         if (!call_tree || !warned)
-           info->callbacks->einfo (_("%B(%A+0x%v): call to non-code section"
-                                     " %B(%A), stack analysis incomplete\n"),
-                                   sec->owner, sec, irela->r_offset,
-                                   sym_sec->owner, sym_sec);
+         /* For --auto-overlay, count possible stubs we need for
+            function pointer references.  */
+         unsigned int sym_type;
+         if (h)
+           sym_type = h->type;
+         else
+           sym_type = ELF_ST_TYPE (sym->st_info);
+         if (sym_type == STT_FUNC)
+           spu_hash_table (info)->non_ovly_stub += 1;
          continue;
        }
 
-      is_call = (insn[0] & 0xfd) == 0x31;
-
       if (h)
        val = h->root.u.def.value;
       else
@@ -2007,6 +2810,15 @@ mark_functions_via_relocs (asection *sec,
       if (callee->fun == NULL)
        return FALSE;
       callee->is_tail = !is_call;
+      callee->is_pasted = FALSE;
+      callee->broken_cycle = FALSE;
+      callee->priority = priority;
+      callee->count = 1;
+      if (callee->fun->last_caller != sec)
+       {
+         callee->fun->last_caller = sec;
+         callee->fun->call_count += 1;
+       }
       if (!insert_callee (caller, callee))
        free (callee);
       else if (!is_call
@@ -2018,14 +2830,36 @@ mark_functions_via_relocs (asection *sec,
             destination has been called by some other function then
             it is a separate function.  We also assume that functions
             are not split across input files.  */
-         if (callee->fun->start != NULL
-             || sec->owner != sym_sec->owner)
+         if (sec->owner != sym_sec->owner)
            {
              callee->fun->start = NULL;
              callee->fun->is_func = TRUE;
            }
+         else if (callee->fun->start == NULL)
+           {
+             struct function_info *caller_start = caller;
+             while (caller_start->start)
+               caller_start = caller_start->start;
+
+             if (caller_start != callee->fun)
+               callee->fun->start = caller_start;
+           }
          else
-           callee->fun->start = caller;
+           {
+             struct function_info *callee_start;
+             struct function_info *caller_start;
+             callee_start = callee->fun;
+             while (callee_start->start)
+               callee_start = callee_start->start;
+             caller_start = caller;
+             while (caller_start->start)
+               caller_start = caller_start->start;
+             if (caller_start != callee_start)
+               {
+                 callee->fun->start = NULL;
+                 callee->fun->is_func = TRUE;
+               }
+           }
        }
     }
 
@@ -2036,7 +2870,7 @@ mark_functions_via_relocs (asection *sec,
    These sections are pasted together to form a single function.  */
 
 static bfd_boolean
-pasted_function (asection *sec, struct bfd_link_info *info)
+pasted_function (asection *sec)
 {
   struct bfd_link_order *l;
   struct _spu_elf_section_data *sec_data;
@@ -2063,42 +2897,40 @@ pasted_function (asection *sec, struct bfd_link_info *info)
        {
          if (fun_start != NULL)
            {
-             if (fun_start->start)
-               fun_start = fun_start->start;
+             struct call_info *callee = bfd_malloc (sizeof *callee);
+             if (callee == NULL)
+               return FALSE;
+
              fun->start = fun_start;
+             callee->fun = fun;
+             callee->is_tail = TRUE;
+             callee->is_pasted = TRUE;
+             callee->broken_cycle = FALSE;
+             callee->priority = 0;
+             callee->count = 1;
+             if (!insert_callee (fun_start, callee))
+               free (callee);
+             return TRUE;
            }
-         return TRUE;
+         break;
        }
       if (l->type == bfd_indirect_link_order
          && (sec_data = spu_elf_section_data (l->u.indirect.section)) != NULL
-         && (sinfo = sec_data->stack_info) != NULL
+         && (sinfo = sec_data->u.i.stack_info) != NULL
          && sinfo->num_fun != 0)
        fun_start = &sinfo->fun[sinfo->num_fun - 1];
     }
 
-  info->callbacks->einfo (_("%A link_order not found\n"), sec);
-  return FALSE;
-}
-
-/* We're only interested in code sections.  */
-
-static bfd_boolean
-interesting_section (asection *s, bfd *obfd, struct spu_link_hash_table *htab)
-{
-  return (s != htab->stub
-         && s->output_section != NULL
-         && s->output_section->owner == obfd
-         && ((s->flags & (SEC_ALLOC | SEC_LOAD | SEC_CODE))
-             == (SEC_ALLOC | SEC_LOAD | SEC_CODE))
-         && s->size != 0);
+  /* Don't return an error if we did not find a function preceding this
+     section.  The section may have incorrect flags.  */
+  return TRUE;
 }
 
 /* Map address ranges in code sections to functions.  */
 
 static bfd_boolean
-discover_functions (bfd *output_bfd, struct bfd_link_info *info)
+discover_functions (struct bfd_link_info *info)
 {
-  struct spu_link_hash_table *htab = spu_hash_table (info);
   bfd *ibfd;
   int bfd_idx;
   Elf_Internal_Sym ***psym_arr;
@@ -2115,7 +2947,6 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
   sec_arr = bfd_zmalloc (bfd_idx * sizeof (*sec_arr));
   if (sec_arr == NULL)
     return FALSE;
-
   
   for (ibfd = info->input_bfds, bfd_idx = 0;
        ibfd != NULL;
@@ -2135,17 +2966,29 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
       symtab_hdr = &elf_tdata (ibfd)->symtab_hdr;
       symcount = symtab_hdr->sh_size / symtab_hdr->sh_entsize;
       if (symcount == 0)
-       continue;
+       {
+         if (!gaps)
+           for (sec = ibfd->sections; sec != NULL && !gaps; sec = sec->next)
+             if (interesting_section (sec))
+               {
+                 gaps = TRUE;
+                 break;
+               }
+         continue;
+       }
 
-      syms = (Elf_Internal_Sym *) symtab_hdr->contents;
-      if (syms == NULL)
+      if (symtab_hdr->contents != NULL)
        {
-         syms = bfd_elf_get_elf_syms (ibfd, symtab_hdr, symcount, 0,
-                                      NULL, NULL, NULL);
-         symtab_hdr->contents = (void *) syms;
-         if (syms == NULL)
-           return FALSE;
+         /* Don't use cached symbols since the generic ELF linker
+            code only reads local symbols, and we need globals too.  */ 
+         free (symtab_hdr->contents);
+         symtab_hdr->contents = NULL;
        }
+      syms = bfd_elf_get_elf_syms (ibfd, symtab_hdr, symcount, 0,
+                                  NULL, NULL, NULL);
+      symtab_hdr->contents = (void *) syms;
+      if (syms == NULL)
+       return FALSE;
 
       /* Select defined function symbols that are going to be output.  */
       psyms = bfd_malloc ((symcount + 1) * sizeof (*psyms));
@@ -2163,7 +3006,7 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
            asection *s;
 
            *p = s = bfd_section_from_elf_index (ibfd, sy->st_shndx);
-           if (s != NULL && interesting_section (s, output_bfd, htab))
+           if (s != NULL && interesting_section (s))
              *psy++ = sy;
          }
       symcount = psy - psyms;
@@ -2205,7 +3048,7 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
        }
 
       for (sec = ibfd->sections; sec != NULL && !gaps; sec = sec->next)
-       if (interesting_section (sec, output_bfd, htab))
+       if (interesting_section (sec))
          gaps |= check_function_ranges (sec, info);
     }
 
@@ -2223,12 +3066,8 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
            continue;
 
          for (sec = ibfd->sections; sec != NULL; sec = sec->next)
-           if (interesting_section (sec, output_bfd, htab)
-               && sec->reloc_count != 0)
-             {
-               if (!mark_functions_via_relocs (sec, info, FALSE))
-                 return FALSE;
-             }
+           if (!mark_functions_via_relocs (sec, info, FALSE))
+             return FALSE;
        }
 
       for (ibfd = info->input_bfds, bfd_idx = 0;
@@ -2250,7 +3089,7 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
 
          gaps = FALSE;
          for (sec = ibfd->sections; sec != NULL && !gaps; sec = sec->next)
-           if (interesting_section (sec, output_bfd, htab))
+           if (interesting_section (sec))
              gaps |= check_function_ranges (sec, info);
          if (!gaps)
            continue;
@@ -2270,20 +3109,29 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
                    return FALSE;
                }
            }
+       }
+
+      for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+       {
+         extern const bfd_target bfd_elf32_spu_vec;
+         asection *sec;
+
+         if (ibfd->xvec != &bfd_elf32_spu_vec)
+           continue;
 
          /* Some of the symbols we've installed as marking the
             beginning of functions may have a size of zero.  Extend
             the range of such functions to the beginning of the
             next symbol of interest.  */
          for (sec = ibfd->sections; sec != NULL; sec = sec->next)
-           if (interesting_section (sec, output_bfd, htab))
+           if (interesting_section (sec))
              {
                struct _spu_elf_section_data *sec_data;
                struct spu_elf_stack_info *sinfo;
 
                sec_data = spu_elf_section_data (sec);
-               sinfo = sec_data->stack_info;
-               if (sinfo != NULL)
+               sinfo = sec_data->u.i.stack_info;
+               if (sinfo != NULL && sinfo->num_fun != 0)
                  {
                    int fun_idx;
                    bfd_vma hi = sec->size;
@@ -2293,10 +3141,12 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
                        sinfo->fun[fun_idx].hi = hi;
                        hi = sinfo->fun[fun_idx].lo;
                      }
+
+                   sinfo->fun[0].lo = 0;
                  }
                /* No symbols in this section.  Must be .init or .fini
                   or something similar.  */
-               else if (!pasted_function (sec, info))
+               else if (!pasted_function (sec))
                  return FALSE;
              }
        }
@@ -2319,60 +3169,168 @@ discover_functions (bfd *output_bfd, struct bfd_link_info *info)
   return TRUE;
 }
 
+/* Iterate over all function_info we have collected, calling DOIT on
+   each node if ROOT_ONLY is false.  Only call DOIT on root nodes
+   if ROOT_ONLY.  */
+
+static bfd_boolean
+for_each_node (bfd_boolean (*doit) (struct function_info *,
+                                   struct bfd_link_info *,
+                                   void *),
+              struct bfd_link_info *info,
+              void *param,
+              int root_only)
+{
+  bfd *ibfd;
+
+  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+    {
+      extern const bfd_target bfd_elf32_spu_vec;
+      asection *sec;
+
+      if (ibfd->xvec != &bfd_elf32_spu_vec)
+       continue;
+
+      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
+       {
+         struct _spu_elf_section_data *sec_data;
+         struct spu_elf_stack_info *sinfo;
+
+         if ((sec_data = spu_elf_section_data (sec)) != NULL
+             && (sinfo = sec_data->u.i.stack_info) != NULL)
+           {
+             int i;
+             for (i = 0; i < sinfo->num_fun; ++i)
+               if (!root_only || !sinfo->fun[i].non_root)
+                 if (!doit (&sinfo->fun[i], info, param))
+                   return FALSE;
+           }
+       }
+    }
+  return TRUE;
+}
+
+/* Transfer call info attached to struct function_info entries for
+   all of a given function's sections to the first entry.  */
+
+static bfd_boolean
+transfer_calls (struct function_info *fun,
+               struct bfd_link_info *info ATTRIBUTE_UNUSED,
+               void *param ATTRIBUTE_UNUSED)
+{
+  struct function_info *start = fun->start;
+
+  if (start != NULL)
+    {
+      struct call_info *call, *call_next;
+
+      while (start->start != NULL)
+       start = start->start;
+      for (call = fun->call_list; call != NULL; call = call_next)
+       {
+         call_next = call->next;
+         if (!insert_callee (start, call))
+           free (call);
+       }
+      fun->call_list = NULL;
+    }
+  return TRUE;
+}
+
 /* Mark nodes in the call graph that are called by some other node.  */
 
-static void
-mark_non_root (struct function_info *fun)
+static bfd_boolean
+mark_non_root (struct function_info *fun,
+              struct bfd_link_info *info ATTRIBUTE_UNUSED,
+              void *param ATTRIBUTE_UNUSED)
 {
   struct call_info *call;
 
+  if (fun->visit1)
+    return TRUE;
   fun->visit1 = TRUE;
   for (call = fun->call_list; call; call = call->next)
     {
       call->fun->non_root = TRUE;
-      if (!call->fun->visit1)
-       mark_non_root (call->fun);
+      mark_non_root (call->fun, 0, 0);
     }
+  return TRUE;
 }
 
-/* Remove cycles from the call graph.  */
+/* Remove cycles from the call graph.  Set depth of nodes.  */
 
-static void
-call_graph_traverse (struct function_info *fun, struct bfd_link_info *info)
+static bfd_boolean
+remove_cycles (struct function_info *fun,
+              struct bfd_link_info *info,
+              void *param)
 {
   struct call_info **callp, *call;
+  unsigned int depth = *(unsigned int *) param;
+  unsigned int max_depth = depth;
 
+  fun->depth = depth;
   fun->visit2 = TRUE;
   fun->marking = TRUE;
 
   callp = &fun->call_list;
   while ((call = *callp) != NULL)
     {
+      call->max_depth = depth + !call->is_pasted;
       if (!call->fun->visit2)
-       call_graph_traverse (call->fun, info);
+       {
+         if (!remove_cycles (call->fun, info, &call->max_depth))
+           return FALSE;
+         if (max_depth < call->max_depth)
+           max_depth = call->max_depth;
+       }
       else if (call->fun->marking)
        {
-         const char *f1 = func_name (fun);
-         const char *f2 = func_name (call->fun);
+         struct spu_link_hash_table *htab = spu_hash_table (info);
 
-         info->callbacks->info (_("Stack analysis will ignore the call "
-                                  "from %s to %s\n"),
-                                f1, f2);
-         *callp = call->next;
-         continue;
+         if (!htab->params->auto_overlay
+             && htab->params->stack_analysis)
+           {
+             const char *f1 = func_name (fun);
+             const char *f2 = func_name (call->fun);
+
+             info->callbacks->info (_("Stack analysis will ignore the call "
+                                      "from %s to %s\n"),
+                                    f1, f2);
+           }
+
+         call->broken_cycle = TRUE;
        }
       callp = &call->next;
     }
   fun->marking = FALSE;
+  *(unsigned int *) param = max_depth;
+  return TRUE;
+}
+
+/* Check that we actually visited all nodes in remove_cycles.  If we
+   didn't, then there is some cycle in the call graph not attached to
+   any root node.  Arbitrarily choose a node in the cycle as a new
+   root and break the cycle.  */
+
+static bfd_boolean
+mark_detached_root (struct function_info *fun,
+                   struct bfd_link_info *info,
+                   void *param)
+{
+  if (fun->visit2)
+    return TRUE;
+  fun->non_root = FALSE;
+  *(unsigned int *) param = 0;
+  return remove_cycles (fun, info, param);
 }
 
 /* Populate call_list for each function.  */
 
 static bfd_boolean
-build_call_tree (bfd *output_bfd, struct bfd_link_info *info)
+build_call_tree (struct bfd_link_info *info)
 {
-  struct spu_link_hash_table *htab = spu_hash_table (info);
   bfd *ibfd;
+  unsigned int depth;
 
   for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
     {
@@ -2383,246 +3341,1348 @@ build_call_tree (bfd *output_bfd, struct bfd_link_info *info)
        continue;
 
       for (sec = ibfd->sections; sec != NULL; sec = sec->next)
-       {
-         if (!interesting_section (sec, output_bfd, htab)
-             || sec->reloc_count == 0)
-           continue;
+       if (!mark_functions_via_relocs (sec, info, TRUE))
+         return FALSE;
+    }
 
-         if (!mark_functions_via_relocs (sec, info, TRUE))
-           return FALSE;
-       }
+  /* Transfer call info from hot/cold section part of function
+     to main entry.  */
+  if (!spu_hash_table (info)->params->auto_overlay
+      && !for_each_node (transfer_calls, info, 0, FALSE))
+    return FALSE;
 
-      /* Transfer call info from hot/cold section part of function
-        to main entry.  */
-      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
-       {
-         struct _spu_elf_section_data *sec_data;
-         struct spu_elf_stack_info *sinfo;
+  /* Find the call graph root(s).  */
+  if (!for_each_node (mark_non_root, info, 0, FALSE))
+    return FALSE;
 
-         if ((sec_data = spu_elf_section_data (sec)) != NULL
-             && (sinfo = sec_data->stack_info) != NULL)
-           {
-             int i;
-             for (i = 0; i < sinfo->num_fun; ++i)
-               {
-                 if (sinfo->fun[i].start != NULL)
-                   {
-                     struct call_info *call = sinfo->fun[i].call_list;
-
-                     while (call != NULL)
-                       {
-                         struct call_info *call_next = call->next;
-                         if (!insert_callee (sinfo->fun[i].start, call))
-                           free (call);
-                         call = call_next;
-                       }
-                     sinfo->fun[i].call_list = NULL;
-                     sinfo->fun[i].non_root = TRUE;
-                   }
-               }
-           }
-       }
-    }
+  /* Remove cycles from the call graph.  We start from the root node(s)
+     so that we break cycles in a reasonable place.  */
+  depth = 0;
+  if (!for_each_node (remove_cycles, info, &depth, TRUE))
+    return FALSE;
 
-  /* Find the call graph root(s).  */
-  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
-    {
-      extern const bfd_target bfd_elf32_spu_vec;
-      asection *sec;
+  return for_each_node (mark_detached_root, info, &depth, FALSE);
+}
 
-      if (ibfd->xvec != &bfd_elf32_spu_vec)
-       continue;
+/* qsort predicate to sort calls by priority, max_depth then count.  */
 
-      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
-       {
-         struct _spu_elf_section_data *sec_data;
-         struct spu_elf_stack_info *sinfo;
+static int
+sort_calls (const void *a, const void *b)
+{
+  struct call_info *const *c1 = a;
+  struct call_info *const *c2 = b;
+  int delta;
 
-         if ((sec_data = spu_elf_section_data (sec)) != NULL
-             && (sinfo = sec_data->stack_info) != NULL)
-           {
-             int i;
-             for (i = 0; i < sinfo->num_fun; ++i)
-               if (!sinfo->fun[i].visit1)
-                 mark_non_root (&sinfo->fun[i]);
-           }
-       }
-    }
+  delta = (*c2)->priority - (*c1)->priority;
+  if (delta != 0)
+    return delta;
 
-  /* Remove cycles from the call graph.  We start from the root node(s)
-     so that we break cycles in a reasonable place.  */
-  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
-    {
-      extern const bfd_target bfd_elf32_spu_vec;
-      asection *sec;
+  delta = (*c2)->max_depth - (*c1)->max_depth;
+  if (delta != 0)
+    return delta;
 
-      if (ibfd->xvec != &bfd_elf32_spu_vec)
-       continue;
+  delta = (*c2)->count - (*c1)->count;
+  if (delta != 0)
+    return delta;
 
-      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
-       {
-         struct _spu_elf_section_data *sec_data;
-         struct spu_elf_stack_info *sinfo;
+  return (char *) c1 - (char *) c2;
+}
+
+struct _mos_param {
+  unsigned int max_overlay_size;
+};
+
+/* Set linker_mark and gc_mark on any sections that we will put in
+   overlays.  These flags are used by the generic ELF linker, but we
+   won't be continuing on to bfd_elf_final_link so it is OK to use
+   them.  linker_mark is clear before we get here.  Set segment_mark
+   on sections that are part of a pasted function (excluding the last
+   section).
+
+   Set up function rodata section if --overlay-rodata.  We don't
+   currently include merged string constant rodata sections since
+
+   Sort the call graph so that the deepest nodes will be visited
+   first.  */
+
+static bfd_boolean
+mark_overlay_section (struct function_info *fun,
+                     struct bfd_link_info *info,
+                     void *param)
+{
+  struct call_info *call;
+  unsigned int count;
+  struct _mos_param *mos_param = param;
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+
+  if (fun->visit4)
+    return TRUE;
+
+  fun->visit4 = TRUE;
+  if (!fun->sec->linker_mark
+      && (htab->params->ovly_flavour != ovly_soft_icache
+         || htab->params->non_ia_text
+         || strncmp (fun->sec->name, ".text.ia.", 9) == 0
+         || strcmp (fun->sec->name, ".init") == 0
+         || strcmp (fun->sec->name, ".fini") == 0))
+    {
+      unsigned int size;
+
+      fun->sec->linker_mark = 1;
+      fun->sec->gc_mark = 1;
+      fun->sec->segment_mark = 0;
+      /* Ensure SEC_CODE is set on this text section (it ought to
+        be!), and SEC_CODE is clear on rodata sections.  We use
+        this flag to differentiate the two overlay section types.  */
+      fun->sec->flags |= SEC_CODE;
+
+      size = fun->sec->size;
+      if (htab->params->auto_overlay & OVERLAY_RODATA)
+       {
+         char *name = NULL;
+
+         /* Find the rodata section corresponding to this function's
+            text section.  */
+         if (strcmp (fun->sec->name, ".text") == 0)
+           {
+             name = bfd_malloc (sizeof (".rodata"));
+             if (name == NULL)
+               return FALSE;
+             memcpy (name, ".rodata", sizeof (".rodata"));
+           }
+         else if (strncmp (fun->sec->name, ".text.", 6) == 0)
+           {
+             size_t len = strlen (fun->sec->name);
+             name = bfd_malloc (len + 3);
+             if (name == NULL)
+               return FALSE;
+             memcpy (name, ".rodata", sizeof (".rodata"));
+             memcpy (name + 7, fun->sec->name + 5, len - 4);
+           }
+         else if (strncmp (fun->sec->name, ".gnu.linkonce.t.", 16) == 0)
+           {
+             size_t len = strlen (fun->sec->name) + 1;
+             name = bfd_malloc (len);
+             if (name == NULL)
+               return FALSE;
+             memcpy (name, fun->sec->name, len);
+             name[14] = 'r';
+           }
+
+         if (name != NULL)
+           {
+             asection *rodata = NULL;
+             asection *group_sec = elf_section_data (fun->sec)->next_in_group;
+             if (group_sec == NULL)
+               rodata = bfd_get_section_by_name (fun->sec->owner, name);
+             else
+               while (group_sec != NULL && group_sec != fun->sec)
+                 {
+                   if (strcmp (group_sec->name, name) == 0)
+                     {
+                       rodata = group_sec;
+                       break;
+                     }
+                   group_sec = elf_section_data (group_sec)->next_in_group;
+                 }
+             fun->rodata = rodata;
+             if (fun->rodata)
+               {
+                 size += fun->rodata->size;
+                 if (htab->params->line_size != 0
+                     && size > htab->params->line_size)
+                   {
+                     size -= fun->rodata->size;
+                     fun->rodata = NULL;
+                   }
+                 else
+                   {
+                     fun->rodata->linker_mark = 1;
+                     fun->rodata->gc_mark = 1;
+                     fun->rodata->flags &= ~SEC_CODE;
+                   }
+               }
+             free (name);
+           }
+       }
+      if (mos_param->max_overlay_size < size)
+       mos_param->max_overlay_size = size;
+    }
+
+  for (count = 0, call = fun->call_list; call != NULL; call = call->next)
+    count += 1;
+
+  if (count > 1)
+    {
+      struct call_info **calls = bfd_malloc (count * sizeof (*calls));
+      if (calls == NULL)
+       return FALSE;
+
+      for (count = 0, call = fun->call_list; call != NULL; call = call->next)
+       calls[count++] = call;
+
+      qsort (calls, count, sizeof (*calls), sort_calls);
+
+      fun->call_list = NULL;
+      while (count != 0)
+       {
+         --count;
+         calls[count]->next = fun->call_list;
+         fun->call_list = calls[count];
+       }
+      free (calls);
+    }
+
+  for (call = fun->call_list; call != NULL; call = call->next)
+    {
+      if (call->is_pasted)
+       {
+         /* There can only be one is_pasted call per function_info.  */
+         BFD_ASSERT (!fun->sec->segment_mark);
+         fun->sec->segment_mark = 1;
+       }
+      if (!call->broken_cycle
+         && !mark_overlay_section (call->fun, info, param))
+       return FALSE;
+    }
+
+  /* Don't put entry code into an overlay.  The overlay manager needs
+     a stack!  Also, don't mark .ovl.init as an overlay.  */
+  if (fun->lo + fun->sec->output_offset + fun->sec->output_section->vma
+      == info->output_bfd->start_address
+      || strncmp (fun->sec->output_section->name, ".ovl.init", 9) == 0)
+    {
+      fun->sec->linker_mark = 0;
+      if (fun->rodata != NULL)
+       fun->rodata->linker_mark = 0;
+    }
+  return TRUE;
+}
+
+/* If non-zero then unmark functions called from those within sections
+   that we need to unmark.  Unfortunately this isn't reliable since the
+   call graph cannot know the destination of function pointer calls.  */
+#define RECURSE_UNMARK 0
+
+struct _uos_param {
+  asection *exclude_input_section;
+  asection *exclude_output_section;
+  unsigned long clearing;
+};
+
+/* Undo some of mark_overlay_section's work.  */
+
+static bfd_boolean
+unmark_overlay_section (struct function_info *fun,
+                       struct bfd_link_info *info,
+                       void *param)
+{
+  struct call_info *call;
+  struct _uos_param *uos_param = param;
+  unsigned int excluded = 0;
+
+  if (fun->visit5)
+    return TRUE;
+
+  fun->visit5 = TRUE;
+
+  excluded = 0;
+  if (fun->sec == uos_param->exclude_input_section
+      || fun->sec->output_section == uos_param->exclude_output_section)
+    excluded = 1;
+
+  if (RECURSE_UNMARK)
+    uos_param->clearing += excluded;
+
+  if (RECURSE_UNMARK ? uos_param->clearing : excluded)
+    {
+      fun->sec->linker_mark = 0;
+      if (fun->rodata)
+       fun->rodata->linker_mark = 0;
+    }
+
+  for (call = fun->call_list; call != NULL; call = call->next)
+    if (!call->broken_cycle
+       && !unmark_overlay_section (call->fun, info, param))
+      return FALSE;
+
+  if (RECURSE_UNMARK)
+    uos_param->clearing -= excluded;
+  return TRUE;
+}
+
+struct _cl_param {
+  unsigned int lib_size;
+  asection **lib_sections;
+};
+
+/* Add sections we have marked as belonging to overlays to an array
+   for consideration as non-overlay sections.  The array consist of
+   pairs of sections, (text,rodata), for functions in the call graph.  */
+
+static bfd_boolean
+collect_lib_sections (struct function_info *fun,
+                     struct bfd_link_info *info,
+                     void *param)
+{
+  struct _cl_param *lib_param = param;
+  struct call_info *call;
+  unsigned int size;
+
+  if (fun->visit6)
+    return TRUE;
+
+  fun->visit6 = TRUE;
+  if (!fun->sec->linker_mark || !fun->sec->gc_mark || fun->sec->segment_mark)
+    return TRUE;
+
+  size = fun->sec->size;
+  if (fun->rodata)
+    size += fun->rodata->size;
+
+  if (size <= lib_param->lib_size)
+    {
+      *lib_param->lib_sections++ = fun->sec;
+      fun->sec->gc_mark = 0;
+      if (fun->rodata && fun->rodata->linker_mark && fun->rodata->gc_mark)
+       {
+         *lib_param->lib_sections++ = fun->rodata;
+         fun->rodata->gc_mark = 0;
+       }
+      else
+       *lib_param->lib_sections++ = NULL;
+    }
+
+  for (call = fun->call_list; call != NULL; call = call->next)
+    if (!call->broken_cycle)
+      collect_lib_sections (call->fun, info, param);
+
+  return TRUE;
+}
+
+/* qsort predicate to sort sections by call count.  */
+
+static int
+sort_lib (const void *a, const void *b)
+{
+  asection *const *s1 = a;
+  asection *const *s2 = b;
+  struct _spu_elf_section_data *sec_data;
+  struct spu_elf_stack_info *sinfo;
+  int delta;
+
+  delta = 0;
+  if ((sec_data = spu_elf_section_data (*s1)) != NULL
+      && (sinfo = sec_data->u.i.stack_info) != NULL)
+    {
+      int i;
+      for (i = 0; i < sinfo->num_fun; ++i)
+       delta -= sinfo->fun[i].call_count;
+    }
+
+  if ((sec_data = spu_elf_section_data (*s2)) != NULL
+      && (sinfo = sec_data->u.i.stack_info) != NULL)
+    {
+      int i;
+      for (i = 0; i < sinfo->num_fun; ++i)
+       delta += sinfo->fun[i].call_count;
+    }
+
+  if (delta != 0)
+    return delta;
+
+  return s1 - s2;
+}
+
+/* Remove some sections from those marked to be in overlays.  Choose
+   those that are called from many places, likely library functions.  */
+
+static unsigned int
+auto_ovl_lib_functions (struct bfd_link_info *info, unsigned int lib_size)
+{
+  bfd *ibfd;
+  asection **lib_sections;
+  unsigned int i, lib_count;
+  struct _cl_param collect_lib_param;
+  struct function_info dummy_caller;
+  struct spu_link_hash_table *htab;
+
+  memset (&dummy_caller, 0, sizeof (dummy_caller));
+  lib_count = 0;
+  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+    {
+      extern const bfd_target bfd_elf32_spu_vec;
+      asection *sec;
+
+      if (ibfd->xvec != &bfd_elf32_spu_vec)
+       continue;
+
+      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
+       if (sec->linker_mark
+           && sec->size < lib_size
+           && (sec->flags & SEC_CODE) != 0)
+         lib_count += 1;
+    }
+  lib_sections = bfd_malloc (lib_count * 2 * sizeof (*lib_sections));
+  if (lib_sections == NULL)
+    return (unsigned int) -1;
+  collect_lib_param.lib_size = lib_size;
+  collect_lib_param.lib_sections = lib_sections;
+  if (!for_each_node (collect_lib_sections, info, &collect_lib_param,
+                     TRUE))
+    return (unsigned int) -1;
+  lib_count = (collect_lib_param.lib_sections - lib_sections) / 2;
+
+  /* Sort sections so that those with the most calls are first.  */
+  if (lib_count > 1)
+    qsort (lib_sections, lib_count, 2 * sizeof (*lib_sections), sort_lib);
+
+  htab = spu_hash_table (info);
+  for (i = 0; i < lib_count; i++)
+    {
+      unsigned int tmp, stub_size;
+      asection *sec;
+      struct _spu_elf_section_data *sec_data;
+      struct spu_elf_stack_info *sinfo;
+
+      sec = lib_sections[2 * i];
+      /* If this section is OK, its size must be less than lib_size.  */
+      tmp = sec->size;
+      /* If it has a rodata section, then add that too.  */
+      if (lib_sections[2 * i + 1])
+       tmp += lib_sections[2 * i + 1]->size;
+      /* Add any new overlay call stubs needed by the section.  */
+      stub_size = 0;
+      if (tmp < lib_size
+         && (sec_data = spu_elf_section_data (sec)) != NULL
+         && (sinfo = sec_data->u.i.stack_info) != NULL)
+       {
+         int k;
+         struct call_info *call;
+
+         for (k = 0; k < sinfo->num_fun; ++k)
+           for (call = sinfo->fun[k].call_list; call; call = call->next)
+             if (call->fun->sec->linker_mark)
+               {
+                 struct call_info *p;
+                 for (p = dummy_caller.call_list; p; p = p->next)
+                   if (p->fun == call->fun)
+                     break;
+                 if (!p)
+                   stub_size += ovl_stub_size (htab->params);
+               }
+       }
+      if (tmp + stub_size < lib_size)
+       {
+         struct call_info **pp, *p;
+
+         /* This section fits.  Mark it as non-overlay.  */
+         lib_sections[2 * i]->linker_mark = 0;
+         if (lib_sections[2 * i + 1])
+           lib_sections[2 * i + 1]->linker_mark = 0;
+         lib_size -= tmp + stub_size;
+         /* Call stubs to the section we just added are no longer
+            needed.  */
+         pp = &dummy_caller.call_list;
+         while ((p = *pp) != NULL)
+           if (!p->fun->sec->linker_mark)
+             {
+               lib_size += ovl_stub_size (htab->params);
+               *pp = p->next;
+               free (p);
+             }
+           else
+             pp = &p->next;
+         /* Add new call stubs to dummy_caller.  */
+         if ((sec_data = spu_elf_section_data (sec)) != NULL
+             && (sinfo = sec_data->u.i.stack_info) != NULL)
+           {
+             int k;
+             struct call_info *call;
+
+             for (k = 0; k < sinfo->num_fun; ++k)
+               for (call = sinfo->fun[k].call_list;
+                    call;
+                    call = call->next)
+                 if (call->fun->sec->linker_mark)
+                   {
+                     struct call_info *callee;
+                     callee = bfd_malloc (sizeof (*callee));
+                     if (callee == NULL)
+                       return (unsigned int) -1;
+                     *callee = *call;
+                     if (!insert_callee (&dummy_caller, callee))
+                       free (callee);
+                   }
+           }
+       }
+    }
+  while (dummy_caller.call_list != NULL)
+    {
+      struct call_info *call = dummy_caller.call_list;
+      dummy_caller.call_list = call->next;
+      free (call);
+    }
+  for (i = 0; i < 2 * lib_count; i++)
+    if (lib_sections[i])
+      lib_sections[i]->gc_mark = 1;
+  free (lib_sections);
+  return lib_size;
+}
+
+/* Build an array of overlay sections.  The deepest node's section is
+   added first, then its parent node's section, then everything called
+   from the parent section.  The idea being to group sections to
+   minimise calls between different overlays.  */
+
+static bfd_boolean
+collect_overlays (struct function_info *fun,
+                 struct bfd_link_info *info,
+                 void *param)
+{
+  struct call_info *call;
+  bfd_boolean added_fun;
+  asection ***ovly_sections = param;
+
+  if (fun->visit7)
+    return TRUE;
+
+  fun->visit7 = TRUE;
+  for (call = fun->call_list; call != NULL; call = call->next)
+    if (!call->is_pasted && !call->broken_cycle)
+      {
+       if (!collect_overlays (call->fun, info, ovly_sections))
+         return FALSE;
+       break;
+      }
+
+  added_fun = FALSE;
+  if (fun->sec->linker_mark && fun->sec->gc_mark)
+    {
+      fun->sec->gc_mark = 0;
+      *(*ovly_sections)++ = fun->sec;
+      if (fun->rodata && fun->rodata->linker_mark && fun->rodata->gc_mark)
+       {
+         fun->rodata->gc_mark = 0;
+         *(*ovly_sections)++ = fun->rodata;
+       }
+      else
+       *(*ovly_sections)++ = NULL;
+      added_fun = TRUE;
+
+      /* Pasted sections must stay with the first section.  We don't
+        put pasted sections in the array, just the first section.
+        Mark subsequent sections as already considered.  */
+      if (fun->sec->segment_mark)
+       {
+         struct function_info *call_fun = fun;
+         do
+           {
+             for (call = call_fun->call_list; call != NULL; call = call->next)
+               if (call->is_pasted)
+                 {
+                   call_fun = call->fun;
+                   call_fun->sec->gc_mark = 0;
+                   if (call_fun->rodata)
+                     call_fun->rodata->gc_mark = 0;
+                   break;
+                 }
+             if (call == NULL)
+               abort ();
+           }
+         while (call_fun->sec->segment_mark);
+       }
+    }
+
+  for (call = fun->call_list; call != NULL; call = call->next)
+    if (!call->broken_cycle
+       && !collect_overlays (call->fun, info, ovly_sections))
+      return FALSE;
+
+  if (added_fun)
+    {
+      struct _spu_elf_section_data *sec_data;
+      struct spu_elf_stack_info *sinfo;
+
+      if ((sec_data = spu_elf_section_data (fun->sec)) != NULL
+         && (sinfo = sec_data->u.i.stack_info) != NULL)
+       {
+         int i;
+         for (i = 0; i < sinfo->num_fun; ++i)
+           if (!collect_overlays (&sinfo->fun[i], info, ovly_sections))
+             return FALSE;
+       }
+    }
+
+  return TRUE;
+}
+
+struct _sum_stack_param {
+  size_t cum_stack;
+  size_t overall_stack;
+  bfd_boolean emit_stack_syms;
+};
+
+/* Descend the call graph for FUN, accumulating total stack required.  */
+
+static bfd_boolean
+sum_stack (struct function_info *fun,
+          struct bfd_link_info *info,
+          void *param)
+{
+  struct call_info *call;
+  struct function_info *max;
+  size_t stack, cum_stack;
+  const char *f1;
+  bfd_boolean has_call;
+  struct _sum_stack_param *sum_stack_param = param;
+  struct spu_link_hash_table *htab;
+
+  cum_stack = fun->stack;
+  sum_stack_param->cum_stack = cum_stack;
+  if (fun->visit3)
+    return TRUE;
+
+  has_call = FALSE;
+  max = NULL;
+  for (call = fun->call_list; call; call = call->next)
+    {
+      if (call->broken_cycle)
+       continue;
+      if (!call->is_pasted)
+       has_call = TRUE;
+      if (!sum_stack (call->fun, info, sum_stack_param))
+       return FALSE;
+      stack = sum_stack_param->cum_stack;
+      /* Include caller stack for normal calls, don't do so for
+        tail calls.  fun->stack here is local stack usage for
+        this function.  */
+      if (!call->is_tail || call->is_pasted || call->fun->start != NULL)
+       stack += fun->stack;
+      if (cum_stack < stack)
+       {
+         cum_stack = stack;
+         max = call->fun;
+       }
+    }
+
+  sum_stack_param->cum_stack = cum_stack;
+  stack = fun->stack;
+  /* Now fun->stack holds cumulative stack.  */
+  fun->stack = cum_stack;
+  fun->visit3 = TRUE;
+
+  if (!fun->non_root
+      && sum_stack_param->overall_stack < cum_stack)
+    sum_stack_param->overall_stack = cum_stack;
+
+  htab = spu_hash_table (info);
+  if (htab->params->auto_overlay)
+    return TRUE;
+
+  f1 = func_name (fun);
+  if (htab->params->stack_analysis)
+    {
+      if (!fun->non_root)
+       info->callbacks->info (_("  %s: 0x%v\n"), f1, (bfd_vma) cum_stack);
+      info->callbacks->minfo (_("%s: 0x%v 0x%v\n"),
+                             f1, (bfd_vma) stack, (bfd_vma) cum_stack);
+
+      if (has_call)
+       {
+         info->callbacks->minfo (_("  calls:\n"));
+         for (call = fun->call_list; call; call = call->next)
+           if (!call->is_pasted && !call->broken_cycle)
+             {
+               const char *f2 = func_name (call->fun);
+               const char *ann1 = call->fun == max ? "*" : " ";
+               const char *ann2 = call->is_tail ? "t" : " ";
+
+               info->callbacks->minfo (_("   %s%s %s\n"), ann1, ann2, f2);
+             }
+       }
+    }
+
+  if (sum_stack_param->emit_stack_syms)
+    {
+      char *name = bfd_malloc (18 + strlen (f1));
+      struct elf_link_hash_entry *h;
+
+      if (name == NULL)
+       return FALSE;
+
+      if (fun->global || ELF_ST_BIND (fun->u.sym->st_info) == STB_GLOBAL)
+       sprintf (name, "__stack_%s", f1);
+      else
+       sprintf (name, "__stack_%x_%s", fun->sec->id & 0xffffffff, f1);
+
+      h = elf_link_hash_lookup (&htab->elf, name, TRUE, TRUE, FALSE);
+      free (name);
+      if (h != NULL
+         && (h->root.type == bfd_link_hash_new
+             || h->root.type == bfd_link_hash_undefined
+             || h->root.type == bfd_link_hash_undefweak))
+       {
+         h->root.type = bfd_link_hash_defined;
+         h->root.u.def.section = bfd_abs_section_ptr;
+         h->root.u.def.value = cum_stack;
+         h->size = 0;
+         h->type = 0;
+         h->ref_regular = 1;
+         h->def_regular = 1;
+         h->ref_regular_nonweak = 1;
+         h->forced_local = 1;
+         h->non_elf = 0;
+       }
+    }
+
+  return TRUE;
+}
+
+/* SEC is part of a pasted function.  Return the call_info for the
+   next section of this function.  */
+
+static struct call_info *
+find_pasted_call (asection *sec)
+{
+  struct _spu_elf_section_data *sec_data = spu_elf_section_data (sec);
+  struct spu_elf_stack_info *sinfo = sec_data->u.i.stack_info;
+  struct call_info *call;
+  int k;
+
+  for (k = 0; k < sinfo->num_fun; ++k)
+    for (call = sinfo->fun[k].call_list; call != NULL; call = call->next)
+      if (call->is_pasted)
+       return call;
+  abort ();
+  return 0;
+}
+
+/* qsort predicate to sort bfds by file name.  */
+
+static int
+sort_bfds (const void *a, const void *b)
+{
+  bfd *const *abfd1 = a;
+  bfd *const *abfd2 = b;
+
+  return strcmp ((*abfd1)->filename, (*abfd2)->filename);
+}
+
+static unsigned int
+print_one_overlay_section (FILE *script,
+                          unsigned int base,
+                          unsigned int count,
+                          unsigned int ovlynum,
+                          unsigned int *ovly_map,
+                          asection **ovly_sections,
+                          struct bfd_link_info *info)
+{
+  unsigned int j;
+         
+  for (j = base; j < count && ovly_map[j] == ovlynum; j++)
+    {
+      asection *sec = ovly_sections[2 * j];
+
+      if (fprintf (script, "   %s%c%s (%s)\n",
+                  (sec->owner->my_archive != NULL
+                   ? sec->owner->my_archive->filename : ""),
+                  info->path_separator,
+                  sec->owner->filename,
+                  sec->name) <= 0)
+       return -1;
+      if (sec->segment_mark)
+       {
+         struct call_info *call = find_pasted_call (sec);
+         while (call != NULL)
+           {
+             struct function_info *call_fun = call->fun;
+             sec = call_fun->sec;
+             if (fprintf (script, "   %s%c%s (%s)\n",
+                          (sec->owner->my_archive != NULL
+                           ? sec->owner->my_archive->filename : ""),
+                          info->path_separator,
+                          sec->owner->filename,
+                          sec->name) <= 0)
+               return -1;
+             for (call = call_fun->call_list; call; call = call->next)
+               if (call->is_pasted)
+                 break;
+           }
+       }
+    }
+
+  for (j = base; j < count && ovly_map[j] == ovlynum; j++)
+    {
+      asection *sec = ovly_sections[2 * j + 1];
+      if (sec != NULL
+         && fprintf (script, "   %s%c%s (%s)\n",
+                     (sec->owner->my_archive != NULL
+                      ? sec->owner->my_archive->filename : ""),
+                     info->path_separator,
+                     sec->owner->filename,
+                     sec->name) <= 0)
+       return -1;
+
+      sec = ovly_sections[2 * j];
+      if (sec->segment_mark)
+       {
+         struct call_info *call = find_pasted_call (sec);
+         while (call != NULL)
+           {
+             struct function_info *call_fun = call->fun;
+             sec = call_fun->rodata;
+             if (sec != NULL
+                 && fprintf (script, "   %s%c%s (%s)\n",
+                             (sec->owner->my_archive != NULL
+                              ? sec->owner->my_archive->filename : ""),
+                             info->path_separator,
+                             sec->owner->filename,
+                             sec->name) <= 0)
+               return -1;
+             for (call = call_fun->call_list; call; call = call->next)
+               if (call->is_pasted)
+                 break;
+           }
+       }
+    }
+
+  return j;
+}
+
+/* Handle --auto-overlay.  */
+
+static void
+spu_elf_auto_overlay (struct bfd_link_info *info)
+{
+  bfd *ibfd;
+  bfd **bfd_arr;
+  struct elf_segment_map *m;
+  unsigned int fixed_size, lo, hi;
+  struct spu_link_hash_table *htab;
+  unsigned int base, i, count, bfd_count;
+  unsigned int region, ovlynum;
+  asection **ovly_sections, **ovly_p;
+  unsigned int *ovly_map;
+  FILE *script;
+  unsigned int total_overlay_size, overlay_size;
+  const char *ovly_mgr_entry;
+  struct elf_link_hash_entry *h;
+  struct _mos_param mos_param;
+  struct _uos_param uos_param;
+  struct function_info dummy_caller;
+
+  /* Find the extents of our loadable image.  */
+  lo = (unsigned int) -1;
+  hi = 0;
+  for (m = elf_tdata (info->output_bfd)->segment_map; m != NULL; m = m->next)
+    if (m->p_type == PT_LOAD)
+      for (i = 0; i < m->count; i++)
+       if (m->sections[i]->size != 0)
+         {
+           if (m->sections[i]->vma < lo)
+             lo = m->sections[i]->vma;
+           if (m->sections[i]->vma + m->sections[i]->size - 1 > hi)
+             hi = m->sections[i]->vma + m->sections[i]->size - 1;
+         }
+  fixed_size = hi + 1 - lo;
+
+  if (!discover_functions (info))
+    goto err_exit;
+
+  if (!build_call_tree (info))
+    goto err_exit;
+
+  htab = spu_hash_table (info);
+  if (htab->reserved == 0)
+    {
+      struct _sum_stack_param sum_stack_param;
+
+      sum_stack_param.emit_stack_syms = 0;
+      sum_stack_param.overall_stack = 0;
+      if (!for_each_node (sum_stack, info, &sum_stack_param, TRUE))
+       goto err_exit;
+      htab->reserved = sum_stack_param.overall_stack + htab->extra_stack_space;
+    }
+
+  /* No need for overlays if everything already fits.  */
+  if (fixed_size + htab->reserved <= htab->local_store
+      && htab->params->ovly_flavour != ovly_soft_icache)
+    {
+      htab->params->auto_overlay = 0;
+      return;
+    }
+
+  uos_param.exclude_input_section = 0;
+  uos_param.exclude_output_section
+    = bfd_get_section_by_name (info->output_bfd, ".interrupt");
+
+  ovly_mgr_entry = "__ovly_load";
+  if (htab->params->ovly_flavour == ovly_soft_icache)
+    ovly_mgr_entry = "__icache_br_handler";
+  h = elf_link_hash_lookup (&htab->elf, ovly_mgr_entry,
+                           FALSE, FALSE, FALSE);
+  if (h != NULL
+      && (h->root.type == bfd_link_hash_defined
+         || h->root.type == bfd_link_hash_defweak)
+      && h->def_regular)
+    {
+      /* We have a user supplied overlay manager.  */
+      uos_param.exclude_input_section = h->root.u.def.section;
+    }
+  else
+    {
+      /* If no user overlay manager, spu_elf_load_ovl_mgr will add our
+        builtin version to .text, and will adjust .text size.  */
+      fixed_size += (*htab->params->spu_elf_load_ovl_mgr) ();
+    }
+
+  /* Mark overlay sections, and find max overlay section size.  */
+  mos_param.max_overlay_size = 0;
+  if (!for_each_node (mark_overlay_section, info, &mos_param, TRUE))
+    goto err_exit;
+
+  /* We can't put the overlay manager or interrupt routines in
+     overlays.  */
+  uos_param.clearing = 0;
+  if ((uos_param.exclude_input_section
+       || uos_param.exclude_output_section)
+      && !for_each_node (unmark_overlay_section, info, &uos_param, TRUE))
+    goto err_exit;
+
+  bfd_count = 0;
+  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+    ++bfd_count;
+  bfd_arr = bfd_malloc (bfd_count * sizeof (*bfd_arr));
+  if (bfd_arr == NULL)
+    goto err_exit;
+
+  /* Count overlay sections, and subtract their sizes from "fixed_size".  */
+  count = 0;
+  bfd_count = 0;
+  total_overlay_size = 0;
+  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+    {
+      extern const bfd_target bfd_elf32_spu_vec;
+      asection *sec;
+      unsigned int old_count;
+
+      if (ibfd->xvec != &bfd_elf32_spu_vec)
+       continue;
+
+      old_count = count;
+      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
+       if (sec->linker_mark)
+         {
+           if ((sec->flags & SEC_CODE) != 0)
+             count += 1;
+           fixed_size -= sec->size;
+           total_overlay_size += sec->size;
+         }
+       else if ((sec->flags & (SEC_ALLOC | SEC_LOAD)) == (SEC_ALLOC | SEC_LOAD)
+                && sec->output_section->owner == info->output_bfd
+                && strncmp (sec->output_section->name, ".ovl.init", 9) == 0)
+         fixed_size -= sec->size;
+      if (count != old_count)
+       bfd_arr[bfd_count++] = ibfd;
+    }
+
+  /* Since the overlay link script selects sections by file name and
+     section name, ensure that file names are unique.  */
+  if (bfd_count > 1)
+    {
+      bfd_boolean ok = TRUE;
+
+      qsort (bfd_arr, bfd_count, sizeof (*bfd_arr), sort_bfds);
+      for (i = 1; i < bfd_count; ++i)
+       if (strcmp (bfd_arr[i - 1]->filename, bfd_arr[i]->filename) == 0)
+         {
+           if (bfd_arr[i - 1]->my_archive == bfd_arr[i]->my_archive)
+             {
+               if (bfd_arr[i - 1]->my_archive && bfd_arr[i]->my_archive)
+                 info->callbacks->einfo (_("%s duplicated in %s\n"),
+                                         bfd_arr[i]->filename,
+                                         bfd_arr[i]->my_archive->filename);
+               else
+                 info->callbacks->einfo (_("%s duplicated\n"),
+                                         bfd_arr[i]->filename);
+               ok = FALSE;
+             }
+         }
+      if (!ok)
+       {
+         info->callbacks->einfo (_("sorry, no support for duplicate "
+                                   "object files in auto-overlay script\n"));
+         bfd_set_error (bfd_error_bad_value);
+         goto err_exit;
+       }
+    }
+  free (bfd_arr);
+
+  fixed_size += htab->reserved;
+  fixed_size += htab->non_ovly_stub * ovl_stub_size (htab->params);
+  if (fixed_size + mos_param.max_overlay_size <= htab->local_store)
+    {
+      if (htab->params->ovly_flavour == ovly_soft_icache)
+       {
+         /* Stubs in the non-icache area are bigger.  */
+         fixed_size += htab->non_ovly_stub * 16;
+         /* Space for icache manager tables.
+            a) Tag array, one quadword per cache line.
+            - word 0: ia address of present line, init to zero.  */
+         fixed_size += 16 << htab->num_lines_log2;
+         /* b) Rewrite "to" list, one quadword per cache line.  */
+         fixed_size += 16 << htab->num_lines_log2;
+         /* c) Rewrite "from" list, one byte per outgoing branch (rounded up
+               to a power-of-two number of full quadwords) per cache line.  */
+         fixed_size += 16 << (htab->fromelem_size_log2
+                              + htab->num_lines_log2);
+         /* d) Pointer to __ea backing store (toe), 1 quadword.  */
+         fixed_size += 16;
+       }
+      else
+       {
+         /* Guess number of overlays.  Assuming overlay buffer is on
+            average only half full should be conservative.  */
+         ovlynum = (total_overlay_size * 2 * htab->params->num_lines
+                    / (htab->local_store - fixed_size));
+         /* Space for _ovly_table[], _ovly_buf_table[] and toe.  */
+         fixed_size += ovlynum * 16 + 16 + 4 + 16;
+       }
+    }
+
+  if (fixed_size + mos_param.max_overlay_size > htab->local_store)
+    info->callbacks->einfo (_("non-overlay size of 0x%v plus maximum overlay "
+                             "size of 0x%v exceeds local store\n"),
+                           (bfd_vma) fixed_size,
+                           (bfd_vma) mos_param.max_overlay_size);
+
+  /* Now see if we should put some functions in the non-overlay area.  */
+  else if (fixed_size < htab->overlay_fixed)
+    {
+      unsigned int max_fixed, lib_size;
+
+      max_fixed = htab->local_store - mos_param.max_overlay_size;
+      if (max_fixed > htab->overlay_fixed)
+       max_fixed = htab->overlay_fixed;
+      lib_size = max_fixed - fixed_size;
+      lib_size = auto_ovl_lib_functions (info, lib_size);
+      if (lib_size == (unsigned int) -1)
+       goto err_exit;
+      fixed_size = max_fixed - lib_size;
+    }
+
+  /* Build an array of sections, suitably sorted to place into
+     overlays.  */
+  ovly_sections = bfd_malloc (2 * count * sizeof (*ovly_sections));
+  if (ovly_sections == NULL)
+    goto err_exit;
+  ovly_p = ovly_sections;
+  if (!for_each_node (collect_overlays, info, &ovly_p, TRUE))
+    goto err_exit;
+  count = (size_t) (ovly_p - ovly_sections) / 2;
+  ovly_map = bfd_malloc (count * sizeof (*ovly_map));
+  if (ovly_map == NULL)
+    goto err_exit;
+
+  memset (&dummy_caller, 0, sizeof (dummy_caller));
+  overlay_size = (htab->local_store - fixed_size) / htab->params->num_lines;
+  if (htab->params->line_size != 0)
+    overlay_size = htab->params->line_size;
+  base = 0;
+  ovlynum = 0;
+  while (base < count)
+    {
+      unsigned int size = 0, rosize = 0, roalign = 0;
+
+      for (i = base; i < count; i++)
+       {
+         asection *sec, *rosec;
+         unsigned int tmp, rotmp;
+         unsigned int num_stubs;
+         struct call_info *call, *pasty;
+         struct _spu_elf_section_data *sec_data;
+         struct spu_elf_stack_info *sinfo;
+         int k;
+
+         /* See whether we can add this section to the current
+            overlay without overflowing our overlay buffer.  */
+         sec = ovly_sections[2 * i];
+         tmp = align_power (size, sec->alignment_power) + sec->size;
+         rotmp = rosize;
+         rosec = ovly_sections[2 * i + 1];
+         if (rosec != NULL)
+           {
+             rotmp = align_power (rotmp, rosec->alignment_power) + rosec->size;
+             if (roalign < rosec->alignment_power)
+               roalign = rosec->alignment_power;
+           }
+         if (align_power (tmp, roalign) + rotmp > overlay_size)
+           break;
+         if (sec->segment_mark)
+           {
+             /* Pasted sections must stay together, so add their
+                sizes too.  */
+             struct call_info *pasty = find_pasted_call (sec);
+             while (pasty != NULL)
+               {
+                 struct function_info *call_fun = pasty->fun;
+                 tmp = (align_power (tmp, call_fun->sec->alignment_power)
+                        + call_fun->sec->size);
+                 if (call_fun->rodata)
+                   {
+                     rotmp = (align_power (rotmp,
+                                           call_fun->rodata->alignment_power)
+                              + call_fun->rodata->size);
+                     if (roalign < rosec->alignment_power)
+                       roalign = rosec->alignment_power;
+                   }
+                 for (pasty = call_fun->call_list; pasty; pasty = pasty->next)
+                   if (pasty->is_pasted)
+                     break;
+               }
+           }
+         if (align_power (tmp, roalign) + rotmp > overlay_size)
+           break;
 
-         if ((sec_data = spu_elf_section_data (sec)) != NULL
-             && (sinfo = sec_data->stack_info) != NULL)
+         /* If we add this section, we might need new overlay call
+            stubs.  Add any overlay section calls to dummy_call.  */
+         pasty = NULL;
+         sec_data = spu_elf_section_data (sec);
+         sinfo = sec_data->u.i.stack_info;
+         for (k = 0; k < sinfo->num_fun; ++k)
+           for (call = sinfo->fun[k].call_list; call; call = call->next)
+             if (call->is_pasted)
+               {
+                 BFD_ASSERT (pasty == NULL);
+                 pasty = call;
+               }
+             else if (call->fun->sec->linker_mark)
+               {
+                 if (!copy_callee (&dummy_caller, call))
+                   goto err_exit;
+               }
+         while (pasty != NULL)
            {
-             int i;
-             for (i = 0; i < sinfo->num_fun; ++i)
-               if (!sinfo->fun[i].non_root)
-                 call_graph_traverse (&sinfo->fun[i], info);
+             struct function_info *call_fun = pasty->fun;
+             pasty = NULL;
+             for (call = call_fun->call_list; call; call = call->next)
+               if (call->is_pasted)
+                 {
+                   BFD_ASSERT (pasty == NULL);
+                   pasty = call;
+                 }
+               else if (!copy_callee (&dummy_caller, call))
+                 goto err_exit;
            }
-       }
-    }
 
-  return TRUE;
-}
+         /* Calculate call stub size.  */
+         num_stubs = 0;
+         for (call = dummy_caller.call_list; call; call = call->next)
+           {
+             unsigned int k;
+             unsigned int stub_delta = 1;
 
-/* Descend the call graph for FUN, accumulating total stack required.  */
+             if (htab->params->ovly_flavour == ovly_soft_icache)
+               stub_delta = call->count;
+             num_stubs += stub_delta;
 
-static bfd_vma
-sum_stack (struct function_info *fun,
-          struct bfd_link_info *info,
-          int emit_stack_syms)
-{
-  struct call_info *call;
-  struct function_info *max = NULL;
-  bfd_vma max_stack = fun->stack;
-  bfd_vma stack;
-  const char *f1;
+             /* If the call is within this overlay, we won't need a
+                stub.  */
+             for (k = base; k < i + 1; k++)
+               if (call->fun->sec == ovly_sections[2 * k])
+                 {
+                   num_stubs -= stub_delta;
+                   break;
+                 }
+           }
+         if (htab->params->ovly_flavour == ovly_soft_icache
+             && num_stubs > htab->params->max_branch)
+           break;
+         if (align_power (tmp, roalign) + rotmp
+             + num_stubs * ovl_stub_size (htab->params) > overlay_size)
+           break;
+         size = tmp;
+         rosize = rotmp;
+       }
 
-  if (fun->visit3)
-    return max_stack;
+      if (i == base)
+       {
+         info->callbacks->einfo (_("%B:%A%s exceeds overlay size\n"),
+                                 ovly_sections[2 * i]->owner,
+                                 ovly_sections[2 * i],
+                                 ovly_sections[2 * i + 1] ? " + rodata" : "");
+         bfd_set_error (bfd_error_bad_value);
+         goto err_exit;
+       }
 
-  for (call = fun->call_list; call; call = call->next)
-    {
-      stack = sum_stack (call->fun, info, emit_stack_syms);
-      /* Include caller stack for normal calls, don't do so for
-        tail calls.  fun->stack here is local stack usage for
-        this function.  */
-      if (!call->is_tail)
-       stack += fun->stack;
-      if (max_stack < stack)
+      while (dummy_caller.call_list != NULL)
        {
-         max_stack = stack;
-         max = call->fun;
+         struct call_info *call = dummy_caller.call_list;
+         dummy_caller.call_list = call->next;
+         free (call);
        }
+
+      ++ovlynum;
+      while (base < i)
+       ovly_map[base++] = ovlynum;
     }
 
-  f1 = func_name (fun);
-  info->callbacks->minfo (_("%s: 0x%v 0x%v\n"), f1, fun->stack, max_stack);
+  script = htab->params->spu_elf_open_overlay_script ();
 
-  if (fun->call_list)
+  if (htab->params->ovly_flavour == ovly_soft_icache)
     {
-      info->callbacks->minfo (_("  calls:\n"));
-      for (call = fun->call_list; call; call = call->next)
+      if (fprintf (script, "SECTIONS\n{\n") <= 0)
+       goto file_err;
+
+      if (fprintf (script,
+                  " . = ALIGN (%u);\n"
+                  " .ovl.init : { *(.ovl.init) }\n"
+                  " . = ABSOLUTE (ADDR (.ovl.init));\n",
+                  htab->params->line_size) <= 0)
+       goto file_err;
+
+      base = 0;
+      ovlynum = 1;
+      while (base < count)
        {
-         const char *f2 = func_name (call->fun);
-         const char *ann1 = call->fun == max ? "*" : " ";
-         const char *ann2 = call->is_tail ? "t" : " ";
+         unsigned int indx = ovlynum - 1;
+         unsigned int vma, lma;
+
+         vma = (indx & (htab->params->num_lines - 1)) << htab->line_size_log2;
+         lma = vma + (((indx >> htab->num_lines_log2) + 1) << 18);
 
-         info->callbacks->minfo (_("   %s%s %s\n"), ann1, ann2, f2);
+         if (fprintf (script, " .ovly%u ABSOLUTE (ADDR (.ovl.init)) + %u "
+                              ": AT (LOADADDR (.ovl.init) + %u) {\n",
+                      ovlynum, vma, lma) <= 0)
+           goto file_err;
+
+         base = print_one_overlay_section (script, base, count, ovlynum,
+                                           ovly_map, ovly_sections, info);
+         if (base == (unsigned) -1)
+           goto file_err;
+
+         if (fprintf (script, "  }\n") <= 0)
+           goto file_err;
+
+         ovlynum++;
        }
-    }
 
-  /* Now fun->stack holds cumulative stack.  */
-  fun->stack = max_stack;
-  fun->visit3 = TRUE;
+      if (fprintf (script, " . = ABSOLUTE (ADDR (.ovl.init)) + %u;\n",
+                  1 << (htab->num_lines_log2 + htab->line_size_log2)) <= 0)
+       goto file_err;
 
-  if (emit_stack_syms)
+      if (fprintf (script, "}\nINSERT AFTER .toe;\n") <= 0)
+       goto file_err;
+    }
+  else
     {
-      struct spu_link_hash_table *htab = spu_hash_table (info);
-      char *name = bfd_malloc (18 + strlen (f1));
-      struct elf_link_hash_entry *h;
+      if (fprintf (script, "SECTIONS\n{\n") <= 0)
+       goto file_err;
+
+      if (fprintf (script,
+                  " . = ALIGN (16);\n"
+                  " .ovl.init : { *(.ovl.init) }\n"
+                  " . = ABSOLUTE (ADDR (.ovl.init));\n") <= 0)
+       goto file_err;
 
-      if (name != NULL)
+      for (region = 1; region <= htab->params->num_lines; region++)
        {
-         if (fun->global || ELF_ST_BIND (fun->u.sym->st_info) == STB_GLOBAL)
-           sprintf (name, "__stack_%s", f1);
+         ovlynum = region;
+         base = 0;
+         while (base < count && ovly_map[base] < ovlynum)
+           base++;
+
+         if (base == count)
+           break;
+
+         if (region == 1)
+           {
+             /* We need to set lma since we are overlaying .ovl.init.  */
+             if (fprintf (script,
+                          " OVERLAY : AT (ALIGN (LOADADDR (.ovl.init) + SIZEOF (.ovl.init), 16))\n {\n") <= 0)
+               goto file_err;
+           }
          else
-           sprintf (name, "__stack_%x_%s", fun->sec->id & 0xffffffff, f1);
+           {
+             if (fprintf (script, " OVERLAY :\n {\n") <= 0)
+               goto file_err;
+           }
 
-         h = elf_link_hash_lookup (&htab->elf, name, TRUE, TRUE, FALSE);
-         free (name);
-         if (h != NULL
-             && (h->root.type == bfd_link_hash_new
-                 || h->root.type == bfd_link_hash_undefined
-                 || h->root.type == bfd_link_hash_undefweak))
+         while (base < count)
            {
-             h->root.type = bfd_link_hash_defined;
-             h->root.u.def.section = bfd_abs_section_ptr;
-             h->root.u.def.value = max_stack;
-             h->size = 0;
-             h->type = 0;
-             h->ref_regular = 1;
-             h->def_regular = 1;
-             h->ref_regular_nonweak = 1;
-             h->forced_local = 1;
-             h->non_elf = 0;
+             if (fprintf (script, "  .ovly%u {\n", ovlynum) <= 0)
+               goto file_err;
+
+             base = print_one_overlay_section (script, base, count, ovlynum,
+                                               ovly_map, ovly_sections, info);
+             if (base == (unsigned) -1)
+               goto file_err;
+
+             if (fprintf (script, "  }\n") <= 0)
+               goto file_err;
+
+             ovlynum += htab->params->num_lines;
+             while (base < count && ovly_map[base] < ovlynum)
+               base++;
            }
+
+         if (fprintf (script, " }\n") <= 0)
+           goto file_err;
        }
+
+      if (fprintf (script, "}\nINSERT BEFORE .text;\n") <= 0)
+       goto file_err;
     }
 
-  return max_stack;
+  free (ovly_map);
+  free (ovly_sections);
+
+  if (fclose (script) != 0)
+    goto file_err;
+
+  if (htab->params->auto_overlay & AUTO_RELINK)
+    (*htab->params->spu_elf_relink) ();
+
+  xexit (0);
+
+ file_err:
+  bfd_set_error (bfd_error_system_call);
+ err_exit:
+  info->callbacks->einfo ("%F%P: auto overlay error: %E\n");
+  xexit (1);
 }
 
 /* Provide an estimate of total stack required.  */
 
 static bfd_boolean
-spu_elf_stack_analysis (bfd *output_bfd,
-                       struct bfd_link_info *info,
-                       int emit_stack_syms)
+spu_elf_stack_analysis (struct bfd_link_info *info)
 {
-  bfd *ibfd;
-  bfd_vma max_stack = 0;
+  struct spu_link_hash_table *htab;
+  struct _sum_stack_param sum_stack_param;
 
-  if (!discover_functions (output_bfd, info))
+  if (!discover_functions (info))
     return FALSE;
 
-  if (!build_call_tree (output_bfd, info))
+  if (!build_call_tree (info))
     return FALSE;
 
-  info->callbacks->info (_("Stack size for call graph root nodes.\n"));
-  info->callbacks->minfo (_("\nStack size for functions.  "
-                           "Annotations: '*' max stack, 't' tail call\n"));
-  for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+  htab = spu_hash_table (info);
+  if (htab->params->stack_analysis)
     {
-      extern const bfd_target bfd_elf32_spu_vec;
-      asection *sec;
-
-      if (ibfd->xvec != &bfd_elf32_spu_vec)
-       continue;
-
-      for (sec = ibfd->sections; sec != NULL; sec = sec->next)
-       {
-         struct _spu_elf_section_data *sec_data;
-         struct spu_elf_stack_info *sinfo;
-
-         if ((sec_data = spu_elf_section_data (sec)) != NULL
-             && (sinfo = sec_data->stack_info) != NULL)
-           {
-             int i;
-             for (i = 0; i < sinfo->num_fun; ++i)
-               {
-                 if (!sinfo->fun[i].non_root)
-                   {
-                     bfd_vma stack;
-                     const char *f1;
-
-                     stack = sum_stack (&sinfo->fun[i], info,
-                                        emit_stack_syms);
-                     f1 = func_name (&sinfo->fun[i]);
-                     info->callbacks->info (_("  %s: 0x%v\n"),
-                                             f1, stack);
-                     if (max_stack < stack)
-                       max_stack = stack;
-                   }
-               }
-           }
-       }
+      info->callbacks->info (_("Stack size for call graph root nodes.\n"));
+      info->callbacks->minfo (_("\nStack size for functions.  "
+                               "Annotations: '*' max stack, 't' tail call\n"));
     }
 
-  info->callbacks->info (_("Maximum stack required is 0x%v\n"), max_stack);
+  sum_stack_param.emit_stack_syms = htab->params->emit_stack_syms;
+  sum_stack_param.overall_stack = 0;
+  if (!for_each_node (sum_stack, info, &sum_stack_param, TRUE))
+    return FALSE;
+
+  if (htab->params->stack_analysis)
+    info->callbacks->info (_("Maximum stack required is 0x%v\n"),
+                          (bfd_vma) sum_stack_param.overall_stack);
   return TRUE;
 }
 
@@ -2633,9 +4693,17 @@ spu_elf_final_link (bfd *output_bfd, struct bfd_link_info *info)
 {
   struct spu_link_hash_table *htab = spu_hash_table (info);
 
-  if (htab->stack_analysis
-      && !spu_elf_stack_analysis (output_bfd, info, htab->emit_stack_syms))
-    info->callbacks->einfo ("%X%P: stack analysis error: %E\n");
+  if (htab->params->auto_overlay)
+    spu_elf_auto_overlay (info);
+
+  if ((htab->params->stack_analysis
+       || (htab->params->ovly_flavour == ovly_soft_icache
+          && htab->params->lrlive_analysis))
+      && !spu_elf_stack_analysis (info))
+    info->callbacks->einfo ("%X%P: stack/lrlive analysis error: %E\n");
+
+  if (!spu_elf_build_stubs (info))
+    info->callbacks->einfo ("%F%P: can not build overlay stubs: %E\n");
 
   return bfd_elf_final_link (output_bfd, info);
 }
@@ -2645,24 +4713,77 @@ spu_elf_final_link (bfd *output_bfd, struct bfd_link_info *info)
    that need to be emitted.  */
 
 static unsigned int
-spu_elf_count_relocs (asection *sec, Elf_Internal_Rela *relocs)
+spu_elf_count_relocs (struct bfd_link_info *info, asection *sec)
 {
+  Elf_Internal_Rela *relocs;
   unsigned int count = 0;
-  Elf_Internal_Rela *relend = relocs + sec->reloc_count;
 
-  for (; relocs < relend; relocs++)
+  relocs = _bfd_elf_link_read_relocs (sec->owner, sec, NULL, NULL,
+                                     info->keep_memory);
+  if (relocs != NULL)
     {
-      int r_type = ELF32_R_TYPE (relocs->r_info);
-      if (r_type == R_SPU_PPU32 || r_type == R_SPU_PPU64)
-       ++count;
+      Elf_Internal_Rela *rel;
+      Elf_Internal_Rela *relend = relocs + sec->reloc_count;
+
+      for (rel = relocs; rel < relend; rel++)
+       {
+         int r_type = ELF32_R_TYPE (rel->r_info);
+         if (r_type == R_SPU_PPU32 || r_type == R_SPU_PPU64)
+           ++count;
+       }
+
+      if (elf_section_data (sec)->relocs != relocs)
+       free (relocs);
     }
 
   return count;
 }
 
+/* Functions for adding fixup records to .fixup */
+
+#define FIXUP_RECORD_SIZE 4
+
+#define FIXUP_PUT(output_bfd,htab,index,addr) \
+         bfd_put_32 (output_bfd, addr, \
+                     htab->sfixup->contents + FIXUP_RECORD_SIZE * (index))
+#define FIXUP_GET(output_bfd,htab,index) \
+         bfd_get_32 (output_bfd, \
+                     htab->sfixup->contents + FIXUP_RECORD_SIZE * (index))
+
+/* Store OFFSET in .fixup.  This assumes it will be called with an
+   increasing OFFSET.  When this OFFSET fits with the last base offset,
+   it just sets a bit, otherwise it adds a new fixup record.  */
+static void
+spu_elf_emit_fixup (bfd * output_bfd, struct bfd_link_info *info,
+                   bfd_vma offset)
+{
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  asection *sfixup = htab->sfixup;
+  bfd_vma qaddr = offset & ~(bfd_vma) 15;
+  bfd_vma bit = ((bfd_vma) 8) >> ((offset & 15) >> 2);
+  if (sfixup->reloc_count == 0)
+    {
+      FIXUP_PUT (output_bfd, htab, 0, qaddr | bit);
+      sfixup->reloc_count++;
+    }
+  else
+    {
+      bfd_vma base = FIXUP_GET (output_bfd, htab, sfixup->reloc_count - 1);
+      if (qaddr != (base & ~(bfd_vma) 15))
+       {
+         if ((sfixup->reloc_count + 1) * FIXUP_RECORD_SIZE > sfixup->size)
+           (*_bfd_error_handler) (_("fatal error while creating .fixup"));
+         FIXUP_PUT (output_bfd, htab, sfixup->reloc_count, qaddr | bit);
+         sfixup->reloc_count++;
+       }
+      else
+       FIXUP_PUT (output_bfd, htab, sfixup->reloc_count - 1, base | bit);
+    }
+}
+
 /* Apply RELOCS to CONTENTS of INPUT_SECTION from INPUT_BFD.  */
 
-static bfd_boolean
+static int
 spu_elf_relocate_section (bfd *output_bfd,
                          struct bfd_link_info *info,
                          bfd *input_bfd,
@@ -2676,10 +4797,18 @@ spu_elf_relocate_section (bfd *output_bfd,
   struct elf_link_hash_entry **sym_hashes;
   Elf_Internal_Rela *rel, *relend;
   struct spu_link_hash_table *htab;
-  bfd_boolean ret = TRUE;
+  asection *ea;
+  int ret = TRUE;
   bfd_boolean emit_these_relocs = FALSE;
+  bfd_boolean is_ea_sym;
+  bfd_boolean stubs;
+  unsigned int iovl = 0;
 
   htab = spu_hash_table (info);
+  stubs = (htab->stub_sec != NULL
+          && maybe_needs_stubs (input_section));
+  iovl = overlay_index (input_section);
+  ea = bfd_get_section_by_name (output_bfd, "._ea");
   symtab_hdr = &elf_tdata (input_bfd)->symtab_hdr;
   sym_hashes = (struct elf_link_hash_entry **) (elf_sym_hashes (input_bfd));
 
@@ -2689,7 +4818,7 @@ spu_elf_relocate_section (bfd *output_bfd,
     {
       int r_type;
       reloc_howto_type *howto;
-      unsigned long r_symndx;
+      unsigned int r_symndx;
       Elf_Internal_Sym *sym;
       asection *sec;
       struct elf_link_hash_entry *h;
@@ -2699,16 +4828,10 @@ spu_elf_relocate_section (bfd *output_bfd,
       bfd_reloc_status_type r;
       bfd_boolean unresolved_reloc;
       bfd_boolean warned;
-      bfd_boolean branch;
+      enum _stub_type stub_type;
 
       r_symndx = ELF32_R_SYM (rel->r_info);
       r_type = ELF32_R_TYPE (rel->r_info);
-      if (r_type == R_SPU_PPU32 || r_type == R_SPU_PPU64)
-       {
-         emit_these_relocs = TRUE;
-         continue;
-       }
-
       howto = elf_howto_table + r_type;
       unresolved_reloc = FALSE;
       warned = FALSE;
@@ -2724,10 +4847,51 @@ spu_elf_relocate_section (bfd *output_bfd,
        }
       else
        {
-         RELOC_FOR_GLOBAL_SYMBOL (info, input_bfd, input_section, rel,
-                                  r_symndx, symtab_hdr, sym_hashes,
-                                  h, sec, relocation,
-                                  unresolved_reloc, warned);
+         if (sym_hashes == NULL)
+           return FALSE;
+
+         h = sym_hashes[r_symndx - symtab_hdr->sh_info];
+
+         while (h->root.type == bfd_link_hash_indirect
+                || h->root.type == bfd_link_hash_warning)
+           h = (struct elf_link_hash_entry *) h->root.u.i.link;
+
+         relocation = 0;
+         if (h->root.type == bfd_link_hash_defined
+             || h->root.type == bfd_link_hash_defweak)
+           {
+             sec = h->root.u.def.section;
+             if (sec == NULL
+                 || sec->output_section == NULL)
+               /* Set a flag that will be cleared later if we find a
+                  relocation value for this symbol.  output_section
+                  is typically NULL for symbols satisfied by a shared
+                  library.  */
+               unresolved_reloc = TRUE;
+             else
+               relocation = (h->root.u.def.value
+                             + sec->output_section->vma
+                             + sec->output_offset);
+           }
+         else if (h->root.type == bfd_link_hash_undefweak)
+           ;
+         else if (info->unresolved_syms_in_objects == RM_IGNORE
+                  && ELF_ST_VISIBILITY (h->other) == STV_DEFAULT)
+           ;
+         else if (!info->relocatable
+                  && !(r_type == R_SPU_PPU32 || r_type == R_SPU_PPU64))
+           {
+             bfd_boolean err;
+             err = (info->unresolved_syms_in_objects == RM_GENERATE_ERROR
+                    || ELF_ST_VISIBILITY (h->other) != STV_DEFAULT);
+             if (!info->callbacks->undefined_symbol (info,
+                                                     h->root.root.string,
+                                                     input_bfd,
+                                                     input_section,
+                                                     rel->r_offset, err))
+               return FALSE;
+             warned = TRUE;
+           }
          sym_name = h->root.root.string;
        }
 
@@ -2745,42 +4909,114 @@ spu_elf_relocate_section (bfd *output_bfd,
       if (info->relocatable)
        continue;
 
-      if (unresolved_reloc)
+      /* Change "a rt,ra,rb" to "ai rt,ra,0". */
+      if (r_type == R_SPU_ADD_PIC
+         && h != NULL
+         && !(h->def_regular || ELF_COMMON_DEF_P (h)))
        {
-         (*_bfd_error_handler)
-           (_("%B(%s+0x%lx): unresolvable %s relocation against symbol `%s'"),
-            input_bfd,
-            bfd_get_section_name (input_bfd, input_section),
-            (long) rel->r_offset,
-            howto->name,
-            sym_name);
-         ret = FALSE;
+         bfd_byte *loc = contents + rel->r_offset;
+         loc[0] = 0x1c; 
+         loc[1] = 0x00; 
+         loc[2] &= 0x3f;
        }
 
+      is_ea_sym = (ea != NULL
+                  && sec != NULL
+                  && sec->output_section == ea);
+
       /* If this symbol is in an overlay area, we may need to relocate
         to the overlay stub.  */
       addend = rel->r_addend;
-      branch = (is_branch (contents + rel->r_offset)
-               || is_hint (contents + rel->r_offset));
-      if (needs_ovl_stub (sym_name, sec, input_section, htab, branch))
+      if (stubs
+         && !is_ea_sym
+         && (stub_type = needs_ovl_stub (h, sym, sec, input_section, rel,
+                                         contents, info)) != no_stub)
        {
-         char *stub_name;
-         struct spu_stub_hash_entry *sh;
+         unsigned int ovl = 0;
+         struct got_entry *g, **head;
 
-         stub_name = spu_stub_name (sec, h, rel);
-         if (stub_name == NULL)
-           return FALSE;
+         if (stub_type != nonovl_stub)
+           ovl = iovl;
+
+         if (h != NULL)
+           head = &h->got.glist;
+         else
+           head = elf_local_got_ents (input_bfd) + r_symndx;
+
+         for (g = *head; g != NULL; g = g->next)
+           if (htab->params->ovly_flavour == ovly_soft_icache
+               ? (g->ovl == ovl
+                  && g->br_addr == (rel->r_offset
+                                    + input_section->output_offset
+                                    + input_section->output_section->vma))
+               : g->addend == addend && (g->ovl == ovl || g->ovl == 0))
+             break;
+         if (g == NULL)
+           abort ();
+
+         relocation = g->stub_addr;
+         addend = 0;
+       }
+      else
+       {
+         /* For soft icache, encode the overlay index into addresses.  */
+         if (htab->params->ovly_flavour == ovly_soft_icache
+             && (r_type == R_SPU_ADDR16_HI
+                 || r_type == R_SPU_ADDR32 || r_type == R_SPU_REL32)
+             && !is_ea_sym)
+           {
+             unsigned int ovl = overlay_index (sec);
+             if (ovl != 0)
+               {
+                 unsigned int set_id = ((ovl - 1) >> htab->num_lines_log2) + 1;
+                 relocation += set_id << 18;
+               }
+           }
+       }
+
+      if (htab->params->emit_fixups && !info->relocatable
+         && (input_section->flags & SEC_ALLOC) != 0
+         && r_type == R_SPU_ADDR32)
+       {
+         bfd_vma offset;
+         offset = rel->r_offset + input_section->output_section->vma
+                  + input_section->output_offset;
+         spu_elf_emit_fixup (output_bfd, info, offset);
+       }
 
-         sh = (struct spu_stub_hash_entry *)
-           bfd_hash_lookup (&htab->stub_hash_table, stub_name, FALSE, FALSE);
-         if (sh != NULL)
+      if (unresolved_reloc)
+       ;
+      else if (r_type == R_SPU_PPU32 || r_type == R_SPU_PPU64)
+       {
+         if (is_ea_sym)
            {
-             relocation = (htab->stub->output_section->vma
-                           + htab->stub->output_offset
-                           + sh->off);
-             addend = 0;
+             /* ._ea is a special section that isn't allocated in SPU
+                memory, but rather occupies space in PPU memory as
+                part of an embedded ELF image.  If this reloc is
+                against a symbol defined in ._ea, then transform the
+                reloc into an equivalent one without a symbol
+                relative to the start of the ELF image.  */
+             rel->r_addend += (relocation
+                               - ea->vma
+                               + elf_section_data (ea)->this_hdr.sh_offset);
+             rel->r_info = ELF32_R_INFO (0, r_type);
            }
-         free (stub_name);
+         emit_these_relocs = TRUE;
+         continue;
+       }
+      else if (is_ea_sym)
+       unresolved_reloc = TRUE;
+
+      if (unresolved_reloc)
+       {
+         (*_bfd_error_handler)
+           (_("%B(%s+0x%lx): unresolvable %s relocation against symbol `%s'"),
+            input_bfd,
+            bfd_get_section_name (input_bfd, input_section),
+            (long) rel->r_offset,
+            howto->name,
+            sym_name);
+         ret = FALSE;
        }
 
       r = _bfd_final_link_relocate (howto,
@@ -2826,6 +5062,7 @@ spu_elf_relocate_section (bfd *output_bfd,
              /* fall through */
 
            common_error:
+             ret = FALSE;
              if (!((*info->callbacks->warning)
                    (info, msg, sym_name, input_bfd, input_section,
                     rel->r_offset)))
@@ -2837,7 +5074,6 @@ spu_elf_relocate_section (bfd *output_bfd,
 
   if (ret
       && emit_these_relocs
-      && !info->relocatable
       && !info->emitrelocations)
     {
       Elf_Internal_Rela *wrel;
@@ -2865,7 +5101,7 @@ spu_elf_relocate_section (bfd *output_bfd,
 
 /* Adjust _SPUEAR_ syms to point at their overlay stubs.  */
 
-static bfd_boolean
+static int
 spu_elf_output_symbol_hook (struct bfd_link_info *info,
                            const char *sym_name ATTRIBUTE_UNUSED,
                            Elf_Internal_Sym *sym,
@@ -2875,33 +5111,29 @@ spu_elf_output_symbol_hook (struct bfd_link_info *info,
   struct spu_link_hash_table *htab = spu_hash_table (info);
 
   if (!info->relocatable
-      && htab->num_overlays != 0
+      && htab->stub_sec != NULL
       && h != NULL
       && (h->root.type == bfd_link_hash_defined
          || h->root.type == bfd_link_hash_defweak)
       && h->def_regular
       && strncmp (h->root.root.string, "_SPUEAR_", 8) == 0)
     {
-      static Elf_Internal_Rela zero_rel;
-      char *stub_name = spu_stub_name (h->root.u.def.section, h, &zero_rel);
-      struct spu_stub_hash_entry *sh;
+      struct got_entry *g;
 
-      if (stub_name == NULL)
-       return FALSE;
-      sh = (struct spu_stub_hash_entry *)
-       bfd_hash_lookup (&htab->stub_hash_table, stub_name, FALSE, FALSE);
-      free (stub_name);
-      if (sh == NULL)
-       return TRUE;
-      sym->st_shndx
-       = _bfd_elf_section_from_bfd_section (htab->stub->output_section->owner,
-                                            htab->stub->output_section);
-      sym->st_value = (htab->stub->output_section->vma
-                      + htab->stub->output_offset
-                      + sh->off);
+      for (g = h->got.glist; g != NULL; g = g->next)
+       if (htab->params->ovly_flavour == ovly_soft_icache
+           ? g->br_addr == g->stub_addr
+           : g->addend == 0 && g->ovl == 0)
+         {
+           sym->st_shndx = (_bfd_elf_section_from_bfd_section
+                            (htab->stub_sec[0]->output_section->owner,
+                             htab->stub_sec[0]->output_section));
+           sym->st_value = g->stub_addr;
+           break;
+         }
     }
 
-  return TRUE;
+  return 1;
 }
 
 static int spu_plugin = 0;
@@ -2932,10 +5164,15 @@ spu_elf_post_process_headers (bfd *abfd,
 static int
 spu_elf_additional_program_headers (bfd *abfd, struct bfd_link_info *info)
 {
-  struct spu_link_hash_table *htab = spu_hash_table (info);
-  int extra = htab->num_overlays;
+  int extra = 0;
   asection *sec;
 
+  if (info != NULL)
+    {
+      struct spu_link_hash_table *htab = spu_hash_table (info);
+      extra = htab->num_overlays;
+    }
+
   if (extra)
     ++extra;
 
@@ -2953,7 +5190,8 @@ static bfd_boolean
 spu_elf_modify_segment_map (bfd *abfd, struct bfd_link_info *info)
 {
   asection *toe, *s;
-  struct elf_segment_map *m;
+  struct elf_segment_map *m, *m_overlay;
+  struct elf_segment_map **p, **p_overlay;
   unsigned int i;
 
   if (info == NULL)
@@ -2964,7 +5202,7 @@ spu_elf_modify_segment_map (bfd *abfd, struct bfd_link_info *info)
     if (m->p_type == PT_LOAD && m->count > 1)
       for (i = 0; i < m->count; i++)
        if ((s = m->sections[i]) == toe
-           || spu_elf_section_data (s)->ovl_index != 0)
+           || spu_elf_section_data (s)->u.o.ovl_index != 0)
          {
            struct elf_segment_map *m2;
            bfd_vma amt;
@@ -3000,28 +5238,38 @@ spu_elf_modify_segment_map (bfd *abfd, struct bfd_link_info *info)
            break;
          }
 
-  return TRUE;
-}
 
-/* Check that all loadable section VMAs lie in the range
-   LO .. HI inclusive.  */
+  /* Some SPU ELF loaders ignore the PF_OVERLAY flag and just load all
+     PT_LOAD segments.  This can cause the .ovl.init section to be
+     overwritten with the contents of some overlay segment.  To work
+     around this issue, we ensure that all PF_OVERLAY segments are
+     sorted first amongst the program headers; this ensures that even
+     with a broken loader, the .ovl.init section (which is not marked
+     as PF_OVERLAY) will be placed into SPU local store on startup.  */
 
-asection *
-spu_elf_check_vma (bfd *abfd, bfd_vma lo, bfd_vma hi)
-{
-  struct elf_segment_map *m;
-  unsigned int i;
+  /* Move all overlay segments onto a separate list.  */
+  p = &elf_tdata (abfd)->segment_map;
+  p_overlay = &m_overlay;
+  while (*p != NULL)
+    {
+      if ((*p)->p_type == PT_LOAD && (*p)->count == 1
+         && spu_elf_section_data ((*p)->sections[0])->u.o.ovl_index != 0)
+       {
+         struct elf_segment_map *m = *p;
+         *p = m->next;
+         *p_overlay = m;
+         p_overlay = &m->next;
+         continue;
+       }
 
-  for (m = elf_tdata (abfd)->segment_map; m != NULL; m = m->next)
-    if (m->p_type == PT_LOAD)
-      for (i = 0; i < m->count; i++)
-       if (m->sections[i]->size != 0
-           && (m->sections[i]->vma < lo
-               || m->sections[i]->vma > hi
-               || m->sections[i]->vma + m->sections[i]->size - 1 > hi))
-         return m->sections[i];
+      p = &((*p)->next);
+    }
 
-  return NULL;
+  /* Re-insert overlay segments at the head of the segment map.  */
+  *p_overlay = elf_tdata (abfd)->segment_map;
+  elf_tdata (abfd)->segment_map = m_overlay;
+
+  return TRUE;
 }
 
 /* Tweak the section type of .note.spu_name.  */
@@ -3063,20 +5311,28 @@ spu_elf_modify_program_headers (bfd *abfd, struct bfd_link_info *info)
 
       for (i = 0, m = elf_tdata (abfd)->segment_map; m; ++i, m = m->next)
        if (m->count != 0
-           && (o = spu_elf_section_data (m->sections[0])->ovl_index) != 0)
+           && (o = spu_elf_section_data (m->sections[0])->u.o.ovl_index) != 0)
          {
            /* Mark this as an overlay header.  */
            phdr[i].p_flags |= PF_OVERLAY;
 
-           if (htab->ovtab != NULL && htab->ovtab->size != 0)
+           if (htab->ovtab != NULL && htab->ovtab->size != 0
+               && htab->params->ovly_flavour != ovly_soft_icache)
              {
                bfd_byte *p = htab->ovtab->contents;
-               unsigned int off = (o - 1) * 16 + 8;
+               unsigned int off = o * 16 + 8;
 
                /* Write file_off into _ovly_table.  */
                bfd_put_32 (htab->ovtab->owner, phdr[i].p_offset, p + off);
              }
          }
+      /* Soft-icache has its file offset put in .ovl.init.  */
+      if (htab->init != NULL && htab->init->size != 0)
+       {
+         bfd_vma val = elf_section_data (htab->ovl_sec[0])->this_hdr.sh_offset;
+
+         bfd_put_32 (htab->init->owner, val, htab->init->contents + 4);
+       }
     }
 
   /* Round up p_filesz and p_memsz of PT_LOAD segments to multiples
@@ -3123,6 +5379,72 @@ spu_elf_modify_program_headers (bfd *abfd, struct bfd_link_info *info)
   return TRUE;
 }
 
+bfd_boolean
+spu_elf_size_sections (bfd * output_bfd, struct bfd_link_info *info)
+{
+  struct spu_link_hash_table *htab = spu_hash_table (info);
+  if (htab->params->emit_fixups)
+    {
+      asection *sfixup = htab->sfixup;
+      int fixup_count = 0;
+      bfd *ibfd;
+      size_t size;
+
+      for (ibfd = info->input_bfds; ibfd != NULL; ibfd = ibfd->link_next)
+       {
+         asection *isec;
+
+         if (bfd_get_flavour (ibfd) != bfd_target_elf_flavour)
+           continue;
+
+         /* Walk over each section attached to the input bfd.  */
+         for (isec = ibfd->sections; isec != NULL; isec = isec->next)
+           {
+             Elf_Internal_Rela *internal_relocs, *irelaend, *irela;
+             bfd_vma base_end;
+
+             /* If there aren't any relocs, then there's nothing more
+                to do.  */
+             if ((isec->flags & SEC_RELOC) == 0
+                 || isec->reloc_count == 0)
+               continue;
+
+             /* Get the relocs.  */
+             internal_relocs =
+               _bfd_elf_link_read_relocs (ibfd, isec, NULL, NULL,
+                                          info->keep_memory);
+             if (internal_relocs == NULL)
+               return FALSE;
+
+             /* 1 quadword can contain up to 4 R_SPU_ADDR32
+                relocations.  They are stored in a single word by
+                saving the upper 28 bits of the address and setting the
+                lower 4 bits to a bit mask of the words that have the
+                relocation.  BASE_END keeps track of the next quadword. */
+             irela = internal_relocs;
+             irelaend = irela + isec->reloc_count;
+             base_end = 0;
+             for (; irela < irelaend; irela++)
+               if (ELF32_R_TYPE (irela->r_info) == R_SPU_ADDR32
+                   && irela->r_offset >= base_end)
+                 {
+                   base_end = (irela->r_offset & ~(bfd_vma) 15) + 16;
+                   fixup_count++;
+                 }
+           }
+       }
+
+      /* We always have a NULL fixup as a sentinel */
+      size = (fixup_count + 1) * FIXUP_RECORD_SIZE;
+      if (!bfd_set_section_size (output_bfd, sfixup, size))
+       return FALSE;
+      sfixup->contents = (bfd_byte *) bfd_zalloc (info->input_bfds, size);
+      if (sfixup->contents == NULL)
+       return FALSE;
+    }
+  return TRUE;
+}
+
 #define TARGET_BIG_SYM         bfd_elf32_spu_vec
 #define TARGET_BIG_NAME                "elf32-spu"
 #define ELF_ARCH               bfd_arch_spu
@@ -3133,15 +5455,15 @@ spu_elf_modify_program_headers (bfd *abfd, struct bfd_link_info *info)
 #define elf_backend_can_gc_sections    1
 
 #define bfd_elf32_bfd_reloc_type_lookup                spu_elf_reloc_type_lookup
-#define bfd_elf32_bfd_reloc_name_lookup        spu_elf_reloc_name_lookup
+#define bfd_elf32_bfd_reloc_name_lookup                spu_elf_reloc_name_lookup
 #define elf_info_to_howto                      spu_elf_info_to_howto
 #define elf_backend_count_relocs               spu_elf_count_relocs
 #define elf_backend_relocate_section           spu_elf_relocate_section
 #define elf_backend_symbol_processing          spu_elf_backend_symbol_processing
 #define elf_backend_link_output_symbol_hook    spu_elf_output_symbol_hook
+#define elf_backend_object_p                   spu_elf_object_p
 #define bfd_elf32_new_section_hook             spu_elf_new_section_hook
 #define bfd_elf32_bfd_link_hash_table_create   spu_elf_link_hash_table_create
-#define bfd_elf32_bfd_link_hash_table_free     spu_elf_link_hash_table_free
 
 #define elf_backend_additional_program_headers spu_elf_additional_program_headers
 #define elf_backend_modify_segment_map         spu_elf_modify_segment_map