]> oss.titaniummirror.com Git - msp430-gcc.git/blobdiff - gmp/mpn/x86_64/copyi.asm
Imported gcc-4.4.3
[msp430-gcc.git] / gmp / mpn / x86_64 / copyi.asm
diff --git a/gmp/mpn/x86_64/copyi.asm b/gmp/mpn/x86_64/copyi.asm
new file mode 100644 (file)
index 0000000..506142b
--- /dev/null
@@ -0,0 +1,73 @@
+dnl  AMD64 mpn_copyi -- copy limb vector, incrementing.
+
+dnl  Copyright 2003, 2005, 2007 Free Software Foundation, Inc.
+
+dnl  This file is part of the GNU MP Library.
+
+dnl  The GNU MP Library is free software; you can redistribute it and/or modify
+dnl  it under the terms of the GNU Lesser General Public License as published
+dnl  by the Free Software Foundation; either version 3 of the License, or (at
+dnl  your option) any later version.
+
+dnl  The GNU MP Library is distributed in the hope that it will be useful, but
+dnl  WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY
+dnl  or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU Lesser General Public
+dnl  License for more details.
+
+dnl  You should have received a copy of the GNU Lesser General Public License
+dnl  along with the GNU MP Library.  If not, see http://www.gnu.org/licenses/.
+
+include(`../config.m4')
+
+
+C          cycles/limb
+C K8,K9:       1
+C K10:         1
+C P4:          2.8
+C P6-15:       1.2
+
+
+C INPUT PARAMETERS
+C rp   rdi
+C up   rsi
+C n    rdx
+
+define(`rp',`%rdi')
+define(`up',`%rsi')
+define(`n',`%rdx')
+
+ASM_START()
+       TEXT
+       ALIGN(16)
+PROLOGUE(mpn_copyi)
+       leaq    -8(rp), rp
+       subq    $4, n
+       jc      L(end)
+       ALIGN(16)
+L(oop):        movq    (up), %r8
+       movq    8(up), %r9
+       leaq    32(rp), rp
+       movq    16(up), %r10
+       movq    24(up), %r11
+       leaq    32(up), up
+       movq    %r8, -24(rp)
+       movq    %r9, -16(rp)
+       subq    $4, n
+       movq    %r10, -8(rp)
+       movq    %r11, (rp)
+       jnc     L(oop)
+
+L(end):        shrl    %edx                    C edx = lowpart(n)
+       jnc     1f
+       movq    (up), %r8
+       movq    %r8, 8(rp)
+       leaq    8(rp), rp
+       leaq    8(up), up
+1:     shrl    %edx                    C edx = lowpart(n)
+       jnc     1f
+       movq    (up), %r8
+       movq    8(up), %r9
+       movq    %r8, 8(rp)
+       movq    %r9, 16(rp)
+1:     ret
+EPILOGUE()