Index: openssl/crypto/aes/asm/aesni-sha1-x86_64.S |
diff --git a/openssl/crypto/aes/asm/aesni-sha1-x86_64.S b/openssl/crypto/aes/asm/aesni-sha1-x86_64.S |
deleted file mode 100644 |
index 32fd600b92255fecffef6789beb5b7749c3112fb..0000000000000000000000000000000000000000 |
--- a/openssl/crypto/aes/asm/aesni-sha1-x86_64.S |
+++ /dev/null |
@@ -1,1396 +0,0 @@ |
-.text |
- |
- |
-.globl aesni_cbc_sha1_enc |
-.type aesni_cbc_sha1_enc,@function |
-.align 16 |
-aesni_cbc_sha1_enc: |
- |
- movl OPENSSL_ia32cap_P+0(%rip),%r10d |
- movl OPENSSL_ia32cap_P+4(%rip),%r11d |
- jmp aesni_cbc_sha1_enc_ssse3 |
- .byte 0xf3,0xc3 |
-.size aesni_cbc_sha1_enc,.-aesni_cbc_sha1_enc |
-.type aesni_cbc_sha1_enc_ssse3,@function |
-.align 16 |
-aesni_cbc_sha1_enc_ssse3: |
- movq 8(%rsp),%r10 |
- |
- |
- pushq %rbx |
- pushq %rbp |
- pushq %r12 |
- pushq %r13 |
- pushq %r14 |
- pushq %r15 |
- leaq -104(%rsp),%rsp |
- |
- |
- movq %rdi,%r12 |
- movq %rsi,%r13 |
- movq %rdx,%r14 |
- movq %rcx,%r15 |
- movdqu (%r8),%xmm11 |
- movq %r8,88(%rsp) |
- shlq $6,%r14 |
- subq %r12,%r13 |
- movl 240(%r15),%r8d |
- addq %r10,%r14 |
- |
- leaq K_XX_XX(%rip),%r11 |
- movl 0(%r9),%eax |
- movl 4(%r9),%ebx |
- movl 8(%r9),%ecx |
- movl 12(%r9),%edx |
- movl %ebx,%esi |
- movl 16(%r9),%ebp |
- |
- movdqa 64(%r11),%xmm6 |
- movdqa 0(%r11),%xmm9 |
- movdqu 0(%r10),%xmm0 |
- movdqu 16(%r10),%xmm1 |
- movdqu 32(%r10),%xmm2 |
- movdqu 48(%r10),%xmm3 |
-.byte 102,15,56,0,198 |
- addq $64,%r10 |
-.byte 102,15,56,0,206 |
-.byte 102,15,56,0,214 |
-.byte 102,15,56,0,222 |
- paddd %xmm9,%xmm0 |
- paddd %xmm9,%xmm1 |
- paddd %xmm9,%xmm2 |
- movdqa %xmm0,0(%rsp) |
- psubd %xmm9,%xmm0 |
- movdqa %xmm1,16(%rsp) |
- psubd %xmm9,%xmm1 |
- movdqa %xmm2,32(%rsp) |
- psubd %xmm9,%xmm2 |
- movups (%r15),%xmm13 |
- movups 16(%r15),%xmm14 |
- jmp .Loop_ssse3 |
-.align 16 |
-.Loop_ssse3: |
- movdqa %xmm1,%xmm4 |
- addl 0(%rsp),%ebp |
- movups 0(%r12),%xmm12 |
- xorps %xmm13,%xmm12 |
- xorps %xmm12,%xmm11 |
-.byte 102,69,15,56,220,222 |
- movups 32(%r15),%xmm15 |
- xorl %edx,%ecx |
- movdqa %xmm3,%xmm8 |
-.byte 102,15,58,15,224,8 |
- movl %eax,%edi |
- roll $5,%eax |
- paddd %xmm3,%xmm9 |
- andl %ecx,%esi |
- xorl %edx,%ecx |
- psrldq $4,%xmm8 |
- xorl %edx,%esi |
- addl %eax,%ebp |
- pxor %xmm0,%xmm4 |
- rorl $2,%ebx |
- addl %esi,%ebp |
- pxor %xmm2,%xmm8 |
- addl 4(%rsp),%edx |
- xorl %ecx,%ebx |
- movl %ebp,%esi |
- roll $5,%ebp |
- pxor %xmm8,%xmm4 |
- andl %ebx,%edi |
- xorl %ecx,%ebx |
- movdqa %xmm9,48(%rsp) |
- xorl %ecx,%edi |
-.byte 102,69,15,56,220,223 |
- movups 48(%r15),%xmm14 |
- addl %ebp,%edx |
- movdqa %xmm4,%xmm10 |
- movdqa %xmm4,%xmm8 |
- rorl $7,%eax |
- addl %edi,%edx |
- addl 8(%rsp),%ecx |
- xorl %ebx,%eax |
- pslldq $12,%xmm10 |
- paddd %xmm4,%xmm4 |
- movl %edx,%edi |
- roll $5,%edx |
- andl %eax,%esi |
- xorl %ebx,%eax |
- psrld $31,%xmm8 |
- xorl %ebx,%esi |
- addl %edx,%ecx |
- movdqa %xmm10,%xmm9 |
- rorl $7,%ebp |
- addl %esi,%ecx |
- psrld $30,%xmm10 |
- por %xmm8,%xmm4 |
- addl 12(%rsp),%ebx |
- xorl %eax,%ebp |
- movl %ecx,%esi |
- roll $5,%ecx |
-.byte 102,69,15,56,220,222 |
- movups 64(%r15),%xmm15 |
- pslld $2,%xmm9 |
- pxor %xmm10,%xmm4 |
- andl %ebp,%edi |
- xorl %eax,%ebp |
- movdqa 0(%r11),%xmm10 |
- xorl %eax,%edi |
- addl %ecx,%ebx |
- pxor %xmm9,%xmm4 |
- rorl $7,%edx |
- addl %edi,%ebx |
- movdqa %xmm2,%xmm5 |
- addl 16(%rsp),%eax |
- xorl %ebp,%edx |
- movdqa %xmm4,%xmm9 |
-.byte 102,15,58,15,233,8 |
- movl %ebx,%edi |
- roll $5,%ebx |
- paddd %xmm4,%xmm10 |
- andl %edx,%esi |
- xorl %ebp,%edx |
- psrldq $4,%xmm9 |
- xorl %ebp,%esi |
- addl %ebx,%eax |
- pxor %xmm1,%xmm5 |
- rorl $7,%ecx |
- addl %esi,%eax |
- pxor %xmm3,%xmm9 |
- addl 20(%rsp),%ebp |
-.byte 102,69,15,56,220,223 |
- movups 80(%r15),%xmm14 |
- xorl %edx,%ecx |
- movl %eax,%esi |
- roll $5,%eax |
- pxor %xmm9,%xmm5 |
- andl %ecx,%edi |
- xorl %edx,%ecx |
- movdqa %xmm10,0(%rsp) |
- xorl %edx,%edi |
- addl %eax,%ebp |
- movdqa %xmm5,%xmm8 |
- movdqa %xmm5,%xmm9 |
- rorl $7,%ebx |
- addl %edi,%ebp |
- addl 24(%rsp),%edx |
- xorl %ecx,%ebx |
- pslldq $12,%xmm8 |
- paddd %xmm5,%xmm5 |
- movl %ebp,%edi |
- roll $5,%ebp |
- andl %ebx,%esi |
- xorl %ecx,%ebx |
- psrld $31,%xmm9 |
- xorl %ecx,%esi |
-.byte 102,69,15,56,220,222 |
- movups 96(%r15),%xmm15 |
- addl %ebp,%edx |
- movdqa %xmm8,%xmm10 |
- rorl $7,%eax |
- addl %esi,%edx |
- psrld $30,%xmm8 |
- por %xmm9,%xmm5 |
- addl 28(%rsp),%ecx |
- xorl %ebx,%eax |
- movl %edx,%esi |
- roll $5,%edx |
- pslld $2,%xmm10 |
- pxor %xmm8,%xmm5 |
- andl %eax,%edi |
- xorl %ebx,%eax |
- movdqa 16(%r11),%xmm8 |
- xorl %ebx,%edi |
- addl %edx,%ecx |
- pxor %xmm10,%xmm5 |
- rorl $7,%ebp |
- addl %edi,%ecx |
- movdqa %xmm3,%xmm6 |
- addl 32(%rsp),%ebx |
- xorl %eax,%ebp |
- movdqa %xmm5,%xmm10 |
-.byte 102,15,58,15,242,8 |
- movl %ecx,%edi |
- roll $5,%ecx |
-.byte 102,69,15,56,220,223 |
- movups 112(%r15),%xmm14 |
- paddd %xmm5,%xmm8 |
- andl %ebp,%esi |
- xorl %eax,%ebp |
- psrldq $4,%xmm10 |
- xorl %eax,%esi |
- addl %ecx,%ebx |
- pxor %xmm2,%xmm6 |
- rorl $7,%edx |
- addl %esi,%ebx |
- pxor %xmm4,%xmm10 |
- addl 36(%rsp),%eax |
- xorl %ebp,%edx |
- movl %ebx,%esi |
- roll $5,%ebx |
- pxor %xmm10,%xmm6 |
- andl %edx,%edi |
- xorl %ebp,%edx |
- movdqa %xmm8,16(%rsp) |
- xorl %ebp,%edi |
- addl %ebx,%eax |
- movdqa %xmm6,%xmm9 |
- movdqa %xmm6,%xmm10 |
- rorl $7,%ecx |
- addl %edi,%eax |
- addl 40(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 128(%r15),%xmm15 |
- xorl %edx,%ecx |
- pslldq $12,%xmm9 |
- paddd %xmm6,%xmm6 |
- movl %eax,%edi |
- roll $5,%eax |
- andl %ecx,%esi |
- xorl %edx,%ecx |
- psrld $31,%xmm10 |
- xorl %edx,%esi |
- addl %eax,%ebp |
- movdqa %xmm9,%xmm8 |
- rorl $7,%ebx |
- addl %esi,%ebp |
- psrld $30,%xmm9 |
- por %xmm10,%xmm6 |
- addl 44(%rsp),%edx |
- xorl %ecx,%ebx |
- movl %ebp,%esi |
- roll $5,%ebp |
- pslld $2,%xmm8 |
- pxor %xmm9,%xmm6 |
- andl %ebx,%edi |
- xorl %ecx,%ebx |
- movdqa 16(%r11),%xmm9 |
- xorl %ecx,%edi |
-.byte 102,69,15,56,220,223 |
- movups 144(%r15),%xmm14 |
- addl %ebp,%edx |
- pxor %xmm8,%xmm6 |
- rorl $7,%eax |
- addl %edi,%edx |
- movdqa %xmm4,%xmm7 |
- addl 48(%rsp),%ecx |
- xorl %ebx,%eax |
- movdqa %xmm6,%xmm8 |
-.byte 102,15,58,15,251,8 |
- movl %edx,%edi |
- roll $5,%edx |
- paddd %xmm6,%xmm9 |
- andl %eax,%esi |
- xorl %ebx,%eax |
- psrldq $4,%xmm8 |
- xorl %ebx,%esi |
- addl %edx,%ecx |
- pxor %xmm3,%xmm7 |
- rorl $7,%ebp |
- addl %esi,%ecx |
- pxor %xmm5,%xmm8 |
- addl 52(%rsp),%ebx |
- xorl %eax,%ebp |
- movl %ecx,%esi |
- roll $5,%ecx |
-.byte 102,69,15,56,220,222 |
- movups 160(%r15),%xmm15 |
- pxor %xmm8,%xmm7 |
- andl %ebp,%edi |
- xorl %eax,%ebp |
- movdqa %xmm9,32(%rsp) |
- xorl %eax,%edi |
- addl %ecx,%ebx |
- movdqa %xmm7,%xmm10 |
- movdqa %xmm7,%xmm8 |
- rorl $7,%edx |
- addl %edi,%ebx |
- addl 56(%rsp),%eax |
- xorl %ebp,%edx |
- pslldq $12,%xmm10 |
- paddd %xmm7,%xmm7 |
- movl %ebx,%edi |
- roll $5,%ebx |
- andl %edx,%esi |
- xorl %ebp,%edx |
- psrld $31,%xmm8 |
- xorl %ebp,%esi |
- addl %ebx,%eax |
- movdqa %xmm10,%xmm9 |
- rorl $7,%ecx |
- addl %esi,%eax |
- psrld $30,%xmm10 |
- por %xmm8,%xmm7 |
- addl 60(%rsp),%ebp |
- cmpl $11,%r8d |
- jb .Laesenclast1 |
- movups 176(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 192(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
- je .Laesenclast1 |
- movups 208(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 224(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
-.Laesenclast1: |
-.byte 102,69,15,56,221,223 |
- movups 16(%r15),%xmm14 |
- xorl %edx,%ecx |
- movl %eax,%esi |
- roll $5,%eax |
- pslld $2,%xmm9 |
- pxor %xmm10,%xmm7 |
- andl %ecx,%edi |
- xorl %edx,%ecx |
- movdqa 16(%r11),%xmm10 |
- xorl %edx,%edi |
- addl %eax,%ebp |
- pxor %xmm9,%xmm7 |
- rorl $7,%ebx |
- addl %edi,%ebp |
- movdqa %xmm7,%xmm9 |
- addl 0(%rsp),%edx |
- pxor %xmm4,%xmm0 |
-.byte 102,68,15,58,15,206,8 |
- xorl %ecx,%ebx |
- movl %ebp,%edi |
- roll $5,%ebp |
- pxor %xmm1,%xmm0 |
- andl %ebx,%esi |
- xorl %ecx,%ebx |
- movdqa %xmm10,%xmm8 |
- paddd %xmm7,%xmm10 |
- xorl %ecx,%esi |
- movups 16(%r12),%xmm12 |
- xorps %xmm13,%xmm12 |
- movups %xmm11,0(%r13,%r12,1) |
- xorps %xmm12,%xmm11 |
-.byte 102,69,15,56,220,222 |
- movups 32(%r15),%xmm15 |
- addl %ebp,%edx |
- pxor %xmm9,%xmm0 |
- rorl $7,%eax |
- addl %esi,%edx |
- addl 4(%rsp),%ecx |
- xorl %ebx,%eax |
- movdqa %xmm0,%xmm9 |
- movdqa %xmm10,48(%rsp) |
- movl %edx,%esi |
- roll $5,%edx |
- andl %eax,%edi |
- xorl %ebx,%eax |
- pslld $2,%xmm0 |
- xorl %ebx,%edi |
- addl %edx,%ecx |
- psrld $30,%xmm9 |
- rorl $7,%ebp |
- addl %edi,%ecx |
- addl 8(%rsp),%ebx |
- xorl %eax,%ebp |
- movl %ecx,%edi |
- roll $5,%ecx |
-.byte 102,69,15,56,220,223 |
- movups 48(%r15),%xmm14 |
- por %xmm9,%xmm0 |
- andl %ebp,%esi |
- xorl %eax,%ebp |
- movdqa %xmm0,%xmm10 |
- xorl %eax,%esi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %esi,%ebx |
- addl 12(%rsp),%eax |
- xorl %ebp,%edx |
- movl %ebx,%esi |
- roll $5,%ebx |
- andl %edx,%edi |
- xorl %ebp,%edx |
- xorl %ebp,%edi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %edi,%eax |
- addl 16(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 64(%r15),%xmm15 |
- pxor %xmm5,%xmm1 |
-.byte 102,68,15,58,15,215,8 |
- xorl %edx,%esi |
- movl %eax,%edi |
- roll $5,%eax |
- pxor %xmm2,%xmm1 |
- xorl %ecx,%esi |
- addl %eax,%ebp |
- movdqa %xmm8,%xmm9 |
- paddd %xmm0,%xmm8 |
- rorl $7,%ebx |
- addl %esi,%ebp |
- pxor %xmm10,%xmm1 |
- addl 20(%rsp),%edx |
- xorl %ecx,%edi |
- movl %ebp,%esi |
- roll $5,%ebp |
- movdqa %xmm1,%xmm10 |
- movdqa %xmm8,0(%rsp) |
- xorl %ebx,%edi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %edi,%edx |
- pslld $2,%xmm1 |
- addl 24(%rsp),%ecx |
- xorl %ebx,%esi |
- psrld $30,%xmm10 |
- movl %edx,%edi |
- roll $5,%edx |
- xorl %eax,%esi |
-.byte 102,69,15,56,220,223 |
- movups 80(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %esi,%ecx |
- por %xmm10,%xmm1 |
- addl 28(%rsp),%ebx |
- xorl %eax,%edi |
- movdqa %xmm1,%xmm8 |
- movl %ecx,%esi |
- roll $5,%ecx |
- xorl %ebp,%edi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %edi,%ebx |
- addl 32(%rsp),%eax |
- pxor %xmm6,%xmm2 |
-.byte 102,68,15,58,15,192,8 |
- xorl %ebp,%esi |
- movl %ebx,%edi |
- roll $5,%ebx |
- pxor %xmm3,%xmm2 |
- xorl %edx,%esi |
- addl %ebx,%eax |
- movdqa 32(%r11),%xmm10 |
- paddd %xmm1,%xmm9 |
- rorl $7,%ecx |
- addl %esi,%eax |
- pxor %xmm8,%xmm2 |
- addl 36(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 96(%r15),%xmm15 |
- xorl %edx,%edi |
- movl %eax,%esi |
- roll $5,%eax |
- movdqa %xmm2,%xmm8 |
- movdqa %xmm9,16(%rsp) |
- xorl %ecx,%edi |
- addl %eax,%ebp |
- rorl $7,%ebx |
- addl %edi,%ebp |
- pslld $2,%xmm2 |
- addl 40(%rsp),%edx |
- xorl %ecx,%esi |
- psrld $30,%xmm8 |
- movl %ebp,%edi |
- roll $5,%ebp |
- xorl %ebx,%esi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %esi,%edx |
- por %xmm8,%xmm2 |
- addl 44(%rsp),%ecx |
- xorl %ebx,%edi |
- movdqa %xmm2,%xmm9 |
- movl %edx,%esi |
- roll $5,%edx |
- xorl %eax,%edi |
-.byte 102,69,15,56,220,223 |
- movups 112(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %edi,%ecx |
- addl 48(%rsp),%ebx |
- pxor %xmm7,%xmm3 |
-.byte 102,68,15,58,15,201,8 |
- xorl %eax,%esi |
- movl %ecx,%edi |
- roll $5,%ecx |
- pxor %xmm4,%xmm3 |
- xorl %ebp,%esi |
- addl %ecx,%ebx |
- movdqa %xmm10,%xmm8 |
- paddd %xmm2,%xmm10 |
- rorl $7,%edx |
- addl %esi,%ebx |
- pxor %xmm9,%xmm3 |
- addl 52(%rsp),%eax |
- xorl %ebp,%edi |
- movl %ebx,%esi |
- roll $5,%ebx |
- movdqa %xmm3,%xmm9 |
- movdqa %xmm10,32(%rsp) |
- xorl %edx,%edi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %edi,%eax |
- pslld $2,%xmm3 |
- addl 56(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 128(%r15),%xmm15 |
- xorl %edx,%esi |
- psrld $30,%xmm9 |
- movl %eax,%edi |
- roll $5,%eax |
- xorl %ecx,%esi |
- addl %eax,%ebp |
- rorl $7,%ebx |
- addl %esi,%ebp |
- por %xmm9,%xmm3 |
- addl 60(%rsp),%edx |
- xorl %ecx,%edi |
- movdqa %xmm3,%xmm10 |
- movl %ebp,%esi |
- roll $5,%ebp |
- xorl %ebx,%edi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %edi,%edx |
- addl 0(%rsp),%ecx |
- pxor %xmm0,%xmm4 |
-.byte 102,68,15,58,15,210,8 |
- xorl %ebx,%esi |
- movl %edx,%edi |
- roll $5,%edx |
- pxor %xmm5,%xmm4 |
- xorl %eax,%esi |
-.byte 102,69,15,56,220,223 |
- movups 144(%r15),%xmm14 |
- addl %edx,%ecx |
- movdqa %xmm8,%xmm9 |
- paddd %xmm3,%xmm8 |
- rorl $7,%ebp |
- addl %esi,%ecx |
- pxor %xmm10,%xmm4 |
- addl 4(%rsp),%ebx |
- xorl %eax,%edi |
- movl %ecx,%esi |
- roll $5,%ecx |
- movdqa %xmm4,%xmm10 |
- movdqa %xmm8,48(%rsp) |
- xorl %ebp,%edi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %edi,%ebx |
- pslld $2,%xmm4 |
- addl 8(%rsp),%eax |
- xorl %ebp,%esi |
- psrld $30,%xmm10 |
- movl %ebx,%edi |
- roll $5,%ebx |
- xorl %edx,%esi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %esi,%eax |
- por %xmm10,%xmm4 |
- addl 12(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 160(%r15),%xmm15 |
- xorl %edx,%edi |
- movdqa %xmm4,%xmm8 |
- movl %eax,%esi |
- roll $5,%eax |
- xorl %ecx,%edi |
- addl %eax,%ebp |
- rorl $7,%ebx |
- addl %edi,%ebp |
- addl 16(%rsp),%edx |
- pxor %xmm1,%xmm5 |
-.byte 102,68,15,58,15,195,8 |
- xorl %ecx,%esi |
- movl %ebp,%edi |
- roll $5,%ebp |
- pxor %xmm6,%xmm5 |
- xorl %ebx,%esi |
- addl %ebp,%edx |
- movdqa %xmm9,%xmm10 |
- paddd %xmm4,%xmm9 |
- rorl $7,%eax |
- addl %esi,%edx |
- pxor %xmm8,%xmm5 |
- addl 20(%rsp),%ecx |
- xorl %ebx,%edi |
- movl %edx,%esi |
- roll $5,%edx |
- movdqa %xmm5,%xmm8 |
- movdqa %xmm9,0(%rsp) |
- xorl %eax,%edi |
- cmpl $11,%r8d |
- jb .Laesenclast2 |
- movups 176(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 192(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
- je .Laesenclast2 |
- movups 208(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 224(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
-.Laesenclast2: |
-.byte 102,69,15,56,221,223 |
- movups 16(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %edi,%ecx |
- pslld $2,%xmm5 |
- addl 24(%rsp),%ebx |
- xorl %eax,%esi |
- psrld $30,%xmm8 |
- movl %ecx,%edi |
- roll $5,%ecx |
- xorl %ebp,%esi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %esi,%ebx |
- por %xmm8,%xmm5 |
- addl 28(%rsp),%eax |
- xorl %ebp,%edi |
- movdqa %xmm5,%xmm9 |
- movl %ebx,%esi |
- roll $5,%ebx |
- xorl %edx,%edi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %edi,%eax |
- movl %ecx,%edi |
- movups 32(%r12),%xmm12 |
- xorps %xmm13,%xmm12 |
- movups %xmm11,16(%r13,%r12,1) |
- xorps %xmm12,%xmm11 |
-.byte 102,69,15,56,220,222 |
- movups 32(%r15),%xmm15 |
- pxor %xmm2,%xmm6 |
-.byte 102,68,15,58,15,204,8 |
- xorl %edx,%ecx |
- addl 32(%rsp),%ebp |
- andl %edx,%edi |
- pxor %xmm7,%xmm6 |
- andl %ecx,%esi |
- rorl $7,%ebx |
- movdqa %xmm10,%xmm8 |
- paddd %xmm5,%xmm10 |
- addl %edi,%ebp |
- movl %eax,%edi |
- pxor %xmm9,%xmm6 |
- roll $5,%eax |
- addl %esi,%ebp |
- xorl %edx,%ecx |
- addl %eax,%ebp |
- movdqa %xmm6,%xmm9 |
- movdqa %xmm10,16(%rsp) |
- movl %ebx,%esi |
- xorl %ecx,%ebx |
- addl 36(%rsp),%edx |
- andl %ecx,%esi |
- pslld $2,%xmm6 |
- andl %ebx,%edi |
- rorl $7,%eax |
- psrld $30,%xmm9 |
- addl %esi,%edx |
- movl %ebp,%esi |
- roll $5,%ebp |
-.byte 102,69,15,56,220,223 |
- movups 48(%r15),%xmm14 |
- addl %edi,%edx |
- xorl %ecx,%ebx |
- addl %ebp,%edx |
- por %xmm9,%xmm6 |
- movl %eax,%edi |
- xorl %ebx,%eax |
- movdqa %xmm6,%xmm10 |
- addl 40(%rsp),%ecx |
- andl %ebx,%edi |
- andl %eax,%esi |
- rorl $7,%ebp |
- addl %edi,%ecx |
- movl %edx,%edi |
- roll $5,%edx |
- addl %esi,%ecx |
- xorl %ebx,%eax |
- addl %edx,%ecx |
- movl %ebp,%esi |
- xorl %eax,%ebp |
- addl 44(%rsp),%ebx |
- andl %eax,%esi |
- andl %ebp,%edi |
-.byte 102,69,15,56,220,222 |
- movups 64(%r15),%xmm15 |
- rorl $7,%edx |
- addl %esi,%ebx |
- movl %ecx,%esi |
- roll $5,%ecx |
- addl %edi,%ebx |
- xorl %eax,%ebp |
- addl %ecx,%ebx |
- movl %edx,%edi |
- pxor %xmm3,%xmm7 |
-.byte 102,68,15,58,15,213,8 |
- xorl %ebp,%edx |
- addl 48(%rsp),%eax |
- andl %ebp,%edi |
- pxor %xmm0,%xmm7 |
- andl %edx,%esi |
- rorl $7,%ecx |
- movdqa 48(%r11),%xmm9 |
- paddd %xmm6,%xmm8 |
- addl %edi,%eax |
- movl %ebx,%edi |
- pxor %xmm10,%xmm7 |
- roll $5,%ebx |
- addl %esi,%eax |
- xorl %ebp,%edx |
- addl %ebx,%eax |
- movdqa %xmm7,%xmm10 |
- movdqa %xmm8,32(%rsp) |
- movl %ecx,%esi |
-.byte 102,69,15,56,220,223 |
- movups 80(%r15),%xmm14 |
- xorl %edx,%ecx |
- addl 52(%rsp),%ebp |
- andl %edx,%esi |
- pslld $2,%xmm7 |
- andl %ecx,%edi |
- rorl $7,%ebx |
- psrld $30,%xmm10 |
- addl %esi,%ebp |
- movl %eax,%esi |
- roll $5,%eax |
- addl %edi,%ebp |
- xorl %edx,%ecx |
- addl %eax,%ebp |
- por %xmm10,%xmm7 |
- movl %ebx,%edi |
- xorl %ecx,%ebx |
- movdqa %xmm7,%xmm8 |
- addl 56(%rsp),%edx |
- andl %ecx,%edi |
- andl %ebx,%esi |
- rorl $7,%eax |
- addl %edi,%edx |
- movl %ebp,%edi |
- roll $5,%ebp |
-.byte 102,69,15,56,220,222 |
- movups 96(%r15),%xmm15 |
- addl %esi,%edx |
- xorl %ecx,%ebx |
- addl %ebp,%edx |
- movl %eax,%esi |
- xorl %ebx,%eax |
- addl 60(%rsp),%ecx |
- andl %ebx,%esi |
- andl %eax,%edi |
- rorl $7,%ebp |
- addl %esi,%ecx |
- movl %edx,%esi |
- roll $5,%edx |
- addl %edi,%ecx |
- xorl %ebx,%eax |
- addl %edx,%ecx |
- movl %ebp,%edi |
- pxor %xmm4,%xmm0 |
-.byte 102,68,15,58,15,198,8 |
- xorl %eax,%ebp |
- addl 0(%rsp),%ebx |
- andl %eax,%edi |
- pxor %xmm1,%xmm0 |
- andl %ebp,%esi |
-.byte 102,69,15,56,220,223 |
- movups 112(%r15),%xmm14 |
- rorl $7,%edx |
- movdqa %xmm9,%xmm10 |
- paddd %xmm7,%xmm9 |
- addl %edi,%ebx |
- movl %ecx,%edi |
- pxor %xmm8,%xmm0 |
- roll $5,%ecx |
- addl %esi,%ebx |
- xorl %eax,%ebp |
- addl %ecx,%ebx |
- movdqa %xmm0,%xmm8 |
- movdqa %xmm9,48(%rsp) |
- movl %edx,%esi |
- xorl %ebp,%edx |
- addl 4(%rsp),%eax |
- andl %ebp,%esi |
- pslld $2,%xmm0 |
- andl %edx,%edi |
- rorl $7,%ecx |
- psrld $30,%xmm8 |
- addl %esi,%eax |
- movl %ebx,%esi |
- roll $5,%ebx |
- addl %edi,%eax |
- xorl %ebp,%edx |
- addl %ebx,%eax |
- por %xmm8,%xmm0 |
- movl %ecx,%edi |
-.byte 102,69,15,56,220,222 |
- movups 128(%r15),%xmm15 |
- xorl %edx,%ecx |
- movdqa %xmm0,%xmm9 |
- addl 8(%rsp),%ebp |
- andl %edx,%edi |
- andl %ecx,%esi |
- rorl $7,%ebx |
- addl %edi,%ebp |
- movl %eax,%edi |
- roll $5,%eax |
- addl %esi,%ebp |
- xorl %edx,%ecx |
- addl %eax,%ebp |
- movl %ebx,%esi |
- xorl %ecx,%ebx |
- addl 12(%rsp),%edx |
- andl %ecx,%esi |
- andl %ebx,%edi |
- rorl $7,%eax |
- addl %esi,%edx |
- movl %ebp,%esi |
- roll $5,%ebp |
-.byte 102,69,15,56,220,223 |
- movups 144(%r15),%xmm14 |
- addl %edi,%edx |
- xorl %ecx,%ebx |
- addl %ebp,%edx |
- movl %eax,%edi |
- pxor %xmm5,%xmm1 |
-.byte 102,68,15,58,15,207,8 |
- xorl %ebx,%eax |
- addl 16(%rsp),%ecx |
- andl %ebx,%edi |
- pxor %xmm2,%xmm1 |
- andl %eax,%esi |
- rorl $7,%ebp |
- movdqa %xmm10,%xmm8 |
- paddd %xmm0,%xmm10 |
- addl %edi,%ecx |
- movl %edx,%edi |
- pxor %xmm9,%xmm1 |
- roll $5,%edx |
- addl %esi,%ecx |
- xorl %ebx,%eax |
- addl %edx,%ecx |
- movdqa %xmm1,%xmm9 |
- movdqa %xmm10,0(%rsp) |
- movl %ebp,%esi |
- xorl %eax,%ebp |
- addl 20(%rsp),%ebx |
- andl %eax,%esi |
- pslld $2,%xmm1 |
- andl %ebp,%edi |
-.byte 102,69,15,56,220,222 |
- movups 160(%r15),%xmm15 |
- rorl $7,%edx |
- psrld $30,%xmm9 |
- addl %esi,%ebx |
- movl %ecx,%esi |
- roll $5,%ecx |
- addl %edi,%ebx |
- xorl %eax,%ebp |
- addl %ecx,%ebx |
- por %xmm9,%xmm1 |
- movl %edx,%edi |
- xorl %ebp,%edx |
- movdqa %xmm1,%xmm10 |
- addl 24(%rsp),%eax |
- andl %ebp,%edi |
- andl %edx,%esi |
- rorl $7,%ecx |
- addl %edi,%eax |
- movl %ebx,%edi |
- roll $5,%ebx |
- addl %esi,%eax |
- xorl %ebp,%edx |
- addl %ebx,%eax |
- movl %ecx,%esi |
- cmpl $11,%r8d |
- jb .Laesenclast3 |
- movups 176(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 192(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
- je .Laesenclast3 |
- movups 208(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 224(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
-.Laesenclast3: |
-.byte 102,69,15,56,221,223 |
- movups 16(%r15),%xmm14 |
- xorl %edx,%ecx |
- addl 28(%rsp),%ebp |
- andl %edx,%esi |
- andl %ecx,%edi |
- rorl $7,%ebx |
- addl %esi,%ebp |
- movl %eax,%esi |
- roll $5,%eax |
- addl %edi,%ebp |
- xorl %edx,%ecx |
- addl %eax,%ebp |
- movl %ebx,%edi |
- pxor %xmm6,%xmm2 |
-.byte 102,68,15,58,15,208,8 |
- xorl %ecx,%ebx |
- addl 32(%rsp),%edx |
- andl %ecx,%edi |
- pxor %xmm3,%xmm2 |
- andl %ebx,%esi |
- rorl $7,%eax |
- movdqa %xmm8,%xmm9 |
- paddd %xmm1,%xmm8 |
- addl %edi,%edx |
- movl %ebp,%edi |
- pxor %xmm10,%xmm2 |
- roll $5,%ebp |
- movups 48(%r12),%xmm12 |
- xorps %xmm13,%xmm12 |
- movups %xmm11,32(%r13,%r12,1) |
- xorps %xmm12,%xmm11 |
-.byte 102,69,15,56,220,222 |
- movups 32(%r15),%xmm15 |
- addl %esi,%edx |
- xorl %ecx,%ebx |
- addl %ebp,%edx |
- movdqa %xmm2,%xmm10 |
- movdqa %xmm8,16(%rsp) |
- movl %eax,%esi |
- xorl %ebx,%eax |
- addl 36(%rsp),%ecx |
- andl %ebx,%esi |
- pslld $2,%xmm2 |
- andl %eax,%edi |
- rorl $7,%ebp |
- psrld $30,%xmm10 |
- addl %esi,%ecx |
- movl %edx,%esi |
- roll $5,%edx |
- addl %edi,%ecx |
- xorl %ebx,%eax |
- addl %edx,%ecx |
- por %xmm10,%xmm2 |
- movl %ebp,%edi |
- xorl %eax,%ebp |
- movdqa %xmm2,%xmm8 |
- addl 40(%rsp),%ebx |
- andl %eax,%edi |
- andl %ebp,%esi |
-.byte 102,69,15,56,220,223 |
- movups 48(%r15),%xmm14 |
- rorl $7,%edx |
- addl %edi,%ebx |
- movl %ecx,%edi |
- roll $5,%ecx |
- addl %esi,%ebx |
- xorl %eax,%ebp |
- addl %ecx,%ebx |
- movl %edx,%esi |
- xorl %ebp,%edx |
- addl 44(%rsp),%eax |
- andl %ebp,%esi |
- andl %edx,%edi |
- rorl $7,%ecx |
- addl %esi,%eax |
- movl %ebx,%esi |
- roll $5,%ebx |
- addl %edi,%eax |
- xorl %ebp,%edx |
- addl %ebx,%eax |
- addl 48(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 64(%r15),%xmm15 |
- pxor %xmm7,%xmm3 |
-.byte 102,68,15,58,15,193,8 |
- xorl %edx,%esi |
- movl %eax,%edi |
- roll $5,%eax |
- pxor %xmm4,%xmm3 |
- xorl %ecx,%esi |
- addl %eax,%ebp |
- movdqa %xmm9,%xmm10 |
- paddd %xmm2,%xmm9 |
- rorl $7,%ebx |
- addl %esi,%ebp |
- pxor %xmm8,%xmm3 |
- addl 52(%rsp),%edx |
- xorl %ecx,%edi |
- movl %ebp,%esi |
- roll $5,%ebp |
- movdqa %xmm3,%xmm8 |
- movdqa %xmm9,32(%rsp) |
- xorl %ebx,%edi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %edi,%edx |
- pslld $2,%xmm3 |
- addl 56(%rsp),%ecx |
- xorl %ebx,%esi |
- psrld $30,%xmm8 |
- movl %edx,%edi |
- roll $5,%edx |
- xorl %eax,%esi |
-.byte 102,69,15,56,220,223 |
- movups 80(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %esi,%ecx |
- por %xmm8,%xmm3 |
- addl 60(%rsp),%ebx |
- xorl %eax,%edi |
- movl %ecx,%esi |
- roll $5,%ecx |
- xorl %ebp,%edi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %edi,%ebx |
- addl 0(%rsp),%eax |
- paddd %xmm3,%xmm10 |
- xorl %ebp,%esi |
- movl %ebx,%edi |
- roll $5,%ebx |
- xorl %edx,%esi |
- movdqa %xmm10,48(%rsp) |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %esi,%eax |
- addl 4(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 96(%r15),%xmm15 |
- xorl %edx,%edi |
- movl %eax,%esi |
- roll $5,%eax |
- xorl %ecx,%edi |
- addl %eax,%ebp |
- rorl $7,%ebx |
- addl %edi,%ebp |
- addl 8(%rsp),%edx |
- xorl %ecx,%esi |
- movl %ebp,%edi |
- roll $5,%ebp |
- xorl %ebx,%esi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %esi,%edx |
- addl 12(%rsp),%ecx |
- xorl %ebx,%edi |
- movl %edx,%esi |
- roll $5,%edx |
- xorl %eax,%edi |
-.byte 102,69,15,56,220,223 |
- movups 112(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %edi,%ecx |
- cmpq %r14,%r10 |
- je .Ldone_ssse3 |
- movdqa 64(%r11),%xmm6 |
- movdqa 0(%r11),%xmm9 |
- movdqu 0(%r10),%xmm0 |
- movdqu 16(%r10),%xmm1 |
- movdqu 32(%r10),%xmm2 |
- movdqu 48(%r10),%xmm3 |
-.byte 102,15,56,0,198 |
- addq $64,%r10 |
- addl 16(%rsp),%ebx |
- xorl %eax,%esi |
-.byte 102,15,56,0,206 |
- movl %ecx,%edi |
- roll $5,%ecx |
- paddd %xmm9,%xmm0 |
- xorl %ebp,%esi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %esi,%ebx |
- movdqa %xmm0,0(%rsp) |
- addl 20(%rsp),%eax |
- xorl %ebp,%edi |
- psubd %xmm9,%xmm0 |
- movl %ebx,%esi |
- roll $5,%ebx |
- xorl %edx,%edi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %edi,%eax |
- addl 24(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 128(%r15),%xmm15 |
- xorl %edx,%esi |
- movl %eax,%edi |
- roll $5,%eax |
- xorl %ecx,%esi |
- addl %eax,%ebp |
- rorl $7,%ebx |
- addl %esi,%ebp |
- addl 28(%rsp),%edx |
- xorl %ecx,%edi |
- movl %ebp,%esi |
- roll $5,%ebp |
- xorl %ebx,%edi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %edi,%edx |
- addl 32(%rsp),%ecx |
- xorl %ebx,%esi |
-.byte 102,15,56,0,214 |
- movl %edx,%edi |
- roll $5,%edx |
- paddd %xmm9,%xmm1 |
- xorl %eax,%esi |
-.byte 102,69,15,56,220,223 |
- movups 144(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %esi,%ecx |
- movdqa %xmm1,16(%rsp) |
- addl 36(%rsp),%ebx |
- xorl %eax,%edi |
- psubd %xmm9,%xmm1 |
- movl %ecx,%esi |
- roll $5,%ecx |
- xorl %ebp,%edi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %edi,%ebx |
- addl 40(%rsp),%eax |
- xorl %ebp,%esi |
- movl %ebx,%edi |
- roll $5,%ebx |
- xorl %edx,%esi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %esi,%eax |
- addl 44(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 160(%r15),%xmm15 |
- xorl %edx,%edi |
- movl %eax,%esi |
- roll $5,%eax |
- xorl %ecx,%edi |
- addl %eax,%ebp |
- rorl $7,%ebx |
- addl %edi,%ebp |
- addl 48(%rsp),%edx |
- xorl %ecx,%esi |
-.byte 102,15,56,0,222 |
- movl %ebp,%edi |
- roll $5,%ebp |
- paddd %xmm9,%xmm2 |
- xorl %ebx,%esi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %esi,%edx |
- movdqa %xmm2,32(%rsp) |
- addl 52(%rsp),%ecx |
- xorl %ebx,%edi |
- psubd %xmm9,%xmm2 |
- movl %edx,%esi |
- roll $5,%edx |
- xorl %eax,%edi |
- cmpl $11,%r8d |
- jb .Laesenclast4 |
- movups 176(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 192(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
- je .Laesenclast4 |
- movups 208(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 224(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
-.Laesenclast4: |
-.byte 102,69,15,56,221,223 |
- movups 16(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %edi,%ecx |
- addl 56(%rsp),%ebx |
- xorl %eax,%esi |
- movl %ecx,%edi |
- roll $5,%ecx |
- xorl %ebp,%esi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %esi,%ebx |
- addl 60(%rsp),%eax |
- xorl %ebp,%edi |
- movl %ebx,%esi |
- roll $5,%ebx |
- xorl %edx,%edi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %edi,%eax |
- movups %xmm11,48(%r13,%r12,1) |
- leaq 64(%r12),%r12 |
- |
- addl 0(%r9),%eax |
- addl 4(%r9),%esi |
- addl 8(%r9),%ecx |
- addl 12(%r9),%edx |
- movl %eax,0(%r9) |
- addl 16(%r9),%ebp |
- movl %esi,4(%r9) |
- movl %esi,%ebx |
- movl %ecx,8(%r9) |
- movl %edx,12(%r9) |
- movl %ebp,16(%r9) |
- jmp .Loop_ssse3 |
- |
-.align 16 |
-.Ldone_ssse3: |
- addl 16(%rsp),%ebx |
- xorl %eax,%esi |
- movl %ecx,%edi |
- roll $5,%ecx |
- xorl %ebp,%esi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %esi,%ebx |
- addl 20(%rsp),%eax |
- xorl %ebp,%edi |
- movl %ebx,%esi |
- roll $5,%ebx |
- xorl %edx,%edi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %edi,%eax |
- addl 24(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 128(%r15),%xmm15 |
- xorl %edx,%esi |
- movl %eax,%edi |
- roll $5,%eax |
- xorl %ecx,%esi |
- addl %eax,%ebp |
- rorl $7,%ebx |
- addl %esi,%ebp |
- addl 28(%rsp),%edx |
- xorl %ecx,%edi |
- movl %ebp,%esi |
- roll $5,%ebp |
- xorl %ebx,%edi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %edi,%edx |
- addl 32(%rsp),%ecx |
- xorl %ebx,%esi |
- movl %edx,%edi |
- roll $5,%edx |
- xorl %eax,%esi |
-.byte 102,69,15,56,220,223 |
- movups 144(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %esi,%ecx |
- addl 36(%rsp),%ebx |
- xorl %eax,%edi |
- movl %ecx,%esi |
- roll $5,%ecx |
- xorl %ebp,%edi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %edi,%ebx |
- addl 40(%rsp),%eax |
- xorl %ebp,%esi |
- movl %ebx,%edi |
- roll $5,%ebx |
- xorl %edx,%esi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %esi,%eax |
- addl 44(%rsp),%ebp |
-.byte 102,69,15,56,220,222 |
- movups 160(%r15),%xmm15 |
- xorl %edx,%edi |
- movl %eax,%esi |
- roll $5,%eax |
- xorl %ecx,%edi |
- addl %eax,%ebp |
- rorl $7,%ebx |
- addl %edi,%ebp |
- addl 48(%rsp),%edx |
- xorl %ecx,%esi |
- movl %ebp,%edi |
- roll $5,%ebp |
- xorl %ebx,%esi |
- addl %ebp,%edx |
- rorl $7,%eax |
- addl %esi,%edx |
- addl 52(%rsp),%ecx |
- xorl %ebx,%edi |
- movl %edx,%esi |
- roll $5,%edx |
- xorl %eax,%edi |
- cmpl $11,%r8d |
- jb .Laesenclast5 |
- movups 176(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 192(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
- je .Laesenclast5 |
- movups 208(%r15),%xmm14 |
-.byte 102,69,15,56,220,223 |
- movups 224(%r15),%xmm15 |
-.byte 102,69,15,56,220,222 |
-.Laesenclast5: |
-.byte 102,69,15,56,221,223 |
- movups 16(%r15),%xmm14 |
- addl %edx,%ecx |
- rorl $7,%ebp |
- addl %edi,%ecx |
- addl 56(%rsp),%ebx |
- xorl %eax,%esi |
- movl %ecx,%edi |
- roll $5,%ecx |
- xorl %ebp,%esi |
- addl %ecx,%ebx |
- rorl $7,%edx |
- addl %esi,%ebx |
- addl 60(%rsp),%eax |
- xorl %ebp,%edi |
- movl %ebx,%esi |
- roll $5,%ebx |
- xorl %edx,%edi |
- addl %ebx,%eax |
- rorl $7,%ecx |
- addl %edi,%eax |
- movups %xmm11,48(%r13,%r12,1) |
- movq 88(%rsp),%r8 |
- |
- addl 0(%r9),%eax |
- addl 4(%r9),%esi |
- addl 8(%r9),%ecx |
- movl %eax,0(%r9) |
- addl 12(%r9),%edx |
- movl %esi,4(%r9) |
- addl 16(%r9),%ebp |
- movl %ecx,8(%r9) |
- movl %edx,12(%r9) |
- movl %ebp,16(%r9) |
- movups %xmm11,(%r8) |
- leaq 104(%rsp),%rsi |
- movq 0(%rsi),%r15 |
- movq 8(%rsi),%r14 |
- movq 16(%rsi),%r13 |
- movq 24(%rsi),%r12 |
- movq 32(%rsi),%rbp |
- movq 40(%rsi),%rbx |
- leaq 48(%rsi),%rsp |
-.Lepilogue_ssse3: |
- .byte 0xf3,0xc3 |
-.size aesni_cbc_sha1_enc_ssse3,.-aesni_cbc_sha1_enc_ssse3 |
-.align 64 |
-K_XX_XX: |
-.long 0x5a827999,0x5a827999,0x5a827999,0x5a827999 |
-.long 0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1 |
-.long 0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc |
-.long 0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6 |
-.long 0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f |
- |
-.byte 65,69,83,78,73,45,67,66,67,43,83,72,65,49,32,115,116,105,116,99,104,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0 |
-.align 64 |