| Index: openssl/crypto/aes/asm/aesni-sha1-x86_64.S
 | 
| diff --git a/openssl/crypto/aes/asm/aesni-sha1-x86_64.S b/openssl/crypto/aes/asm/aesni-sha1-x86_64.S
 | 
| deleted file mode 100644
 | 
| index 32fd600b92255fecffef6789beb5b7749c3112fb..0000000000000000000000000000000000000000
 | 
| --- a/openssl/crypto/aes/asm/aesni-sha1-x86_64.S
 | 
| +++ /dev/null
 | 
| @@ -1,1396 +0,0 @@
 | 
| -.text	
 | 
| -
 | 
| -
 | 
| -.globl	aesni_cbc_sha1_enc
 | 
| -.type	aesni_cbc_sha1_enc,@function
 | 
| -.align	16
 | 
| -aesni_cbc_sha1_enc:
 | 
| -
 | 
| -	movl	OPENSSL_ia32cap_P+0(%rip),%r10d
 | 
| -	movl	OPENSSL_ia32cap_P+4(%rip),%r11d
 | 
| -	jmp	aesni_cbc_sha1_enc_ssse3
 | 
| -	.byte	0xf3,0xc3
 | 
| -.size	aesni_cbc_sha1_enc,.-aesni_cbc_sha1_enc
 | 
| -.type	aesni_cbc_sha1_enc_ssse3,@function
 | 
| -.align	16
 | 
| -aesni_cbc_sha1_enc_ssse3:
 | 
| -	movq	8(%rsp),%r10
 | 
| -
 | 
| -
 | 
| -	pushq	%rbx
 | 
| -	pushq	%rbp
 | 
| -	pushq	%r12
 | 
| -	pushq	%r13
 | 
| -	pushq	%r14
 | 
| -	pushq	%r15
 | 
| -	leaq	-104(%rsp),%rsp
 | 
| -
 | 
| -
 | 
| -	movq	%rdi,%r12
 | 
| -	movq	%rsi,%r13
 | 
| -	movq	%rdx,%r14
 | 
| -	movq	%rcx,%r15
 | 
| -	movdqu	(%r8),%xmm11
 | 
| -	movq	%r8,88(%rsp)
 | 
| -	shlq	$6,%r14
 | 
| -	subq	%r12,%r13
 | 
| -	movl	240(%r15),%r8d
 | 
| -	addq	%r10,%r14
 | 
| -
 | 
| -	leaq	K_XX_XX(%rip),%r11
 | 
| -	movl	0(%r9),%eax
 | 
| -	movl	4(%r9),%ebx
 | 
| -	movl	8(%r9),%ecx
 | 
| -	movl	12(%r9),%edx
 | 
| -	movl	%ebx,%esi
 | 
| -	movl	16(%r9),%ebp
 | 
| -
 | 
| -	movdqa	64(%r11),%xmm6
 | 
| -	movdqa	0(%r11),%xmm9
 | 
| -	movdqu	0(%r10),%xmm0
 | 
| -	movdqu	16(%r10),%xmm1
 | 
| -	movdqu	32(%r10),%xmm2
 | 
| -	movdqu	48(%r10),%xmm3
 | 
| -.byte	102,15,56,0,198
 | 
| -	addq	$64,%r10
 | 
| -.byte	102,15,56,0,206
 | 
| -.byte	102,15,56,0,214
 | 
| -.byte	102,15,56,0,222
 | 
| -	paddd	%xmm9,%xmm0
 | 
| -	paddd	%xmm9,%xmm1
 | 
| -	paddd	%xmm9,%xmm2
 | 
| -	movdqa	%xmm0,0(%rsp)
 | 
| -	psubd	%xmm9,%xmm0
 | 
| -	movdqa	%xmm1,16(%rsp)
 | 
| -	psubd	%xmm9,%xmm1
 | 
| -	movdqa	%xmm2,32(%rsp)
 | 
| -	psubd	%xmm9,%xmm2
 | 
| -	movups	(%r15),%xmm13
 | 
| -	movups	16(%r15),%xmm14
 | 
| -	jmp	.Loop_ssse3
 | 
| -.align	16
 | 
| -.Loop_ssse3:
 | 
| -	movdqa	%xmm1,%xmm4
 | 
| -	addl	0(%rsp),%ebp
 | 
| -	movups	0(%r12),%xmm12
 | 
| -	xorps	%xmm13,%xmm12
 | 
| -	xorps	%xmm12,%xmm11
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	32(%r15),%xmm15
 | 
| -	xorl	%edx,%ecx
 | 
| -	movdqa	%xmm3,%xmm8
 | 
| -.byte	102,15,58,15,224,8
 | 
| -	movl	%eax,%edi
 | 
| -	roll	$5,%eax
 | 
| -	paddd	%xmm3,%xmm9
 | 
| -	andl	%ecx,%esi
 | 
| -	xorl	%edx,%ecx
 | 
| -	psrldq	$4,%xmm8
 | 
| -	xorl	%edx,%esi
 | 
| -	addl	%eax,%ebp
 | 
| -	pxor	%xmm0,%xmm4
 | 
| -	rorl	$2,%ebx
 | 
| -	addl	%esi,%ebp
 | 
| -	pxor	%xmm2,%xmm8
 | 
| -	addl	4(%rsp),%edx
 | 
| -	xorl	%ecx,%ebx
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -	pxor	%xmm8,%xmm4
 | 
| -	andl	%ebx,%edi
 | 
| -	xorl	%ecx,%ebx
 | 
| -	movdqa	%xmm9,48(%rsp)
 | 
| -	xorl	%ecx,%edi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	48(%r15),%xmm14
 | 
| -	addl	%ebp,%edx
 | 
| -	movdqa	%xmm4,%xmm10
 | 
| -	movdqa	%xmm4,%xmm8
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%edi,%edx
 | 
| -	addl	8(%rsp),%ecx
 | 
| -	xorl	%ebx,%eax
 | 
| -	pslldq	$12,%xmm10
 | 
| -	paddd	%xmm4,%xmm4
 | 
| -	movl	%edx,%edi
 | 
| -	roll	$5,%edx
 | 
| -	andl	%eax,%esi
 | 
| -	xorl	%ebx,%eax
 | 
| -	psrld	$31,%xmm8
 | 
| -	xorl	%ebx,%esi
 | 
| -	addl	%edx,%ecx
 | 
| -	movdqa	%xmm10,%xmm9
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%esi,%ecx
 | 
| -	psrld	$30,%xmm10
 | 
| -	por	%xmm8,%xmm4
 | 
| -	addl	12(%rsp),%ebx
 | 
| -	xorl	%eax,%ebp
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	64(%r15),%xmm15
 | 
| -	pslld	$2,%xmm9
 | 
| -	pxor	%xmm10,%xmm4
 | 
| -	andl	%ebp,%edi
 | 
| -	xorl	%eax,%ebp
 | 
| -	movdqa	0(%r11),%xmm10
 | 
| -	xorl	%eax,%edi
 | 
| -	addl	%ecx,%ebx
 | 
| -	pxor	%xmm9,%xmm4
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%edi,%ebx
 | 
| -	movdqa	%xmm2,%xmm5
 | 
| -	addl	16(%rsp),%eax
 | 
| -	xorl	%ebp,%edx
 | 
| -	movdqa	%xmm4,%xmm9
 | 
| -.byte	102,15,58,15,233,8
 | 
| -	movl	%ebx,%edi
 | 
| -	roll	$5,%ebx
 | 
| -	paddd	%xmm4,%xmm10
 | 
| -	andl	%edx,%esi
 | 
| -	xorl	%ebp,%edx
 | 
| -	psrldq	$4,%xmm9
 | 
| -	xorl	%ebp,%esi
 | 
| -	addl	%ebx,%eax
 | 
| -	pxor	%xmm1,%xmm5
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%esi,%eax
 | 
| -	pxor	%xmm3,%xmm9
 | 
| -	addl	20(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	80(%r15),%xmm14
 | 
| -	xorl	%edx,%ecx
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	pxor	%xmm9,%xmm5
 | 
| -	andl	%ecx,%edi
 | 
| -	xorl	%edx,%ecx
 | 
| -	movdqa	%xmm10,0(%rsp)
 | 
| -	xorl	%edx,%edi
 | 
| -	addl	%eax,%ebp
 | 
| -	movdqa	%xmm5,%xmm8
 | 
| -	movdqa	%xmm5,%xmm9
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%edi,%ebp
 | 
| -	addl	24(%rsp),%edx
 | 
| -	xorl	%ecx,%ebx
 | 
| -	pslldq	$12,%xmm8
 | 
| -	paddd	%xmm5,%xmm5
 | 
| -	movl	%ebp,%edi
 | 
| -	roll	$5,%ebp
 | 
| -	andl	%ebx,%esi
 | 
| -	xorl	%ecx,%ebx
 | 
| -	psrld	$31,%xmm9
 | 
| -	xorl	%ecx,%esi
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	96(%r15),%xmm15
 | 
| -	addl	%ebp,%edx
 | 
| -	movdqa	%xmm8,%xmm10
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%esi,%edx
 | 
| -	psrld	$30,%xmm8
 | 
| -	por	%xmm9,%xmm5
 | 
| -	addl	28(%rsp),%ecx
 | 
| -	xorl	%ebx,%eax
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	pslld	$2,%xmm10
 | 
| -	pxor	%xmm8,%xmm5
 | 
| -	andl	%eax,%edi
 | 
| -	xorl	%ebx,%eax
 | 
| -	movdqa	16(%r11),%xmm8
 | 
| -	xorl	%ebx,%edi
 | 
| -	addl	%edx,%ecx
 | 
| -	pxor	%xmm10,%xmm5
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%edi,%ecx
 | 
| -	movdqa	%xmm3,%xmm6
 | 
| -	addl	32(%rsp),%ebx
 | 
| -	xorl	%eax,%ebp
 | 
| -	movdqa	%xmm5,%xmm10
 | 
| -.byte	102,15,58,15,242,8
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	112(%r15),%xmm14
 | 
| -	paddd	%xmm5,%xmm8
 | 
| -	andl	%ebp,%esi
 | 
| -	xorl	%eax,%ebp
 | 
| -	psrldq	$4,%xmm10
 | 
| -	xorl	%eax,%esi
 | 
| -	addl	%ecx,%ebx
 | 
| -	pxor	%xmm2,%xmm6
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	pxor	%xmm4,%xmm10
 | 
| -	addl	36(%rsp),%eax
 | 
| -	xorl	%ebp,%edx
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	pxor	%xmm10,%xmm6
 | 
| -	andl	%edx,%edi
 | 
| -	xorl	%ebp,%edx
 | 
| -	movdqa	%xmm8,16(%rsp)
 | 
| -	xorl	%ebp,%edi
 | 
| -	addl	%ebx,%eax
 | 
| -	movdqa	%xmm6,%xmm9
 | 
| -	movdqa	%xmm6,%xmm10
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	addl	40(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	128(%r15),%xmm15
 | 
| -	xorl	%edx,%ecx
 | 
| -	pslldq	$12,%xmm9
 | 
| -	paddd	%xmm6,%xmm6
 | 
| -	movl	%eax,%edi
 | 
| -	roll	$5,%eax
 | 
| -	andl	%ecx,%esi
 | 
| -	xorl	%edx,%ecx
 | 
| -	psrld	$31,%xmm10
 | 
| -	xorl	%edx,%esi
 | 
| -	addl	%eax,%ebp
 | 
| -	movdqa	%xmm9,%xmm8
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%esi,%ebp
 | 
| -	psrld	$30,%xmm9
 | 
| -	por	%xmm10,%xmm6
 | 
| -	addl	44(%rsp),%edx
 | 
| -	xorl	%ecx,%ebx
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -	pslld	$2,%xmm8
 | 
| -	pxor	%xmm9,%xmm6
 | 
| -	andl	%ebx,%edi
 | 
| -	xorl	%ecx,%ebx
 | 
| -	movdqa	16(%r11),%xmm9
 | 
| -	xorl	%ecx,%edi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	144(%r15),%xmm14
 | 
| -	addl	%ebp,%edx
 | 
| -	pxor	%xmm8,%xmm6
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%edi,%edx
 | 
| -	movdqa	%xmm4,%xmm7
 | 
| -	addl	48(%rsp),%ecx
 | 
| -	xorl	%ebx,%eax
 | 
| -	movdqa	%xmm6,%xmm8
 | 
| -.byte	102,15,58,15,251,8
 | 
| -	movl	%edx,%edi
 | 
| -	roll	$5,%edx
 | 
| -	paddd	%xmm6,%xmm9
 | 
| -	andl	%eax,%esi
 | 
| -	xorl	%ebx,%eax
 | 
| -	psrldq	$4,%xmm8
 | 
| -	xorl	%ebx,%esi
 | 
| -	addl	%edx,%ecx
 | 
| -	pxor	%xmm3,%xmm7
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%esi,%ecx
 | 
| -	pxor	%xmm5,%xmm8
 | 
| -	addl	52(%rsp),%ebx
 | 
| -	xorl	%eax,%ebp
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	160(%r15),%xmm15
 | 
| -	pxor	%xmm8,%xmm7
 | 
| -	andl	%ebp,%edi
 | 
| -	xorl	%eax,%ebp
 | 
| -	movdqa	%xmm9,32(%rsp)
 | 
| -	xorl	%eax,%edi
 | 
| -	addl	%ecx,%ebx
 | 
| -	movdqa	%xmm7,%xmm10
 | 
| -	movdqa	%xmm7,%xmm8
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%edi,%ebx
 | 
| -	addl	56(%rsp),%eax
 | 
| -	xorl	%ebp,%edx
 | 
| -	pslldq	$12,%xmm10
 | 
| -	paddd	%xmm7,%xmm7
 | 
| -	movl	%ebx,%edi
 | 
| -	roll	$5,%ebx
 | 
| -	andl	%edx,%esi
 | 
| -	xorl	%ebp,%edx
 | 
| -	psrld	$31,%xmm8
 | 
| -	xorl	%ebp,%esi
 | 
| -	addl	%ebx,%eax
 | 
| -	movdqa	%xmm10,%xmm9
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%esi,%eax
 | 
| -	psrld	$30,%xmm10
 | 
| -	por	%xmm8,%xmm7
 | 
| -	addl	60(%rsp),%ebp
 | 
| -	cmpl	$11,%r8d
 | 
| -	jb	.Laesenclast1
 | 
| -	movups	176(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	192(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	je	.Laesenclast1
 | 
| -	movups	208(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	224(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -.Laesenclast1:
 | 
| -.byte	102,69,15,56,221,223
 | 
| -	movups	16(%r15),%xmm14
 | 
| -	xorl	%edx,%ecx
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	pslld	$2,%xmm9
 | 
| -	pxor	%xmm10,%xmm7
 | 
| -	andl	%ecx,%edi
 | 
| -	xorl	%edx,%ecx
 | 
| -	movdqa	16(%r11),%xmm10
 | 
| -	xorl	%edx,%edi
 | 
| -	addl	%eax,%ebp
 | 
| -	pxor	%xmm9,%xmm7
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%edi,%ebp
 | 
| -	movdqa	%xmm7,%xmm9
 | 
| -	addl	0(%rsp),%edx
 | 
| -	pxor	%xmm4,%xmm0
 | 
| -.byte	102,68,15,58,15,206,8
 | 
| -	xorl	%ecx,%ebx
 | 
| -	movl	%ebp,%edi
 | 
| -	roll	$5,%ebp
 | 
| -	pxor	%xmm1,%xmm0
 | 
| -	andl	%ebx,%esi
 | 
| -	xorl	%ecx,%ebx
 | 
| -	movdqa	%xmm10,%xmm8
 | 
| -	paddd	%xmm7,%xmm10
 | 
| -	xorl	%ecx,%esi
 | 
| -	movups	16(%r12),%xmm12
 | 
| -	xorps	%xmm13,%xmm12
 | 
| -	movups	%xmm11,0(%r13,%r12,1)
 | 
| -	xorps	%xmm12,%xmm11
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	32(%r15),%xmm15
 | 
| -	addl	%ebp,%edx
 | 
| -	pxor	%xmm9,%xmm0
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%esi,%edx
 | 
| -	addl	4(%rsp),%ecx
 | 
| -	xorl	%ebx,%eax
 | 
| -	movdqa	%xmm0,%xmm9
 | 
| -	movdqa	%xmm10,48(%rsp)
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	andl	%eax,%edi
 | 
| -	xorl	%ebx,%eax
 | 
| -	pslld	$2,%xmm0
 | 
| -	xorl	%ebx,%edi
 | 
| -	addl	%edx,%ecx
 | 
| -	psrld	$30,%xmm9
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%edi,%ecx
 | 
| -	addl	8(%rsp),%ebx
 | 
| -	xorl	%eax,%ebp
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	48(%r15),%xmm14
 | 
| -	por	%xmm9,%xmm0
 | 
| -	andl	%ebp,%esi
 | 
| -	xorl	%eax,%ebp
 | 
| -	movdqa	%xmm0,%xmm10
 | 
| -	xorl	%eax,%esi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	addl	12(%rsp),%eax
 | 
| -	xorl	%ebp,%edx
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	andl	%edx,%edi
 | 
| -	xorl	%ebp,%edx
 | 
| -	xorl	%ebp,%edi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	addl	16(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	64(%r15),%xmm15
 | 
| -	pxor	%xmm5,%xmm1
 | 
| -.byte	102,68,15,58,15,215,8
 | 
| -	xorl	%edx,%esi
 | 
| -	movl	%eax,%edi
 | 
| -	roll	$5,%eax
 | 
| -	pxor	%xmm2,%xmm1
 | 
| -	xorl	%ecx,%esi
 | 
| -	addl	%eax,%ebp
 | 
| -	movdqa	%xmm8,%xmm9
 | 
| -	paddd	%xmm0,%xmm8
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%esi,%ebp
 | 
| -	pxor	%xmm10,%xmm1
 | 
| -	addl	20(%rsp),%edx
 | 
| -	xorl	%ecx,%edi
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -	movdqa	%xmm1,%xmm10
 | 
| -	movdqa	%xmm8,0(%rsp)
 | 
| -	xorl	%ebx,%edi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%edi,%edx
 | 
| -	pslld	$2,%xmm1
 | 
| -	addl	24(%rsp),%ecx
 | 
| -	xorl	%ebx,%esi
 | 
| -	psrld	$30,%xmm10
 | 
| -	movl	%edx,%edi
 | 
| -	roll	$5,%edx
 | 
| -	xorl	%eax,%esi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	80(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%esi,%ecx
 | 
| -	por	%xmm10,%xmm1
 | 
| -	addl	28(%rsp),%ebx
 | 
| -	xorl	%eax,%edi
 | 
| -	movdqa	%xmm1,%xmm8
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -	xorl	%ebp,%edi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%edi,%ebx
 | 
| -	addl	32(%rsp),%eax
 | 
| -	pxor	%xmm6,%xmm2
 | 
| -.byte	102,68,15,58,15,192,8
 | 
| -	xorl	%ebp,%esi
 | 
| -	movl	%ebx,%edi
 | 
| -	roll	$5,%ebx
 | 
| -	pxor	%xmm3,%xmm2
 | 
| -	xorl	%edx,%esi
 | 
| -	addl	%ebx,%eax
 | 
| -	movdqa	32(%r11),%xmm10
 | 
| -	paddd	%xmm1,%xmm9
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%esi,%eax
 | 
| -	pxor	%xmm8,%xmm2
 | 
| -	addl	36(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	96(%r15),%xmm15
 | 
| -	xorl	%edx,%edi
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	movdqa	%xmm2,%xmm8
 | 
| -	movdqa	%xmm9,16(%rsp)
 | 
| -	xorl	%ecx,%edi
 | 
| -	addl	%eax,%ebp
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%edi,%ebp
 | 
| -	pslld	$2,%xmm2
 | 
| -	addl	40(%rsp),%edx
 | 
| -	xorl	%ecx,%esi
 | 
| -	psrld	$30,%xmm8
 | 
| -	movl	%ebp,%edi
 | 
| -	roll	$5,%ebp
 | 
| -	xorl	%ebx,%esi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%esi,%edx
 | 
| -	por	%xmm8,%xmm2
 | 
| -	addl	44(%rsp),%ecx
 | 
| -	xorl	%ebx,%edi
 | 
| -	movdqa	%xmm2,%xmm9
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	xorl	%eax,%edi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	112(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%edi,%ecx
 | 
| -	addl	48(%rsp),%ebx
 | 
| -	pxor	%xmm7,%xmm3
 | 
| -.byte	102,68,15,58,15,201,8
 | 
| -	xorl	%eax,%esi
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -	pxor	%xmm4,%xmm3
 | 
| -	xorl	%ebp,%esi
 | 
| -	addl	%ecx,%ebx
 | 
| -	movdqa	%xmm10,%xmm8
 | 
| -	paddd	%xmm2,%xmm10
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	pxor	%xmm9,%xmm3
 | 
| -	addl	52(%rsp),%eax
 | 
| -	xorl	%ebp,%edi
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	movdqa	%xmm3,%xmm9
 | 
| -	movdqa	%xmm10,32(%rsp)
 | 
| -	xorl	%edx,%edi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	pslld	$2,%xmm3
 | 
| -	addl	56(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	128(%r15),%xmm15
 | 
| -	xorl	%edx,%esi
 | 
| -	psrld	$30,%xmm9
 | 
| -	movl	%eax,%edi
 | 
| -	roll	$5,%eax
 | 
| -	xorl	%ecx,%esi
 | 
| -	addl	%eax,%ebp
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%esi,%ebp
 | 
| -	por	%xmm9,%xmm3
 | 
| -	addl	60(%rsp),%edx
 | 
| -	xorl	%ecx,%edi
 | 
| -	movdqa	%xmm3,%xmm10
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -	xorl	%ebx,%edi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%edi,%edx
 | 
| -	addl	0(%rsp),%ecx
 | 
| -	pxor	%xmm0,%xmm4
 | 
| -.byte	102,68,15,58,15,210,8
 | 
| -	xorl	%ebx,%esi
 | 
| -	movl	%edx,%edi
 | 
| -	roll	$5,%edx
 | 
| -	pxor	%xmm5,%xmm4
 | 
| -	xorl	%eax,%esi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	144(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	movdqa	%xmm8,%xmm9
 | 
| -	paddd	%xmm3,%xmm8
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%esi,%ecx
 | 
| -	pxor	%xmm10,%xmm4
 | 
| -	addl	4(%rsp),%ebx
 | 
| -	xorl	%eax,%edi
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -	movdqa	%xmm4,%xmm10
 | 
| -	movdqa	%xmm8,48(%rsp)
 | 
| -	xorl	%ebp,%edi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%edi,%ebx
 | 
| -	pslld	$2,%xmm4
 | 
| -	addl	8(%rsp),%eax
 | 
| -	xorl	%ebp,%esi
 | 
| -	psrld	$30,%xmm10
 | 
| -	movl	%ebx,%edi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%esi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%esi,%eax
 | 
| -	por	%xmm10,%xmm4
 | 
| -	addl	12(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	160(%r15),%xmm15
 | 
| -	xorl	%edx,%edi
 | 
| -	movdqa	%xmm4,%xmm8
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	xorl	%ecx,%edi
 | 
| -	addl	%eax,%ebp
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%edi,%ebp
 | 
| -	addl	16(%rsp),%edx
 | 
| -	pxor	%xmm1,%xmm5
 | 
| -.byte	102,68,15,58,15,195,8
 | 
| -	xorl	%ecx,%esi
 | 
| -	movl	%ebp,%edi
 | 
| -	roll	$5,%ebp
 | 
| -	pxor	%xmm6,%xmm5
 | 
| -	xorl	%ebx,%esi
 | 
| -	addl	%ebp,%edx
 | 
| -	movdqa	%xmm9,%xmm10
 | 
| -	paddd	%xmm4,%xmm9
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%esi,%edx
 | 
| -	pxor	%xmm8,%xmm5
 | 
| -	addl	20(%rsp),%ecx
 | 
| -	xorl	%ebx,%edi
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	movdqa	%xmm5,%xmm8
 | 
| -	movdqa	%xmm9,0(%rsp)
 | 
| -	xorl	%eax,%edi
 | 
| -	cmpl	$11,%r8d
 | 
| -	jb	.Laesenclast2
 | 
| -	movups	176(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	192(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	je	.Laesenclast2
 | 
| -	movups	208(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	224(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -.Laesenclast2:
 | 
| -.byte	102,69,15,56,221,223
 | 
| -	movups	16(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%edi,%ecx
 | 
| -	pslld	$2,%xmm5
 | 
| -	addl	24(%rsp),%ebx
 | 
| -	xorl	%eax,%esi
 | 
| -	psrld	$30,%xmm8
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -	xorl	%ebp,%esi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	por	%xmm8,%xmm5
 | 
| -	addl	28(%rsp),%eax
 | 
| -	xorl	%ebp,%edi
 | 
| -	movdqa	%xmm5,%xmm9
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%edi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	movl	%ecx,%edi
 | 
| -	movups	32(%r12),%xmm12
 | 
| -	xorps	%xmm13,%xmm12
 | 
| -	movups	%xmm11,16(%r13,%r12,1)
 | 
| -	xorps	%xmm12,%xmm11
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	32(%r15),%xmm15
 | 
| -	pxor	%xmm2,%xmm6
 | 
| -.byte	102,68,15,58,15,204,8
 | 
| -	xorl	%edx,%ecx
 | 
| -	addl	32(%rsp),%ebp
 | 
| -	andl	%edx,%edi
 | 
| -	pxor	%xmm7,%xmm6
 | 
| -	andl	%ecx,%esi
 | 
| -	rorl	$7,%ebx
 | 
| -	movdqa	%xmm10,%xmm8
 | 
| -	paddd	%xmm5,%xmm10
 | 
| -	addl	%edi,%ebp
 | 
| -	movl	%eax,%edi
 | 
| -	pxor	%xmm9,%xmm6
 | 
| -	roll	$5,%eax
 | 
| -	addl	%esi,%ebp
 | 
| -	xorl	%edx,%ecx
 | 
| -	addl	%eax,%ebp
 | 
| -	movdqa	%xmm6,%xmm9
 | 
| -	movdqa	%xmm10,16(%rsp)
 | 
| -	movl	%ebx,%esi
 | 
| -	xorl	%ecx,%ebx
 | 
| -	addl	36(%rsp),%edx
 | 
| -	andl	%ecx,%esi
 | 
| -	pslld	$2,%xmm6
 | 
| -	andl	%ebx,%edi
 | 
| -	rorl	$7,%eax
 | 
| -	psrld	$30,%xmm9
 | 
| -	addl	%esi,%edx
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	48(%r15),%xmm14
 | 
| -	addl	%edi,%edx
 | 
| -	xorl	%ecx,%ebx
 | 
| -	addl	%ebp,%edx
 | 
| -	por	%xmm9,%xmm6
 | 
| -	movl	%eax,%edi
 | 
| -	xorl	%ebx,%eax
 | 
| -	movdqa	%xmm6,%xmm10
 | 
| -	addl	40(%rsp),%ecx
 | 
| -	andl	%ebx,%edi
 | 
| -	andl	%eax,%esi
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%edi,%ecx
 | 
| -	movl	%edx,%edi
 | 
| -	roll	$5,%edx
 | 
| -	addl	%esi,%ecx
 | 
| -	xorl	%ebx,%eax
 | 
| -	addl	%edx,%ecx
 | 
| -	movl	%ebp,%esi
 | 
| -	xorl	%eax,%ebp
 | 
| -	addl	44(%rsp),%ebx
 | 
| -	andl	%eax,%esi
 | 
| -	andl	%ebp,%edi
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	64(%r15),%xmm15
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -	addl	%edi,%ebx
 | 
| -	xorl	%eax,%ebp
 | 
| -	addl	%ecx,%ebx
 | 
| -	movl	%edx,%edi
 | 
| -	pxor	%xmm3,%xmm7
 | 
| -.byte	102,68,15,58,15,213,8
 | 
| -	xorl	%ebp,%edx
 | 
| -	addl	48(%rsp),%eax
 | 
| -	andl	%ebp,%edi
 | 
| -	pxor	%xmm0,%xmm7
 | 
| -	andl	%edx,%esi
 | 
| -	rorl	$7,%ecx
 | 
| -	movdqa	48(%r11),%xmm9
 | 
| -	paddd	%xmm6,%xmm8
 | 
| -	addl	%edi,%eax
 | 
| -	movl	%ebx,%edi
 | 
| -	pxor	%xmm10,%xmm7
 | 
| -	roll	$5,%ebx
 | 
| -	addl	%esi,%eax
 | 
| -	xorl	%ebp,%edx
 | 
| -	addl	%ebx,%eax
 | 
| -	movdqa	%xmm7,%xmm10
 | 
| -	movdqa	%xmm8,32(%rsp)
 | 
| -	movl	%ecx,%esi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	80(%r15),%xmm14
 | 
| -	xorl	%edx,%ecx
 | 
| -	addl	52(%rsp),%ebp
 | 
| -	andl	%edx,%esi
 | 
| -	pslld	$2,%xmm7
 | 
| -	andl	%ecx,%edi
 | 
| -	rorl	$7,%ebx
 | 
| -	psrld	$30,%xmm10
 | 
| -	addl	%esi,%ebp
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	addl	%edi,%ebp
 | 
| -	xorl	%edx,%ecx
 | 
| -	addl	%eax,%ebp
 | 
| -	por	%xmm10,%xmm7
 | 
| -	movl	%ebx,%edi
 | 
| -	xorl	%ecx,%ebx
 | 
| -	movdqa	%xmm7,%xmm8
 | 
| -	addl	56(%rsp),%edx
 | 
| -	andl	%ecx,%edi
 | 
| -	andl	%ebx,%esi
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%edi,%edx
 | 
| -	movl	%ebp,%edi
 | 
| -	roll	$5,%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	96(%r15),%xmm15
 | 
| -	addl	%esi,%edx
 | 
| -	xorl	%ecx,%ebx
 | 
| -	addl	%ebp,%edx
 | 
| -	movl	%eax,%esi
 | 
| -	xorl	%ebx,%eax
 | 
| -	addl	60(%rsp),%ecx
 | 
| -	andl	%ebx,%esi
 | 
| -	andl	%eax,%edi
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%esi,%ecx
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	addl	%edi,%ecx
 | 
| -	xorl	%ebx,%eax
 | 
| -	addl	%edx,%ecx
 | 
| -	movl	%ebp,%edi
 | 
| -	pxor	%xmm4,%xmm0
 | 
| -.byte	102,68,15,58,15,198,8
 | 
| -	xorl	%eax,%ebp
 | 
| -	addl	0(%rsp),%ebx
 | 
| -	andl	%eax,%edi
 | 
| -	pxor	%xmm1,%xmm0
 | 
| -	andl	%ebp,%esi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	112(%r15),%xmm14
 | 
| -	rorl	$7,%edx
 | 
| -	movdqa	%xmm9,%xmm10
 | 
| -	paddd	%xmm7,%xmm9
 | 
| -	addl	%edi,%ebx
 | 
| -	movl	%ecx,%edi
 | 
| -	pxor	%xmm8,%xmm0
 | 
| -	roll	$5,%ecx
 | 
| -	addl	%esi,%ebx
 | 
| -	xorl	%eax,%ebp
 | 
| -	addl	%ecx,%ebx
 | 
| -	movdqa	%xmm0,%xmm8
 | 
| -	movdqa	%xmm9,48(%rsp)
 | 
| -	movl	%edx,%esi
 | 
| -	xorl	%ebp,%edx
 | 
| -	addl	4(%rsp),%eax
 | 
| -	andl	%ebp,%esi
 | 
| -	pslld	$2,%xmm0
 | 
| -	andl	%edx,%edi
 | 
| -	rorl	$7,%ecx
 | 
| -	psrld	$30,%xmm8
 | 
| -	addl	%esi,%eax
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	addl	%edi,%eax
 | 
| -	xorl	%ebp,%edx
 | 
| -	addl	%ebx,%eax
 | 
| -	por	%xmm8,%xmm0
 | 
| -	movl	%ecx,%edi
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	128(%r15),%xmm15
 | 
| -	xorl	%edx,%ecx
 | 
| -	movdqa	%xmm0,%xmm9
 | 
| -	addl	8(%rsp),%ebp
 | 
| -	andl	%edx,%edi
 | 
| -	andl	%ecx,%esi
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%edi,%ebp
 | 
| -	movl	%eax,%edi
 | 
| -	roll	$5,%eax
 | 
| -	addl	%esi,%ebp
 | 
| -	xorl	%edx,%ecx
 | 
| -	addl	%eax,%ebp
 | 
| -	movl	%ebx,%esi
 | 
| -	xorl	%ecx,%ebx
 | 
| -	addl	12(%rsp),%edx
 | 
| -	andl	%ecx,%esi
 | 
| -	andl	%ebx,%edi
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%esi,%edx
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	144(%r15),%xmm14
 | 
| -	addl	%edi,%edx
 | 
| -	xorl	%ecx,%ebx
 | 
| -	addl	%ebp,%edx
 | 
| -	movl	%eax,%edi
 | 
| -	pxor	%xmm5,%xmm1
 | 
| -.byte	102,68,15,58,15,207,8
 | 
| -	xorl	%ebx,%eax
 | 
| -	addl	16(%rsp),%ecx
 | 
| -	andl	%ebx,%edi
 | 
| -	pxor	%xmm2,%xmm1
 | 
| -	andl	%eax,%esi
 | 
| -	rorl	$7,%ebp
 | 
| -	movdqa	%xmm10,%xmm8
 | 
| -	paddd	%xmm0,%xmm10
 | 
| -	addl	%edi,%ecx
 | 
| -	movl	%edx,%edi
 | 
| -	pxor	%xmm9,%xmm1
 | 
| -	roll	$5,%edx
 | 
| -	addl	%esi,%ecx
 | 
| -	xorl	%ebx,%eax
 | 
| -	addl	%edx,%ecx
 | 
| -	movdqa	%xmm1,%xmm9
 | 
| -	movdqa	%xmm10,0(%rsp)
 | 
| -	movl	%ebp,%esi
 | 
| -	xorl	%eax,%ebp
 | 
| -	addl	20(%rsp),%ebx
 | 
| -	andl	%eax,%esi
 | 
| -	pslld	$2,%xmm1
 | 
| -	andl	%ebp,%edi
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	160(%r15),%xmm15
 | 
| -	rorl	$7,%edx
 | 
| -	psrld	$30,%xmm9
 | 
| -	addl	%esi,%ebx
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -	addl	%edi,%ebx
 | 
| -	xorl	%eax,%ebp
 | 
| -	addl	%ecx,%ebx
 | 
| -	por	%xmm9,%xmm1
 | 
| -	movl	%edx,%edi
 | 
| -	xorl	%ebp,%edx
 | 
| -	movdqa	%xmm1,%xmm10
 | 
| -	addl	24(%rsp),%eax
 | 
| -	andl	%ebp,%edi
 | 
| -	andl	%edx,%esi
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	movl	%ebx,%edi
 | 
| -	roll	$5,%ebx
 | 
| -	addl	%esi,%eax
 | 
| -	xorl	%ebp,%edx
 | 
| -	addl	%ebx,%eax
 | 
| -	movl	%ecx,%esi
 | 
| -	cmpl	$11,%r8d
 | 
| -	jb	.Laesenclast3
 | 
| -	movups	176(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	192(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	je	.Laesenclast3
 | 
| -	movups	208(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	224(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -.Laesenclast3:
 | 
| -.byte	102,69,15,56,221,223
 | 
| -	movups	16(%r15),%xmm14
 | 
| -	xorl	%edx,%ecx
 | 
| -	addl	28(%rsp),%ebp
 | 
| -	andl	%edx,%esi
 | 
| -	andl	%ecx,%edi
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%esi,%ebp
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	addl	%edi,%ebp
 | 
| -	xorl	%edx,%ecx
 | 
| -	addl	%eax,%ebp
 | 
| -	movl	%ebx,%edi
 | 
| -	pxor	%xmm6,%xmm2
 | 
| -.byte	102,68,15,58,15,208,8
 | 
| -	xorl	%ecx,%ebx
 | 
| -	addl	32(%rsp),%edx
 | 
| -	andl	%ecx,%edi
 | 
| -	pxor	%xmm3,%xmm2
 | 
| -	andl	%ebx,%esi
 | 
| -	rorl	$7,%eax
 | 
| -	movdqa	%xmm8,%xmm9
 | 
| -	paddd	%xmm1,%xmm8
 | 
| -	addl	%edi,%edx
 | 
| -	movl	%ebp,%edi
 | 
| -	pxor	%xmm10,%xmm2
 | 
| -	roll	$5,%ebp
 | 
| -	movups	48(%r12),%xmm12
 | 
| -	xorps	%xmm13,%xmm12
 | 
| -	movups	%xmm11,32(%r13,%r12,1)
 | 
| -	xorps	%xmm12,%xmm11
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	32(%r15),%xmm15
 | 
| -	addl	%esi,%edx
 | 
| -	xorl	%ecx,%ebx
 | 
| -	addl	%ebp,%edx
 | 
| -	movdqa	%xmm2,%xmm10
 | 
| -	movdqa	%xmm8,16(%rsp)
 | 
| -	movl	%eax,%esi
 | 
| -	xorl	%ebx,%eax
 | 
| -	addl	36(%rsp),%ecx
 | 
| -	andl	%ebx,%esi
 | 
| -	pslld	$2,%xmm2
 | 
| -	andl	%eax,%edi
 | 
| -	rorl	$7,%ebp
 | 
| -	psrld	$30,%xmm10
 | 
| -	addl	%esi,%ecx
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	addl	%edi,%ecx
 | 
| -	xorl	%ebx,%eax
 | 
| -	addl	%edx,%ecx
 | 
| -	por	%xmm10,%xmm2
 | 
| -	movl	%ebp,%edi
 | 
| -	xorl	%eax,%ebp
 | 
| -	movdqa	%xmm2,%xmm8
 | 
| -	addl	40(%rsp),%ebx
 | 
| -	andl	%eax,%edi
 | 
| -	andl	%ebp,%esi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	48(%r15),%xmm14
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%edi,%ebx
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -	addl	%esi,%ebx
 | 
| -	xorl	%eax,%ebp
 | 
| -	addl	%ecx,%ebx
 | 
| -	movl	%edx,%esi
 | 
| -	xorl	%ebp,%edx
 | 
| -	addl	44(%rsp),%eax
 | 
| -	andl	%ebp,%esi
 | 
| -	andl	%edx,%edi
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%esi,%eax
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	addl	%edi,%eax
 | 
| -	xorl	%ebp,%edx
 | 
| -	addl	%ebx,%eax
 | 
| -	addl	48(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	64(%r15),%xmm15
 | 
| -	pxor	%xmm7,%xmm3
 | 
| -.byte	102,68,15,58,15,193,8
 | 
| -	xorl	%edx,%esi
 | 
| -	movl	%eax,%edi
 | 
| -	roll	$5,%eax
 | 
| -	pxor	%xmm4,%xmm3
 | 
| -	xorl	%ecx,%esi
 | 
| -	addl	%eax,%ebp
 | 
| -	movdqa	%xmm9,%xmm10
 | 
| -	paddd	%xmm2,%xmm9
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%esi,%ebp
 | 
| -	pxor	%xmm8,%xmm3
 | 
| -	addl	52(%rsp),%edx
 | 
| -	xorl	%ecx,%edi
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -	movdqa	%xmm3,%xmm8
 | 
| -	movdqa	%xmm9,32(%rsp)
 | 
| -	xorl	%ebx,%edi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%edi,%edx
 | 
| -	pslld	$2,%xmm3
 | 
| -	addl	56(%rsp),%ecx
 | 
| -	xorl	%ebx,%esi
 | 
| -	psrld	$30,%xmm8
 | 
| -	movl	%edx,%edi
 | 
| -	roll	$5,%edx
 | 
| -	xorl	%eax,%esi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	80(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%esi,%ecx
 | 
| -	por	%xmm8,%xmm3
 | 
| -	addl	60(%rsp),%ebx
 | 
| -	xorl	%eax,%edi
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -	xorl	%ebp,%edi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%edi,%ebx
 | 
| -	addl	0(%rsp),%eax
 | 
| -	paddd	%xmm3,%xmm10
 | 
| -	xorl	%ebp,%esi
 | 
| -	movl	%ebx,%edi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%esi
 | 
| -	movdqa	%xmm10,48(%rsp)
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%esi,%eax
 | 
| -	addl	4(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	96(%r15),%xmm15
 | 
| -	xorl	%edx,%edi
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	xorl	%ecx,%edi
 | 
| -	addl	%eax,%ebp
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%edi,%ebp
 | 
| -	addl	8(%rsp),%edx
 | 
| -	xorl	%ecx,%esi
 | 
| -	movl	%ebp,%edi
 | 
| -	roll	$5,%ebp
 | 
| -	xorl	%ebx,%esi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%esi,%edx
 | 
| -	addl	12(%rsp),%ecx
 | 
| -	xorl	%ebx,%edi
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	xorl	%eax,%edi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	112(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%edi,%ecx
 | 
| -	cmpq	%r14,%r10
 | 
| -	je	.Ldone_ssse3
 | 
| -	movdqa	64(%r11),%xmm6
 | 
| -	movdqa	0(%r11),%xmm9
 | 
| -	movdqu	0(%r10),%xmm0
 | 
| -	movdqu	16(%r10),%xmm1
 | 
| -	movdqu	32(%r10),%xmm2
 | 
| -	movdqu	48(%r10),%xmm3
 | 
| -.byte	102,15,56,0,198
 | 
| -	addq	$64,%r10
 | 
| -	addl	16(%rsp),%ebx
 | 
| -	xorl	%eax,%esi
 | 
| -.byte	102,15,56,0,206
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -	paddd	%xmm9,%xmm0
 | 
| -	xorl	%ebp,%esi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	movdqa	%xmm0,0(%rsp)
 | 
| -	addl	20(%rsp),%eax
 | 
| -	xorl	%ebp,%edi
 | 
| -	psubd	%xmm9,%xmm0
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%edi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	addl	24(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	128(%r15),%xmm15
 | 
| -	xorl	%edx,%esi
 | 
| -	movl	%eax,%edi
 | 
| -	roll	$5,%eax
 | 
| -	xorl	%ecx,%esi
 | 
| -	addl	%eax,%ebp
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%esi,%ebp
 | 
| -	addl	28(%rsp),%edx
 | 
| -	xorl	%ecx,%edi
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -	xorl	%ebx,%edi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%edi,%edx
 | 
| -	addl	32(%rsp),%ecx
 | 
| -	xorl	%ebx,%esi
 | 
| -.byte	102,15,56,0,214
 | 
| -	movl	%edx,%edi
 | 
| -	roll	$5,%edx
 | 
| -	paddd	%xmm9,%xmm1
 | 
| -	xorl	%eax,%esi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	144(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%esi,%ecx
 | 
| -	movdqa	%xmm1,16(%rsp)
 | 
| -	addl	36(%rsp),%ebx
 | 
| -	xorl	%eax,%edi
 | 
| -	psubd	%xmm9,%xmm1
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -	xorl	%ebp,%edi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%edi,%ebx
 | 
| -	addl	40(%rsp),%eax
 | 
| -	xorl	%ebp,%esi
 | 
| -	movl	%ebx,%edi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%esi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%esi,%eax
 | 
| -	addl	44(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	160(%r15),%xmm15
 | 
| -	xorl	%edx,%edi
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	xorl	%ecx,%edi
 | 
| -	addl	%eax,%ebp
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%edi,%ebp
 | 
| -	addl	48(%rsp),%edx
 | 
| -	xorl	%ecx,%esi
 | 
| -.byte	102,15,56,0,222
 | 
| -	movl	%ebp,%edi
 | 
| -	roll	$5,%ebp
 | 
| -	paddd	%xmm9,%xmm2
 | 
| -	xorl	%ebx,%esi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%esi,%edx
 | 
| -	movdqa	%xmm2,32(%rsp)
 | 
| -	addl	52(%rsp),%ecx
 | 
| -	xorl	%ebx,%edi
 | 
| -	psubd	%xmm9,%xmm2
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	xorl	%eax,%edi
 | 
| -	cmpl	$11,%r8d
 | 
| -	jb	.Laesenclast4
 | 
| -	movups	176(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	192(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	je	.Laesenclast4
 | 
| -	movups	208(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	224(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -.Laesenclast4:
 | 
| -.byte	102,69,15,56,221,223
 | 
| -	movups	16(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%edi,%ecx
 | 
| -	addl	56(%rsp),%ebx
 | 
| -	xorl	%eax,%esi
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -	xorl	%ebp,%esi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	addl	60(%rsp),%eax
 | 
| -	xorl	%ebp,%edi
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%edi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	movups	%xmm11,48(%r13,%r12,1)
 | 
| -	leaq	64(%r12),%r12
 | 
| -
 | 
| -	addl	0(%r9),%eax
 | 
| -	addl	4(%r9),%esi
 | 
| -	addl	8(%r9),%ecx
 | 
| -	addl	12(%r9),%edx
 | 
| -	movl	%eax,0(%r9)
 | 
| -	addl	16(%r9),%ebp
 | 
| -	movl	%esi,4(%r9)
 | 
| -	movl	%esi,%ebx
 | 
| -	movl	%ecx,8(%r9)
 | 
| -	movl	%edx,12(%r9)
 | 
| -	movl	%ebp,16(%r9)
 | 
| -	jmp	.Loop_ssse3
 | 
| -
 | 
| -.align	16
 | 
| -.Ldone_ssse3:
 | 
| -	addl	16(%rsp),%ebx
 | 
| -	xorl	%eax,%esi
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -	xorl	%ebp,%esi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	addl	20(%rsp),%eax
 | 
| -	xorl	%ebp,%edi
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%edi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	addl	24(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	128(%r15),%xmm15
 | 
| -	xorl	%edx,%esi
 | 
| -	movl	%eax,%edi
 | 
| -	roll	$5,%eax
 | 
| -	xorl	%ecx,%esi
 | 
| -	addl	%eax,%ebp
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%esi,%ebp
 | 
| -	addl	28(%rsp),%edx
 | 
| -	xorl	%ecx,%edi
 | 
| -	movl	%ebp,%esi
 | 
| -	roll	$5,%ebp
 | 
| -	xorl	%ebx,%edi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%edi,%edx
 | 
| -	addl	32(%rsp),%ecx
 | 
| -	xorl	%ebx,%esi
 | 
| -	movl	%edx,%edi
 | 
| -	roll	$5,%edx
 | 
| -	xorl	%eax,%esi
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	144(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%esi,%ecx
 | 
| -	addl	36(%rsp),%ebx
 | 
| -	xorl	%eax,%edi
 | 
| -	movl	%ecx,%esi
 | 
| -	roll	$5,%ecx
 | 
| -	xorl	%ebp,%edi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%edi,%ebx
 | 
| -	addl	40(%rsp),%eax
 | 
| -	xorl	%ebp,%esi
 | 
| -	movl	%ebx,%edi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%esi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%esi,%eax
 | 
| -	addl	44(%rsp),%ebp
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	movups	160(%r15),%xmm15
 | 
| -	xorl	%edx,%edi
 | 
| -	movl	%eax,%esi
 | 
| -	roll	$5,%eax
 | 
| -	xorl	%ecx,%edi
 | 
| -	addl	%eax,%ebp
 | 
| -	rorl	$7,%ebx
 | 
| -	addl	%edi,%ebp
 | 
| -	addl	48(%rsp),%edx
 | 
| -	xorl	%ecx,%esi
 | 
| -	movl	%ebp,%edi
 | 
| -	roll	$5,%ebp
 | 
| -	xorl	%ebx,%esi
 | 
| -	addl	%ebp,%edx
 | 
| -	rorl	$7,%eax
 | 
| -	addl	%esi,%edx
 | 
| -	addl	52(%rsp),%ecx
 | 
| -	xorl	%ebx,%edi
 | 
| -	movl	%edx,%esi
 | 
| -	roll	$5,%edx
 | 
| -	xorl	%eax,%edi
 | 
| -	cmpl	$11,%r8d
 | 
| -	jb	.Laesenclast5
 | 
| -	movups	176(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	192(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -	je	.Laesenclast5
 | 
| -	movups	208(%r15),%xmm14
 | 
| -.byte	102,69,15,56,220,223
 | 
| -	movups	224(%r15),%xmm15
 | 
| -.byte	102,69,15,56,220,222
 | 
| -.Laesenclast5:
 | 
| -.byte	102,69,15,56,221,223
 | 
| -	movups	16(%r15),%xmm14
 | 
| -	addl	%edx,%ecx
 | 
| -	rorl	$7,%ebp
 | 
| -	addl	%edi,%ecx
 | 
| -	addl	56(%rsp),%ebx
 | 
| -	xorl	%eax,%esi
 | 
| -	movl	%ecx,%edi
 | 
| -	roll	$5,%ecx
 | 
| -	xorl	%ebp,%esi
 | 
| -	addl	%ecx,%ebx
 | 
| -	rorl	$7,%edx
 | 
| -	addl	%esi,%ebx
 | 
| -	addl	60(%rsp),%eax
 | 
| -	xorl	%ebp,%edi
 | 
| -	movl	%ebx,%esi
 | 
| -	roll	$5,%ebx
 | 
| -	xorl	%edx,%edi
 | 
| -	addl	%ebx,%eax
 | 
| -	rorl	$7,%ecx
 | 
| -	addl	%edi,%eax
 | 
| -	movups	%xmm11,48(%r13,%r12,1)
 | 
| -	movq	88(%rsp),%r8
 | 
| -
 | 
| -	addl	0(%r9),%eax
 | 
| -	addl	4(%r9),%esi
 | 
| -	addl	8(%r9),%ecx
 | 
| -	movl	%eax,0(%r9)
 | 
| -	addl	12(%r9),%edx
 | 
| -	movl	%esi,4(%r9)
 | 
| -	addl	16(%r9),%ebp
 | 
| -	movl	%ecx,8(%r9)
 | 
| -	movl	%edx,12(%r9)
 | 
| -	movl	%ebp,16(%r9)
 | 
| -	movups	%xmm11,(%r8)
 | 
| -	leaq	104(%rsp),%rsi
 | 
| -	movq	0(%rsi),%r15
 | 
| -	movq	8(%rsi),%r14
 | 
| -	movq	16(%rsi),%r13
 | 
| -	movq	24(%rsi),%r12
 | 
| -	movq	32(%rsi),%rbp
 | 
| -	movq	40(%rsi),%rbx
 | 
| -	leaq	48(%rsi),%rsp
 | 
| -.Lepilogue_ssse3:
 | 
| -	.byte	0xf3,0xc3
 | 
| -.size	aesni_cbc_sha1_enc_ssse3,.-aesni_cbc_sha1_enc_ssse3
 | 
| -.align	64
 | 
| -K_XX_XX:
 | 
| -.long	0x5a827999,0x5a827999,0x5a827999,0x5a827999	
 | 
| -.long	0x6ed9eba1,0x6ed9eba1,0x6ed9eba1,0x6ed9eba1	
 | 
| -.long	0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc,0x8f1bbcdc	
 | 
| -.long	0xca62c1d6,0xca62c1d6,0xca62c1d6,0xca62c1d6	
 | 
| -.long	0x00010203,0x04050607,0x08090a0b,0x0c0d0e0f	
 | 
| -
 | 
| -.byte	65,69,83,78,73,45,67,66,67,43,83,72,65,49,32,115,116,105,116,99,104,32,102,111,114,32,120,56,54,95,54,52,44,32,67,82,89,80,84,79,71,65,77,83,32,98,121,32,60,97,112,112,114,111,64,111,112,101,110,115,115,108,46,111,114,103,62,0
 | 
| -.align	64
 | 
| 
 |