OLD | NEW |
1 #if defined(__arm__) | 1 #if defined(__arm__) |
2 #include <openssl/arm_arch.h> | 2 #include "arm_arch.h" |
3 | 3 |
4 .text | 4 .text |
5 .fpu neon | 5 .fpu neon |
6 .code 32 | 6 .code 32 |
7 .globl gcm_init_v8 | 7 .globl gcm_init_v8 |
8 .hidden gcm_init_v8 | |
9 .type gcm_init_v8,%function | 8 .type gcm_init_v8,%function |
10 .align 4 | 9 .align 4 |
11 gcm_init_v8: | 10 gcm_init_v8: |
12 vld1.64 {q9},[r1] @ load input H | 11 vld1.64 {q9},[r1] @ load input H |
13 vmov.i8 q11,#0xe1 | 12 vmov.i8 q11,#0xe1 |
14 vshl.i64 q11,q11,#57 @ 0xc2.0 | 13 vshl.i64 q11,q11,#57 @ 0xc2.0 |
15 vext.8 q3,q9,q9,#8 | 14 vext.8 q3,q9,q9,#8 |
16 vshr.u64 q10,q11,#63 | 15 vshr.u64 q10,q11,#63 |
17 vdup.32 q9,d18[1] | 16 vdup.32 q9,d18[1] |
18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 | 17 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 |
(...skipping 30 matching lines...) Expand all Loading... |
49 veor q14,q0,q10 | 48 veor q14,q0,q10 |
50 | 49 |
51 vext.8 q9,q14,q14,#8 @ Karatsuba pre-processing | 50 vext.8 q9,q14,q14,#8 @ Karatsuba pre-processing |
52 veor q9,q9,q14 | 51 veor q9,q9,q14 |
53 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed | 52 vext.8 q13,q8,q9,#8 @ pack Karatsuba pre-processed |
54 vst1.64 {q13,q14},[r0] @ store Htable[1..2] | 53 vst1.64 {q13,q14},[r0] @ store Htable[1..2] |
55 | 54 |
56 bx lr | 55 bx lr |
57 .size gcm_init_v8,.-gcm_init_v8 | 56 .size gcm_init_v8,.-gcm_init_v8 |
58 .globl gcm_gmult_v8 | 57 .globl gcm_gmult_v8 |
59 .hidden gcm_gmult_v8 | |
60 .type gcm_gmult_v8,%function | 58 .type gcm_gmult_v8,%function |
61 .align 4 | 59 .align 4 |
62 gcm_gmult_v8: | 60 gcm_gmult_v8: |
63 vld1.64 {q9},[r0] @ load Xi | 61 vld1.64 {q9},[r0] @ load Xi |
64 vmov.i8 q11,#0xe1 | 62 vmov.i8 q11,#0xe1 |
65 vld1.64 {q12,q13},[r1] @ load twisted H, ... | 63 vld1.64 {q12,q13},[r1] @ load twisted H, ... |
66 vshl.u64 q11,q11,#57 | 64 vshl.u64 q11,q11,#57 |
67 #ifndef __ARMEB__ | 65 #ifndef __ARMEB__ |
68 vrev64.8 q9,q9 | 66 vrev64.8 q9,q9 |
error: old chunk mismatch |
None
OLD | NEW |