@@ -64,16 +64,16 @@ asm_naked_fn(scrypt_ChunkMix_avx)
64
64
a3 (vpsrld xmm5 , xmm4 , 19 )
65
65
a3 (vpslld xmm4 , xmm4 , 13 )
66
66
a3 (vpxor xmm1 , xmm1 , xmm5 )
67
- a3 (pshufd xmm3 , xmm3 , 0x93 )
67
+ a3 (vpshufd xmm3 , xmm3 , 0x93 )
68
68
a3 (vpxor xmm1 , xmm1 , xmm4 )
69
69
a3 (vpaddd xmm4 , xmm2 , xmm1 )
70
70
a3 (vpsrld xmm5 , xmm4 , 14 )
71
71
a3 (vpslld xmm4 , xmm4 , 18 )
72
72
a3 (vpxor xmm0 , xmm0 , xmm5 )
73
- a3 (pshufd xmm2 , xmm2 , 0x4e )
73
+ a3 (vpshufd xmm2 , xmm2 , 0x4e )
74
74
a3 (vpxor xmm0 , xmm0 , xmm4 )
75
75
a3 (vpaddd xmm4 , xmm3 , xmm0 )
76
- a3 (pshufd xmm1 , xmm1 , 0x39 )
76
+ a3 (vpshufd xmm1 , xmm1 , 0x39 )
77
77
a3 (vpsrld xmm5 , xmm4 , 25 )
78
78
a3 (vpslld xmm4 , xmm4 , 7 )
79
79
a3 (vpxor xmm1 , xmm1 , xmm5 )
@@ -87,15 +87,15 @@ asm_naked_fn(scrypt_ChunkMix_avx)
87
87
a3 (vpsrld xmm5 , xmm4 , 19 )
88
88
a3 (vpslld xmm4 , xmm4 , 13 )
89
89
a3 (vpxor xmm3 , xmm3 , xmm5 )
90
- a3 (pshufd xmm1 , xmm1 , 0x93 )
90
+ a3 (vpshufd xmm1 , xmm1 , 0x93 )
91
91
a3 (vpxor xmm3 , xmm3 , xmm4 )
92
92
a3 (vpaddd xmm4 , xmm2 , xmm3 )
93
93
a3 (vpsrld xmm5 , xmm4 , 14 )
94
94
a3 (vpslld xmm4 , xmm4 , 18 )
95
95
a3 (vpxor xmm0 , xmm0 , xmm5 )
96
- a3 (pshufd xmm2 , xmm2 , 0x4e )
96
+ a3 (vpshufd xmm2 , xmm2 , 0x4e )
97
97
a3 (vpxor xmm0 , xmm0 , xmm4 )
98
- a3 (pshufd xmm3 , xmm3 , 0x39 )
98
+ a3 (vpshufd xmm3 , xmm3 , 0x39 )
99
99
a2 (sub eax , 2 )
100
100
aj (ja scrypt_salsa_avx_loop )
101
101
a3 (vpaddd xmm0 ,xmm0 ,[esp + 0 ])
@@ -184,16 +184,16 @@ asm_naked_fn(scrypt_ChunkMix_avx)
184
184
a3 (vpsrld xmm5 , xmm4 , 19 )
185
185
a3 (vpslld xmm4 , xmm4 , 13 )
186
186
a3 (vpxor xmm1 , xmm1 , xmm5 )
187
- a3 (pshufd xmm3 , xmm3 , 0x93 )
187
+ a3 (vpshufd xmm3 , xmm3 , 0x93 )
188
188
a3 (vpxor xmm1 , xmm1 , xmm4 )
189
189
a3 (vpaddd xmm4 , xmm2 , xmm1 )
190
190
a3 (vpsrld xmm5 , xmm4 , 14 )
191
191
a3 (vpslld xmm4 , xmm4 , 18 )
192
192
a3 (vpxor xmm0 , xmm0 , xmm5 )
193
- a3 (pshufd xmm2 , xmm2 , 0x4e )
193
+ a3 (vpshufd xmm2 , xmm2 , 0x4e )
194
194
a3 (vpxor xmm0 , xmm0 , xmm4 )
195
195
a3 (vpaddd xmm4 , xmm3 , xmm0 )
196
- a3 (pshufd xmm1 , xmm1 , 0x39 )
196
+ a3 (vpshufd xmm1 , xmm1 , 0x39 )
197
197
a3 (vpsrld xmm5 , xmm4 , 25 )
198
198
a3 (vpslld xmm4 , xmm4 , 7 )
199
199
a3 (vpxor xmm1 , xmm1 , xmm5 )
@@ -207,15 +207,15 @@ asm_naked_fn(scrypt_ChunkMix_avx)
207
207
a3 (vpsrld xmm5 , xmm4 , 19 )
208
208
a3 (vpslld xmm4 , xmm4 , 13 )
209
209
a3 (vpxor xmm3 , xmm3 , xmm5 )
210
- a3 (pshufd xmm1 , xmm1 , 0x93 )
210
+ a3 (vpshufd xmm1 , xmm1 , 0x93 )
211
211
a3 (vpxor xmm3 , xmm3 , xmm4 )
212
212
a3 (vpaddd xmm4 , xmm2 , xmm3 )
213
213
a3 (vpsrld xmm5 , xmm4 , 14 )
214
214
a3 (vpslld xmm4 , xmm4 , 18 )
215
215
a3 (vpxor xmm0 , xmm0 , xmm5 )
216
- a3 (pshufd xmm2 , xmm2 , 0x4e )
216
+ a3 (vpshufd xmm2 , xmm2 , 0x4e )
217
217
a3 (vpxor xmm0 , xmm0 , xmm4 )
218
- a3 (pshufd xmm3 , xmm3 , 0x39 )
218
+ a3 (vpshufd xmm3 , xmm3 , 0x39 )
219
219
a2 (sub rax , 2 )
220
220
aj (ja scrypt_salsa_avx_loop )
221
221
a3 (vpaddd xmm0 ,xmm0 ,xmm8 )
0 commit comments