@@ -15,7 +15,7 @@ TEXT ·maskAsm(SB), NOSPLIT, $0-28
15
15
CMP $64 , R1
16
16
BLT less_than_64
17
17
18
- // TODO: allign memory like amd64
18
+ // TODO: align memory like amd64
19
19
20
20
loop_64:
21
21
VLD1 (R0), [V1.B16, V2.B16, V3.B16, V4.B16]
@@ -29,41 +29,39 @@ loop_64:
29
29
BGE loop_64
30
30
31
31
less_than_64:
32
- // quick end
33
- CBZ R1, end
34
- TBZ $5 , R1, less_than32
32
+ TBZ $5 , R1, less_than_32
35
33
VLD1 (R0), [V1.B16, V2.B16]
36
34
VEOR V1.B16, V0.B16, V1.B16
37
35
VEOR V2.B16, V0.B16, V2.B16
38
36
VST1.P [V1.B16, V2.B16], 32 (R0)
39
37
40
- less_than32 :
41
- TBZ $4 , R1, less_than16
38
+ less_than_32 :
39
+ TBZ $4 , R1, less_than_16
42
40
LDP (R0), (R11, R12)
43
41
EOR R11, R2, R11
44
42
EOR R12, R2, R12
45
43
STP.P (R11, R12), 16 (R0)
46
44
47
- less_than16 :
48
- TBZ $3 , R1, less_than8
45
+ less_than_16 :
46
+ TBZ $3 , R1, less_than_8
49
47
MOVD (R0), R11
50
48
EOR R2, R11, R11
51
49
MOVD .P R11, 8 (R0)
52
50
53
- less_than8 :
54
- TBZ $2 , R1, less_than4
51
+ less_than_8 :
52
+ TBZ $2 , R1, less_than_4
55
53
MOVWU (R0), R11
56
54
EORW R2, R11, R11
57
55
MOVWU.P R11, 4 (R0)
58
56
59
- less_than4 :
60
- TBZ $1 , R1, less_than2
57
+ less_than_4 :
58
+ TBZ $1 , R1, less_than_2
61
59
MOVHU (R0), R11
62
60
EORW R3, R11, R11
63
61
MOVHU.P R11, 2 (R0)
64
62
RORW $16 , R3
65
63
66
- less_than2 :
64
+ less_than_2 :
67
65
TBZ $0 , R1, end
68
66
MOVBU (R0), R11
69
67
EORW R3, R11, R11
0 commit comments