You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
이러한 벡터 표현의 유용성은 [Tomas Mikolov의 연구](https://arxiv.org/pdf/1310.4546), [ACL 논문](https://aclanthology.org/N13-1090.pdf)등에서 입증되었습니다.
49
+
이러한 벡터 표현의 유용성은 Tomas Mikolov의 논문 [link1](https://arxiv.org/pdf/1310.4546), [link2](https://aclanthology.org/N13-1090.pdf)에서 입증되었습니다.
50
50
벡터의 **방향과 크기**를 통해 단어 간 관계를 파악할 수 있으며, 임베딩 벡터들을 더하거나 평균내는 방식으로 **의미 있는 벡터**를 생성할 수도 있습니다.
51
51
52
52
즉, tokenize된 시퀀스는 임베딩 벡터들의 시퀀스로 표현되며, 이 벡터들을 조합하면 문맥 정보를 유지한 의미 벡터를 만들 수 있습니다.
@@ -78,14 +78,32 @@ GEMM은 병렬 처리가 가능하며, 하드웨어 수준에서 다양한 최
78
78
79
79
### Efficient Attention
80
80
81
-
Efficient Attention의 일반적인 접근 방법은 computation Complexity의 Upper Bound를 낮추는 방법입니다.
82
-
context를 전체 input이 아닌 부분으로 한정하는 Window Attention 이 있습니다.Linear Attention은 Q@K^T를 계산할 때 (n,d) ,(d,n) 의 matrix들을 곱해서 계산하는게 아닌 K^T @V를 먼저 계산함. 즉, (d,n) @ (n,d) 의 matrix multiplication을 통해서 computation complexity를 O(N)으로 낮춥니다.
83
-
하지만, 이러한 efficient attention은 computation Complexity의 장점을 얻는 대신에 정확도에서 단점을 얻게 됩니다.
84
-
따라서, Memory Efficient한 Attention이 주목을 받고 있습니다. Gpu Programming을 활용하여 정확도를 유지한채 연산속도와 메모리 사용량을 상당부분 향상시키기 때문입니다.
81
+
Efficient Attention의 주요 목적은 **연산 복잡도(Computation Complexity)의 Upper Bound를 낮추는 것**입니다.
이를 위해 대표적으로 사용되는 방법 중 하나가 **Window Attention**[link](https://arxiv.org/abs/2103.14030)으로, 전체 입력 시퀀스를 대상으로 연산하는 것이 아니라 **일부 입력(context)을 제한된 범위 내에서만 처리**하는 방식입니다.
0 commit comments