- RNN, LSTM, Seq2Seq의 구조적 한계(장기 의존성, 병렬화 어려움, 정보 병목 등)**에서 출발하여, 이를 해결하기 위해 등장한 Attention 메커니즘과 Transformer로의 발전 과정을 핵심 논문 중심으로 리뷰하고 이해합니다.
| 주차 | 내용 |
|---|---|
| 1 | 시퀀스 모델의 출발점 — RNN / LSTM / GRU |
| 2 | Encoder-Decoder, Seq2Seq |
| 3 | Attention 입문, 변형들 |
| 4 | Self-Attention, Transformer 개요(Multi-head self-attention까지) |
| 5 | Transformer(Positional Encoding부터 끝까지) |
| 6 | CV팀 논문 리뷰 발표 |
| 7 | NLP팀 논문 리뷰 발표 |
| 8 | CV팀 논문 리뷰 발표 |
| 9 | NLP팀 논문 리뷰 발표 |
| 10 | RoBot팀 논문 리뷰 발표 |
Paper Review반은 세미나 형식으로 진행되며, 격주로 운영됩니다.
- 일시: 금요일 18:00 - 20:00 (총 2교시 진행)
- 장소: 교내 강의실에서 진행
- 진행 방식
- 매 회차마다 정해진 논문을 전원 필수로 읽고 참여합니다.
- 발표 준비자는 해당 회차 논문의 핵심 내용을 정리하여 발표를 진행합니다.
- 발표 이후에는 질문 답변 및 토론 시간을 통해 논문의 내용, 한계, 개선 아이디어 등을 함께 논의합니다.
-
출결은 매 회차별로 개별 확인합니다.
(대면 수업은 현장 출석, 비대면 수업은 실시간 참여 여부 기준)
-
지각 기준
- 수업 시작 후 10분 초과 입장 시 지각으로 처리합니다.
- 지각 2회는 결석 1회로 환산합니다.
-
결석 기준
- 사전 연락 없이 수업에 참여하지 않은 경우 결석 처리합니다.
- 대면·비대면 수업 모두 동일한 결석 기준을 적용합니다.
-
사유 결석
- 시험, 공결, 건강상의 사유 등 불가피한 경우 사전 또는 당일 수업 전까지 멘토에게 공유 시 인정합니다.
-
수업 참여 태도
- 비대면 수업 중 무단 이탈, 장시간 비활성 상태는 지각 또는 결석으로 처리될 수 있습니다.
- 원활한 실습을 위해 수업 중 적극적인 참여를 권장합니다.