1. 어텐션 메커니즘(Attention Meshanism)
- 기본적으로 Seq2Seq 모델의 한계를 해결하기 위해 2014년도에 제안한 논문
- 입력 시퀀스가 길어지면 출력 시퀀스의 정확도가 떨어지는 것을 보정해주기 위해 등장한 기법
- 논문1: https://arxiv.org/abs/1409.0473
- 논문2: https://arxiv.org/abs/1508.04025
- 참고사이트: https://wikidocs.net/22893
1. 어텐션의 아이디어 |
|
2. 어텐션 함수 |
|
3. 어텐션 작동 원리 |
|
4. 어텐션과 Seq2Seq |
- 어텐션 메커니즘은 Seq2Seq 모델이 가지는 한계를 해결하기 위해 제안 되었기 때문에 논문에서는 Seq2Seq 모델에 어텐션 메커니즘을 적용한 모델을 제안 |
'AI > 자연어처리' 카테고리의 다른 글
15. 문장임베딩 | BERT (1) | 2024.07.05 |
---|---|
14. 문장 임베딩 | ELmo / Transformer (1) | 2024.07.04 |
12. 문장 임베딩 | Seq2Seq (1) | 2024.07.03 |
11. LSTM과 GRU (0) | 2024.07.02 |
10. CNN Text Classification (0) | 2024.07.02 |