Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
Tags
- 코사인유사도
- Geocoding
- xmltodict
- 백준
- 재귀
- NLP
- 구현
- 그래프이론
- cosine
- 유클리드
- 건축물대장정보
- 그래프탐색
- 깊이우선탐색
- 지진대피소
- 자연어처리
- TF-IDF
- 유사도
- 우선순위큐
- dp
- 그리디
- GroupBy
- 너비우선탐색
- geopy
- 누적합
- 분할정복
- 공공데이터
- 전처리
- 비트마스킹
- pandas
- 수학
Archives
- Today
- Total
정리용
[NLP] 자연어 처리의 고전적인 방법 0 (개요) 본문
Google 에서 발표한 Attention is All you Need (2017) 를 기점으로
해당 논문에서 다룬 Transformer는 encoder / decoder 과정에서 LSTM의 단점을 제거하고 Positional encoding을 사용한 모델로
순차적으로 계산하는 RNN 과 달리 병렬적으로 한번에 이 과정을 처리하며 자연어 처리의 혁명적인 변화를 일으켰다.
때문에 Attention is All you Need 이전의 모델들은 고전적인 방법으로 분류된다.
'딥러닝 > 이론' 카테고리의 다른 글
[NLP] word2vec ( CBOW , Skip-gram) (0) | 2022.01.27 |
---|---|
[NLP] LSA (잠재 의미 분석 ), SVD ( 특이값 분해 ) (0) | 2022.01.26 |
[NLP] 문서의 유사도 측정 방법 ( 유클리드 거리 / 코사인 유사도 ) (0) | 2022.01.25 |
[NLP] TF-IDF (0) | 2022.01.24 |
[NLP] BOW ( Bag of Word ) (0) | 2022.01.21 |
Comments