- selfattention 계산 예시 tranformer/selfattention_example.ipynb
https://www.notion.so/PseudoLab-c42db6652c1b45c3ba4bfe157c70cf09
[NLP101-3] 한국인이라면 한국어 자연어 처리합시다.
https://ratsgo.github.io/embedding/
- Word2ec
- FastText
- 잠재의미분석 (LSA)
- GloVe
- Swivel
- Doc2Vec
- 잠재 디리클레 할당 (LDA)
- ELMo
- 트랜스포머 네트워크
- BERT
https://github.com/NLP-kr/tensorflow-ml-nlp-tf2/tree/master/7.PRETRAIN_METHOD
KNOU_STUDY_HOML2_KorQuAD_EDA.ipynb
KNOU_STUDY_HOML2_BERT_QA.ipynb