본문 바로가기

머신러닝/[딥러닝을 이용한 자연어 처리]

Autoregressive language modeling

학습목표

자가회귀 언어 모델링 방법에 대해서 학습합니다.

핵심키워드

  • 자가회귀 언어 모델링(Autoregressive language modeling)

학습하기

 이제 자가회귀 언어 모델링을 보죠. 이건 시퀀스가 주어졌을 때, 이것을 어떻게 스코어링 할 것인가. 어떻게 확률 분포를 계산할 것인가. 에 대한 문제입니다.

 위 계산식을 보시면, 조건 확률 분포와 정확하게 같죠. 이렇게 모델링하게 되면 앞에서 봤던 Language modeling이, 감독학습이 되는거에요. 왜냐하면, 한 문장안의 토큰들의 확률을(y) 이전 단어들의 확률로(X) 계산하게 됬으니까요. 그러니까 한 문장안에 많은 Text classification이 필요하게된 것. 그 뿐인거죠. 

 그래서, 똑같습니다. 1번부터 t-1번 토큰들을 앞의 5가지 방법론(CBoW, RN, CNN)등을 통해서 Sentence representation으로 바꾸고, 이걸 Average해서, t번 토큰과 비교해서 로스를 계산한다. 이때 로스는 negativce log-prob을 사용하는거구요.

 위 예제를 하나보면, 뭐 사람이 생각하는 것과 비슷한거같죠. 이상입니다.

 

'머신러닝 > [딥러닝을 이용한 자연어 처리]' 카테고리의 다른 글

Neural N-Gram Language Model  (0) 2020.04.14
N-Gram Language Models  (0) 2020.04.13
Overview: Language Modeling  (0) 2020.04.11
Questions  (0) 2020.04.10
Summary  (0) 2020.04.09