Stanford대학교의 nlp강의 cs224n수업의 2주차에 해당하는 과제이다. 과제 문서는 이 링크에서 확인할 수 있다.https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1246/assignments/a2.pdf 이번 과제는 word2vec의 수학적 원리를 알아보고, neural dependency parser를 만들어보는, 총 두 개의 큰 주제로 나눠져 있다.아래의 내 답은 틀릴 수 있다는 것을 감안해야한다. 1. Understanding word2vecskip-gram에 대해 다시 기억을 되짚어 보면,중심단어가 주어졌을 때 주변단어가 올 확률을 높이는 방식으로 학습했다는 것을 기억할 수 있다.다만 실제로는 확률을 최대화 하는 대신 손실함수를 최소화하..