Negative Sampling 2

[NLP 논문] Distributed Representations of Words and Phrasesand their Compositionality

아래 글에서 이 블로그에서 리뷰한 논문들의 흐름과 분야별 분류를 한 눈에 볼 수 있다.읽은 논문들 정리이전 논문 리뷰와 마찬가지로 이 논문도 스탠포드 강의 1강에서 읽을거리로 언급되었다.2025.11.19 - [논문읽기] - [NLP 논문] Efficient Estimation of Word Representations inVector Space [NLP 논문] Efficient Estimation of Word Representations inVector Space2025.11.10 - [자연어처리(NLP)] - [NLP 이론] Stanford CS224N - Lecture 1 : Intro and Word Vectors [NLP 이론] Stanford CS224N - Lecture 1 : Intro ..

[Stanford 강의] Lecture 2 : Word Vectors and Language Models

영상 주소는 https://www.youtube.com/watch?v=nBor4jfWetQ&list=PLoROMvodv4rOaMFbaqxPDoLWjDaRAdP9D&index=6 이다.Gradient Descent어떤 랜덤지점에서 시작해 그 지점에서의 기울기(gradient)를 구하고 해당 방향으로 조금 내려간(미끄러진) 다음, 그 도착점에서 또 같은 행동을 반복하면 우리가 원하는 가장 낮은 지점을 찾을 수 있다.아래 그림처럼 1차원(변수 1개)에서는 매우 간단하다.하지만 차원 수가 커지면 복잡할 것이다.기본적인 방법은 그 지점에서의 기울기($\bigtriangledown _\theta J(\theta)$)를 구해서 매우 작은 수를 곱해 기존 값에서 빼는 것이다.$\theta$는 여러개의 차원을 가지고 있..