code the world

  • 홈
  • 태그
  • 방명록

rnn 1

[Stanford 강의] Lecture 5 : Recurrent Neural Networks

과적합과 정규화이전에는 과적합이 좋지 않은 것으로 여겨졌지만, 현대의 거대 모델들은 훈련 데이터에 거의 완벽히 과적합 되도록 학습시킨다.만약 정규화를 잘 수행했다면 모델은 훈련 데이터가 아닌 다른 데이터에도 잘 일반화되기 때문이다. 정규화는 여러가지 방법이 있지만 이 중 Dropout이라는 방식을 알아보자.과제 2에서 이미 한번 나온 개념이지만, 다시 얘기하면 훈련 중에 중간 layer에서 몇몇 입력을 버리는 것이다.이를 위해 0과 1로 이루어진 마스크 행렬을 요소별 곱셈을 하면 된다. 이렇게 하면 모델은 하나의 입력에 강하게 의존할 수 없다.이 입력이 가끔 사라진 상태로 학습도 되기 때문이다. 테스트 시에는 모든 입력을 활성화 시킨다. 이게 좋은 이유에 대한 해석은 몇가지가 있는데,1. Feature ..

AI/자연어처리(NLP) 2025.12.09
이전
1
다음
더보기
프로필사진

code the world

한양대학교 컴퓨터소프트웨어학부 일상 블로그 : https://blog.naver.com/april2901

  • 분류 전체보기 (152) N
    • AI (50) N
      • 자연어처리(NLP) (12)
      • 강화학습(RL) (1)
      • 컴퓨터비전(CV) (33) N
    • CS (29)
      • 자료구조 (1)
      • 컴퓨터 구조 (3)
      • 컴파일러 (14)
      • 데이터베이스 시스템 (5)
      • 딥러닝 (6)
    • 프로젝트, 연구 (15)
      • 도서관 관리 사이트 (6)
      • 3DGS 구현 (9)
    • 알고리즘&문제풀이 (46)
    • R데이터분석 (1)
    • 기타 (10)
      • Trading (6)

Tag

Python, 컴퓨터비전, 파이썬, 알고리즘, nlp, 3dgs, 자연어처리, 3D복원, 문제풀이, complier, 백준, 신경망, 현대자동차, 소프티어, softeer, 인공지능, 이미지처리, 가우시안, Computer Vision, ai,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/05   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

  • github

티스토리툴바