code the world

  • 홈
  • 태그
  • 방명록

vanishing Gradients 1

[AI] Vanishing Gradients

Vanishing Gradients라는 현상을 알아보자. AI를 학습할 때 backpropagation(역전파)이 진행되는 중에 gradient가 점차 줄어들어 앞쪽 layer에서 거의 학습이 되지 않는 현상이다.역전파는 미분을 계속 곱하면서 전달되는데 이 미분값들이 0~1사이라면 계속 값이 줄어들기 때문이다.sigmoid 함수의 경우 최대 미분값이 0.25이고, 양끝으로 갈수록 미분값은 더 낮아진다.앞쪽 layer에서 가중치 학습이 거의 이루어지지 않고 뒤쪽 layer에서만 조금 학습된다.따라서 전체 학습 속도가 느려지게 된다.이런 현상을 네트워크 앞부분이 죽는다고 표현하기도 한다. 이번 글에서는 2개의 은닉층이 있는 간단한 신경망에서 활성화 함수를 sigmoid와 ReLU로 각각 설정했을 때 학습의 ..

AI 2025.12.21
이전
1
다음
더보기
프로필사진

code the world

한양대학교 컴퓨터소프트웨어학부 일상 블로그 : https://blog.naver.com/april2901

  • 분류 전체보기 (152) N
    • AI (50) N
      • 자연어처리(NLP) (12)
      • 강화학습(RL) (1)
      • 컴퓨터비전(CV) (33) N
    • CS (29)
      • 자료구조 (1)
      • 컴퓨터 구조 (3)
      • 컴파일러 (14)
      • 데이터베이스 시스템 (5)
      • 딥러닝 (6)
    • 프로젝트, 연구 (15)
      • 도서관 관리 사이트 (6)
      • 3DGS 구현 (9)
    • 알고리즘&문제풀이 (46)
    • R데이터분석 (1)
    • 기타 (10)
      • Trading (6)

Tag

컴퓨터비전, 자연어처리, 백준, 신경망, softeer, 소프티어, 인공지능, nlp, 이미지처리, 파이썬, 문제풀이, Computer Vision, 가우시안, ai, 3D복원, complier, 알고리즘, Python, 3dgs, 현대자동차,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/05   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

  • github

티스토리툴바