code the world

  • 홈
  • 태그
  • 방명록

BN 1

[딥러닝] 5. Mini batch와 Batch Normalization

Batch이전 글에서 효율적인 행렬연산을 위해 여러 데이터를 붙이는 Vectorization을 얘기했었다.좋은 방법이지만 만약 데이터의 수가 너무 많아지면 메모리가 부족해질 수 있다.그래서 mini batch를 사용한다.데이터의 일부만을 묶어서 사용하는 방법이다.계산이 크게 달라지는 것 없이 그냥 mini batch를 전체 데이터라고 생각하면 된다. 예를 들어 500만 개의 데이터를 다룰 때 1000개씩 끊어서 이용한다면,batch size는 1000,mini batch 수는 5000이 된다. 한 세트를 처리하는 것을 1 iteration이라고 하고, 위 예시의 경우 5000번의 iteration을 수행하면 전체 데이터를 다 보게 되는데,이를 1 epoch라고 한다. 미니배치 사이즈 정하기미니배치가 무엇..

CS/딥러닝 2026.04.01
이전
1
다음
더보기
프로필사진

code the world

한양대학교 컴퓨터소프트웨어학부 일상 블로그 : https://blog.naver.com/april2901

  • 분류 전체보기 (152) N
    • AI (50) N
      • 자연어처리(NLP) (12)
      • 강화학습(RL) (1)
      • 컴퓨터비전(CV) (33) N
    • CS (29)
      • 자료구조 (1)
      • 컴퓨터 구조 (3)
      • 컴파일러 (14)
      • 데이터베이스 시스템 (5)
      • 딥러닝 (6)
    • 프로젝트, 연구 (15)
      • 도서관 관리 사이트 (6)
      • 3DGS 구현 (9)
    • 알고리즘&문제풀이 (46)
    • R데이터분석 (1)
    • 기타 (10)
      • Trading (6)

Tag

인공지능, 신경망, Python, 3dgs, 3D복원, nlp, 컴퓨터비전, ai, Computer Vision, 자연어처리, 백준, 이미지처리, 알고리즘, 현대자동차, 문제풀이, 파이썬, complier, 소프티어, 가우시안, softeer,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/05   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

  • github

티스토리툴바