code the world

  • 홈
  • 태그
  • 방명록

Lora 1

[Fine Tuning] PEFT(Parameter-Efficient Fine-Tuning) : LoRA, QLoRA

어떤 LLM등을 원하는 목적에 맞게 튜닝할 때, 이 모델이 가지고 있는 파라미터를 업데이트해야한다.그러나 요즘 LLM들은 수십억개 수준의 매우 많은 파라미터를 가지고 있어 이 조정과정이 매우 오래걸린다.이는 개인적으로, 또는 소규모 그룹에서 진행하기에 매우 어렵고 매우 큰 VRAM과 비용이 요구된다. 위에서 얘기한 모든 파라미터를 조정하는 것을 Full Fine-tuning 이라고 한다. 예를 들어 1억개의 파라미터를 가지는 모델을 생각해보자.이 1억개의 파라미터가 들어있는 행렬을 $W_0$라고 하면 이는 10000*10000의 크기를 가질 것이다.$W_{tuned} = W_0 + \Delta W$이런 식으로 기존값에 일정량의 보정치를 더해 값을 수정할텐데 여기서 $\Delta W$도 10000*1000..

AI/자연어처리(NLP) 2025.11.11
이전
1
다음
더보기
프로필사진

code the world

한양대학교 컴퓨터소프트웨어학부 일상 블로그 : https://blog.naver.com/april2901

  • 분류 전체보기 (152) N
    • AI (50) N
      • 자연어처리(NLP) (12)
      • 강화학습(RL) (1)
      • 컴퓨터비전(CV) (33) N
    • CS (29)
      • 자료구조 (1)
      • 컴퓨터 구조 (3)
      • 컴파일러 (14)
      • 데이터베이스 시스템 (5)
      • 딥러닝 (6)
    • 프로젝트, 연구 (15)
      • 도서관 관리 사이트 (6)
      • 3DGS 구현 (9)
    • 알고리즘&문제풀이 (46)
    • R데이터분석 (1)
    • 기타 (10)
      • Trading (6)

Tag

3D복원, 알고리즘, 이미지처리, 신경망, 인공지능, Computer Vision, 소프티어, 파이썬, 자연어처리, nlp, Python, 3dgs, 현대자동차, 백준, 가우시안, softeer, 문제풀이, ai, complier, 컴퓨터비전,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/05   »
일 월 화 수 목 금 토
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

  • github

티스토리툴바