Peft save_pretrained() 에러 : UnboundLocalError: local variable 'active_adapters' referenced before assignment

2024. 10. 20. 21:45 · 머신러닝 이모저모
model = LlamaForCausalLM.from_pretrained(base_dir) 
peft_model = PeftModel.from_pretrained(model, lora_dir)
merged_model = peft_model.merge_and_unload() 
merged_model.save_pretrained(output_dir)

 

이렇게 하면 아래처럼 에러가 나타날 수 있다.

 

File "/home/***/dyeon/wandb-FastChat/fastchat/train/utils_dy.py", line 54, in merge_lora merged_model.save_pretrained(output_dir)

File "/home/***/miniforge3/envs/fctrain/lib/python3.10/site-packages/transformers/modeling_utils.py", line 2636, in save_pretrained state_dict = model_to_save.get_adapter_state_dict()

File "/home/***/miniforge3/envs/fctrain/lib/python3.10/site-packages/transformers/integrations/peft.py", line 423, in get_adapter_state_dict adapter_name = self.active_adapter()

File "/home/***/miniforge3/envs/fctrain/lib/python3.10/site-packages/transformers/integrations/peft.py", line 401, in active_adapter return self.active_adapters()[0]

File "/home/***/miniforge3/envs/fctrain/lib/python3.10/site-packages/transformers/integrations/peft.py", line 391, in active_adapters if isinstance(active_adapters, str):

UnboundLocalError: local variable 'active_adapters' referenced before assignment

 

 

그럴때에는 아래처럼 save_pretrained 의 주체를 peft_model 로 바꾸면 해결될 수 있다. 위 코드와 차이를 알겠는가?

peft_model.save_pretrained(output_dir)

 

 

원래 보통은 model, peft_model, merged_model 을 따로 안쓰고 model 로 같은 이름을 쓰지만 필자의 경우 디버깅 때문에 맨 위와 같이 다 다른 변수 이름을 사용하였다. 

 

그러면 from_pretrained() 만 된 model, peft_model 의 상태 를 확인하면, 

model 은 LlamaForCausalLM (llama 모델을 사용하였을 때) 를 확인할 수 있고, 

peft_model 은 PeftModelForCausalLM 임을 확인할 수 있다.

 

이후 확인을 해보면, merge_and_unload() 함수를 사용하면 merged_model 은 LlamaForCausalLM 임을 확인할 수 있다.

그런데 merge 를 하면 model 과 peft_model 의 파라미터 값은 merged 값과 같은 값이 된다.

 

근데 peft_model 은 PeftModelForCausalLM 세팅은 그대로 유지됨을 확인한다. 

 

그래서 그런가 싶다.. 사실 왜인지는 모르겠다 ㅠㅜ 아시는 분은 댓글로 알려주세요~.~

'머신러닝 이모저모' 카테고리의 다른 글

cuda downgrade 하기  (4) 2024.11.08
DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models  (0) 2024.11.07
[이화여대 강의] 2. Deep Learning Software Stack 1 (3)  (3) 2024.09.21
[이화여대 강의] 2. Deep Learning Software Stack 1 (2)  (0) 2024.09.20
[이화여대 강의] 2. Deep Learning Software Stack 1 (1)  (0) 2024.09.20
'머신러닝 이모저모' 카테고리의 다른 글
  • cuda downgrade 하기
  • DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models
  • [이화여대 강의] 2. Deep Learning Software Stack 1 (3)
  • [이화여대 강의] 2. Deep Learning Software Stack 1 (2)
섬섬옥수수
섬섬옥수수
컴공 AI 개발자가 되기 위한 노역입니다
섬섬옥수수
아날로그 인간의 컴공 되기
섬섬옥수수
전체
오늘
어제
  • 분류 전체보기
    • 백준 단계별 코딩 테스트
    • KB 논문 정리
    • Memory network 논문 정리
    • LLM 관련 논문 정리
    • Python 및 Torch 코딩 이모저모
    • Clustering 관련 논문 정리
    • 머신러닝 이모저모
    • 암호학

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • PEFT
  • 인공지능융합기반시스템개론
  • 백준
  • GIT
  • constituency tree
  • dependency tree
  • e5-v
  • 심재형
  • 오블완
  • 하드웨어
  • 이화여대
  • 소프트웨어
  • vocabulary expansion
  • 티스토리챌린지
  • CUDA
  • efficient and effective vocabulary expansion towards multilingual large language models
  • eeve
  • 문제풀이
  • 코딩테스트
  • ragas

최근 댓글

최근 글

hELLO · Designed By 정상우.v4.2.0
섬섬옥수수
Peft save_pretrained() 에러 : UnboundLocalError: local variable 'active_adapters' referenced before assignment
상단으로

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.