PEFT

model = LlamaForCausalLM.from_pretrained(base_dir) peft_model = PeftModel.from_pretrained(model, lora_dir)merged_model = peft_model.merge_and_unload() merged_model.save_pretrained(output_dir) 이렇게 하면 아래처럼 에러가 나타날 수 있다. File "/home/***/dyeon/wandb-FastChat/fastchat/train/utils_dy.py", line 54, in merge_lora merged_model.save_pretrained(output_dir) File "/home/***/miniforge3/envs/fctrain/lib/python..
** 이전 model 과 데이터 등의 선언부분은 다음 포스팅을 참조해주길 바란다!https://mari970.tistory.com/57 HuggingFace 실습(PEFT) : 1. Data허깅페이스를 이용해 PEFT 튜닝 실습을 해보자! 허깅페이스에서 제공하는 PEFT 라이브러리를 사용하여 GPT-2 모델을 prefix tuning 해볼 것이다. prefix tuning 의 개념은 이전에 블로그에서 설명한 글을 참mari970.tistory.com HuggingFace PEFT 학습코드def evaluate(model, eval_loader, device): model.eval() eval_loss = 0 with torch.no_grad(): for step, batch ..