NEFTune: Noisy Embeddings Improve Instruction Fine-tuning

2023. 11. 15. 10:21 · LLM 관련 논문 정리
목차
  1. 방법
  2. 실험 결과
  3. Reference

Noisy Embedding Fine TUNing : noise 를 추가하는 매우 간단한 방법으로 (instruction) fine-tuning 하는 방법이다.

 

방법

https://arxiv.org/pdf/2310.05914.pdf

방법은 위의 알고리즘과 같다. 위의 sudo code 은 학습 과정(fine-tuning) 을 나타낸 것이다. 

데이터셋 input 을 X_i 라고 하고 이를 Embedding layer 에 통과시킨 embedded input 을 X_emb 라고 한다.

이 X_emb representation 에 noise e를 Scaling 하여 추가한 후 (나머지) model 에 넣어준다.

이 때 e 는 위의 알고리즘에서 uniform 에서 샘플링한다.

이후 나머지 forward 과정과 back propagation 등은 똑같이 진행된다.

위 과정과 같이 매 mini batch 마다 다른 노이즈를 샘플링하여 더해준다.

 

noise 를 만드는 분포는 uniform 이 결과가 제일 좋았다고 한다.

Noise 를 Scaling 할때 사용하는 
L 은 sequence length , d 는 embedding dimension, /alpha 는 tunable parameter (Hyper-parameter 라고 할 수 있다) 이다. 

 

실험 결과

적용 모델은 LLaMA-1, LLaMA-2, and OPT-6.7B 이다.

https://arxiv.org/pdf/2310.05914.pdf

OpenLLM dataset 으로는 factual questions 과 reasoning challenge 등 정답을 맞추는능력을 평가한다.
위와 같이 noise 를 추가한 결과와 추가하지 않은 결과가 서로 차이가 거의 없는 것을 확인할 수 있다.

https://arxiv.org/pdf/2310.05914.pdf

 

💡 AlpacaEval 이란? 
Instruction tuning 이 된 LM 을 평가할 수 있는 Automatic Evaluator 로,
AlapacaFarm evaluation dataset 을 사용하여 general 한 user instruction 을 처리할 수 있는지를 판단하기 위한 평가지표 (metric) 이다.
ChatGPT 나 GPT-4 를 annotator로 Davinci003 모델 repsonce 와 비교하여 win rate 를 얻는다.

 

Alpaca eval win rate 는 시퀀스 길이가 증가함에 따라 좋은 점수를 받는 경향이 있다. (길이가 유의미하지만 반드시 그렇지는 않을수도 있기도 하다는 논문 결과도 있다!) 

-> 이를 그래서 확인하기 위해 repeatness 등이나 space 를 많이 만드는지 등을 확인할 필요가 있다.

 

하지만 위와 같이 GPT4, chatGPT annotator 를 이용한 (gpt 3.5와 결과를 비교하는) win rate 는 좀 많은 차이로 이긴 것을 위의 그래프를 통해 확인할 수 있다.

=> 이 말은 즉, 기존 성능을 낮추지 않고 human align 이 잘 되었다는 뜻이라고 논문에서 말한다.

 

Reference

https://arxiv.org/abs/2310.05914

 

NEFTune: Noisy Embeddings Improve Instruction Finetuning

We show that language model finetuning can be improved, sometimes dramatically, with a simple augmentation. NEFTune adds noise to the embedding vectors during training. Standard finetuning of LLaMA-2-7B using Alpaca achieves 29.79% on AlpacaEval, which ris

arxiv.org

 

'LLM 관련 논문 정리' 카테고리의 다른 글

SOLAR model paper  (1) 2024.01.13
SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer  (0) 2023.11.23
CLM, MLM, TLM 그리고 Seq2Seq  (0) 2023.10.30
Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than In-Context Learning (NIPS, 2208)  (0) 2023.09.30
PEFT (parameter-efficient fine tuning) 정리  (0) 2023.09.18
  1. 방법
  2. 실험 결과
  3. Reference
'LLM 관련 논문 정리' 카테고리의 다른 글
  • SOLAR model paper
  • SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer
  • CLM, MLM, TLM 그리고 Seq2Seq
  • Few-Shot Parameter-Efficient Fine-Tuning is Better and Cheaper than In-Context Learning (NIPS, 2208)
섬섬옥수수
섬섬옥수수
컴공 AI 개발자가 되기 위한 노역입니다
섬섬옥수수
아날로그 인간의 컴공 되기
섬섬옥수수
전체
오늘
어제
  • 분류 전체보기
    • 백준 단계별 코딩 테스트
    • KB 논문 정리
    • Memory network 논문 정리
    • LLM 관련 논문 정리
    • Python 및 Torch 코딩 이모저모
    • Clustering 관련 논문 정리
    • 머신러닝 이모저모
    • 암호학

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • constituency tree
  • 소프트웨어
  • 문제풀이
  • GIT
  • 오블완
  • CUDA
  • vocabulary expansion
  • 코딩테스트
  • 심재형
  • eeve
  • 이화여대
  • 하드웨어
  • 백준
  • dependency tree
  • ragas
  • e5-v
  • PEFT
  • 티스토리챌린지
  • 인공지능융합기반시스템개론
  • efficient and effective vocabulary expansion towards multilingual large language models

최근 댓글

최근 글

hELLO · Designed By 정상우.v4.2.0
섬섬옥수수
NEFTune: Noisy Embeddings Improve Instruction Fine-tuning
상단으로

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.