밑바닥부터 만들면서 배우는 LLM 6장 독서 후기

힘센캥거루
2025년 12월 18일(수정됨)
2
challenge

6장은 분류를 위한 미세 튜닝하기이다.

예제로 나오는 것은 스팸 분류기 만들기.

스팸 분류기는 이것이 스팸인지, 스펨이 아닌지를 분류하는 것이므로 출력의 결과가 0, 1과 같은 값으로 나와야 한다.

1. 미세튜닝의 순서

밑바닥부터 만들면서 배우는 LLM 6장 독서 후기-1

미세 튜닝의 과정은 모델을 훈련시키는 과정과 비슷하다.

데이터셋을 준비하고, 가중치 값을 로드 한 뒤 훈련시키고 평가한다.

조금 다른점이 있다면 출력층을 0(스팸 아님)과 1(스팸)으로 매핑하는 과정이 있다는 것.

이렇게 나온 텐서들 중 가장 많은 정보를 담고 있는 마지막 텐서를 바탕으로 스팸 유무를 출력하도록 한다.

마지막으로 손실은 크로스 엔트로피로 산출한다.

2. 지도 학습 데이터로 모델 미세 튜닝하기

밑바닥부터 만들면서 배우는 LLM 6장 독서 후기-2

데이터를 훈련 데이터와 검증 데이터로 나누고, 이를 여러번의 에포크를 통해 학습시킨다.

훈련 정확도와 검증 정확도가 가깝게 유지되는 것은, 훈련과 검증 과정에서 비슷한 정확도를 보인다는 것.

이 말은 과대적합 징후가 없다는 것이다.

이제 이걸 이용해서 스팸을 가릴 수 있다.

3. 후기

내 맥미니로는 1.2B 돌리기도 벅차지만, 가능하다면 LLM을 훈련시켜서 여러 가지 것들을 할 수 있지 않을까 하는 생각이든다.

내년에 논문 쓸 때 이걸로 한번 해볼까 싶기도 하다.

얼른 책을 다 읽고, 그 다음 부터는 파이토치를 익혀 나가야겠다.

댓글을 불러오는 중...