blevels

Home / AI / AI 용어사전 / Fine-tuning (미세 조정)

TERM

Fine-tuning (미세 조정)

게시일 2026-04-29수정일 2026-04-29
공식 링크
On this page

Fine-tuning은 사전 학습된 모델에 추가 학습을 적용해 특정 작업이나 도메인에 특화시키는 과정입니다. 한국어로는 미세 조정이라고 부릅니다. 일반 LLM을 그대로 쓰지 않고, 자기 데이터로 추가 훈련해 응답 스타일, 전문 지식, 특정 형식을 모델에 각인시키는 방식입니다.

정의와 동작 원리

LLM은 일반 텍스트로 사전 학습됩니다. 이 상태로도 일반적인 작업은 잘 처리하지만, 특정 도메인(법률, 의료, 회사 내부 용어)에서는 정확도가 떨어집니다. Fine-tuning은 이 사전 학습 모델에 도메인 데이터(예: 법률 문서 1만 건)를 추가 학습시켜 해당 도메인에 더 잘 맞는 모델을 만듭니다.

학습 데이터는 보통 입력-출력 쌍 형식입니다. 고객지원 봇 fine-tuning이라면 사용자 질문과 이상적인 답변 쌍 수백~수천 개가 필요합니다. 모델은 이 쌍을 학습하면서 비슷한 질문에 비슷한 스타일로 답변하도록 조정됩니다.

언제 fine-tuning이 필요한가

대부분의 LLM 응용은 fine-tuning 없이 프롬프트 엔지니어링과 RAG로 해결됩니다. 다음 조건이 충족될 때 fine-tuning을 검토합니다.

첫째, 프롬프트만으로는 일관된 응답 스타일이 안 나올 때. 둘째, 토큰 길이가 부족해 매번 시스템 프롬프트를 길게 보내야 할 때. 셋째, 특정 도메인 용어를 자주 사용하는데 일반 모델이 자꾸 틀릴 때.

반대로 외부 지식이 자주 업데이트되는 작업(뉴스 요약, 가격 조회)에는 fine-tuning이 부적합합니다. 학습 시점 이후 정보가 반영되지 않기 때문입니다. 이 경우 RAG가 더 적합합니다.

비용과 시간

Fine-tuning은 비용이 큽니다. OpenAI fine-tuning은 학습 토큰 수에 따라 과금되며, 보통 수백 달러에서 수천 달러까지 듭니다. 또한 학습된 모델의 호출 단가도 기본 모델보다 높습니다. 데이터 준비, 학습, 평가, 운영까지 합치면 1~2주 작업이 소요되는 것이 일반적입니다.

오픈웨이트 모델(Llama, Mistral)은 LoRA 같은 효율적 fine-tuning 방식으로 더 낮은 비용에 학습 가능합니다. 다만 GPU 인프라와 ML 운영 경험이 필요해 진입 장벽이 높습니다.

대안 — Prompt Engineering과 RAG

대부분의 경우 프롬프트 엔지니어링과 RAG 조합으로 충분합니다. 프롬프트에 응답 스타일을 명시하고, RAG로 도메인 문서를 참조하게 하면 fine-tuning 없이도 비슷한 결과를 얻을 수 있습니다. 시간과 비용 모두 훨씬 작습니다. Fine-tuning은 이 두 방법으로도 한계가 명확할 때 마지막 카드로 검토하는 것이 일반적입니다.

AD