Home / AI / AI 용어사전 / 머신러닝 — AI가 데이터로 스스로 배우는 원리
TERM
머신러닝 — AI가 데이터로 스스로 배우는 원리
On this page
사람이 "이 사진이 고양이면 1, 개면 0"이라는 규칙을 일일이 프로그래밍하지 않아도, AI는 수천 장의 사진 데이터를 보고 스스로 그 구분 기준을 찾아낸다. 이것이 머신러닝의 핵심 원리다. ChatGPT도, 이미지 생성 AI도, 자율주행 시스템도 모두 이 원리 위에 올라가 있다.
정의
머신러닝(Machine Learning, ML)은 명시적인 규칙을 프로그래밍하지 않고, dataset|데이터셋으로부터 패턴을 자동으로 학습해 예측이나 결정을 수행하는 AI 기법이다. 1959년 Arthur Samuel이 처음 정의한 개념으로, 현재 이미지 인식, 자연어 처리, 추천 시스템, 자율주행 등 AI 응용 분야 전반의 기반 기술이다.
머신러닝의 세 가지 유형
지도학습 (Supervised Learning)
입력(Feature)과 정답(Label)이 쌍으로 이루어진 데이터셋으로 학습한다. 모델은 입력에서 정답을 예측하는 함수를 찾는다.
- 분류(Classification): 이메일 스팸 여부, 이미지 내 객체 종류 예측
- 회귀(Regression): 주택 가격, 주가 예측
- 대표 알고리즘: 선형 회귀, 랜덤 포레스트, deep-learning|딥러닝
비지도학습 (Unsupervised Learning)
정답 레이블 없이 데이터의 내재적 구조를 찾는다.
- 클러스터링(Clustering): 비슷한 고객을 그룹화 (K-Means, DBSCAN)
- 차원 축소(Dimensionality Reduction): 고차원 데이터를 2~3차원으로 압축 (PCA, t-SNE)
- embedding|임베딩(Embedding): 단어나 문서를 의미 벡터 공간에 매핑
강화학습 (Reinforcement Learning)
에이전트가 환경과 상호작용하며 보상을 최대화하는 정책(Policy)을 학습한다.
- 알파고(AlphaGo), ChatGPT의 rlhf|RLHF, 자율주행 에이전트 등에 활용
- 게임, 로봇 제어, 트레이딩 전략 최적화에 강점
학습 과정의 핵심 개념
손실 함수(Loss Function): 모델의 예측값과 실제 정답 간의 오차를 수치화한다. 분류에는 Cross-Entropy Loss, 회귀에는 MSE(Mean Squared Error)가 대표적으로 사용된다. 학습의 목표는 이 손실 값을 최소화하는 것이다.
경사하강법(Gradient Descent): 손실을 최소화하기 위해 파라미터를 반복적으로 조정하는 최적화 알고리즘이다. 손실 함수의 기울기(Gradient)를 계산하고, 그 반대 방향으로 파라미터를 조금씩 이동한다. Adam, SGD 등 다양한 변형 알고리즘이 실무에서 사용된다.
역전파(Backpropagation): deep-learning|딥러닝 네트워크에서 경사하강법을 적용하기 위해 각 레이어의 기울기를 출력에서 입력 방향으로 전파하는 알고리즘이다. 1986년 Rumelhart, Hinton, Williams가 제안했으며 현대 딥러닝의 핵심 알고리즘이다.
과적합(Overfitting)과 일반화: 모델이 학습 데이터에 너무 맞추어, 새로운 데이터에서 성능이 낮아지는 현상을 과적합이라 한다. 드롭아웃(Dropout), 정규화(Regularization), 데이터 증강(Data Augmentation)이 과적합을 방지하는 대표적인 기법이다.
머신러닝과 딥러닝의 관계
딥러닝(Deep Learning)은 머신러닝의 하위 분야로, 다층 신경망(Multi-layer Neural Network)을 사용한다. 전통적인 머신러닝은 도메인 전문가가 Feature를 직접 설계해야 하지만, 딥러닝은 원시 데이터(픽셀, 문자)에서 Feature를 자동으로 추출한다.
머신러닝
├── 전통적 ML (SVM, 랜덤 포레스트, 회귀 등)
└── 딥러닝
├── CNN (이미지 처리)
├── RNN / LSTM (시퀀스 처리)
└── Transformer → LLM, 이미지 생성 AI최신 AI(llm, 이미지 생성 AI)는 대부분 딥러닝 기반이며, 더 나아가 Transformer 아키텍처를 기반으로 한다.
활용 사례
- 의료: 흉부 X-ray에서 폐렴·결핵을 자동으로 감지하는 이미지 분류 모델
- 금융: 신용카드 이상 거래를 실시간으로 탐지하는 이상 감지 모델
- 추천: 사용자 시청 이력에서 다음에 볼 콘텐츠를 예측하는 협업 필터링
- 자연어 처리: 번역, 요약, 감성 분석, 질의응답 등 텍스트 처리 전반
관련 용어
- dataset — 머신러닝의 원재료가 되는 학습 데이터 묶음
- deep-learning — 다층 신경망을 사용하는 머신러닝의 하위 분야
- llm — 대규모 텍스트 데이터로 학습된 머신러닝 모델
- overfitting — 학습 데이터에 과도하게 맞추어 새 데이터에서 성능이 낮아지는 현상
- inference — 학습이 끝난 모델이 새 입력에 대해 예측을 수행하는 단계