Home / AI / AI 용어사전 / 서버리스(Serverless) — 서버 없이 AI 앱을 배포하는 구조
TERM
서버리스(Serverless) — 서버 없이 AI 앱을 배포하는 구조
On this page
서버를 직접 사지 않아도 AI 앱을 전 세계에 배포할 수 있다. 서버리스는 그 가능성을 현실로 만드는 클라우드 아키텍처다. 코드 실행 단위로만 비용을 내고, 트래픽이 없으면 비용도 없다.
정의
서버리스(Serverless)는 개발자가 서버 인프라를 직접 설정·관리하지 않고, 함수(Function) 단위로 코드를 실행하는 클라우드 컴퓨팅 모델이다. AWS Lambda, Vercel Functions, Cloudflare Workers가 대표적인 구현체다.
"서버가 없다"는 이름은 오해를 불러일으킨다. 서버는 엄연히 존재하지만, 그 관리를 클라우드 공급자에게 위임한다는 의미다. 개발자는 코드 로직에만 집중하면 된다.
서버리스의 핵심 특성:
- 이벤트 드리븐: 요청이 들어올 때만 실행
- 종량제 과금: 실행 시간과 횟수 기반 (유휴 시간 무료)
- 자동 스케일링: 트래픽 급증에 자동 대응
- 무상태(Stateless): 함수 실행 간 상태 미유지
서버리스가 AI 앱에 적합한 이유
AI API 호출은 본질적으로 함수형 패턴과 잘 맞는다. 입력을 받아 처리한 후 결과를 반환하는 단순한 구조다. llm 호출이나 embedding 생성도 이 패턴 그대로다.
AI 앱의 트래픽은 불규칙하다. 심야에는 요청이 거의 없다가 특정 시간대에 폭증할 수 있다. 전통적 서버 방식에서는 피크 트래픽 기준으로 항상 서버를 켜두어야 하지만, 서버리스에서는 요청이 없으면 비용이 0에 가깝다.
Next.js 기반 AI 앱에서 API 키를 클라이언트에 노출하지 않으려면 서버사이드 처리가 필요한데, Vercel Functions(api-route)가 이 역할을 대신한다.
Vercel vs Lambda vs Cloudflare Workers 비교
서버리스 플랫폼마다 특성이 다르다. AI 앱 개발 시 선택 기준을 정리한다.
| 플랫폼 | 실행 환경 | 콜드 스타트 | 무료 한도 | 강점 | |---|---|---|---|---| | Vercel Functions | Node.js, Edge Runtime | 중간 (100~300ms) | 월 100GB·100시간 | Next.js 통합 완벽 | | AWS Lambda | Node/Python/Go/Java 등 | 느림 (VPC 연결 시) | 월 100만 요청 + 400만 GB-초 | 가장 범용적, AWS 생태계 | | Cloudflare Workers | V8 Isolate | 거의 0ms | 일 10만 요청 | 초저지연, 전 세계 엣지 동시 실행 |
Cloudflare Workers는 Node.js 런타임이 아닌 V8 Isolate 기반이라 콜드 스타트가 사실상 없다. AI 스트리밍 응답 처리에 유리하다. 단, fs, net 등 Node.js 전용 패키지는 사용 불가다.
Vercel Functions는 Next.js와의 통합이 가장 자연스럽다. api-route를 파일 기반으로 만들면 자동으로 Vercel Functions로 배포된다.
실전 주의 사항
콜드 스타트: 일정 시간 미사용 후 첫 요청 시 컨테이너 초기화로 수백ms~수초가 소요된다. AI 모델 초기화나 DB 연결을 매 호출마다 새로 생성하면 지연이 심각해진다. 연결 풀링은 함수 외부에 캐싱해야 한다.
실행 시간 상한: Vercel Hobby 10초, Pro 300초, Cloudflare Workers CPU 시간 50ms(유료 30초). 장시간 실행이 필요한 AI 배치 작업에는 적합하지 않다. 이런 경우엔 큐(queue)를 경유하거나 별도 컨테이너 환경을 고려한다.
상태 비저장: 함수 실행 간 메모리가 공유되지 않는다. 사용자 세션·대화 이력은 외부 DB(database)나 redis에 저장해야 한다.
활용 사례
- AI 챗봇 API 엔드포인트: 요청마다 llm 호출 후 스트리밍 응답 반환
- AI 이미지 생성 요청 수신: Cloudflare Workers가 요청 수신 → 스토리지에 큐 전달
- 웹훅 수신 처리: Telegram 봇, Slack 봇 등 이벤트 기반 자동화
- AI API 프록시: 클라이언트 API 키 보호를 위한 서버사이드 중계
관련 용어
- edge-computing — 사용자 근처 엣지 노드에서 코드 실행
- api-route — Next.js 파일 기반 서버리스 함수
- cold-start — 서버리스 첫 요청 지연 현상
- llm — 서버리스로 호출되는 AI 추론 모델
- redis — 서버리스 함수 간 상태 공유를 위한 외부 캐시 서버