RAG란?
RAG는 Retrieval-Augmented Generation의 약자입니다. 한국어로는 “검색 증강 생성” 정도로 번역됩니다.
쉽게 말하면, AI가 답변하기 전에 먼저 관련 자료를 검색해서 참고하는 방식입니다.
왜 필요한가
기본 AI(LLM)의 문제점이 있습니다:
- 학습 시점 이후의 정보를 모름 — “어제 발표된 신제품"을 물어보면 모름
- 할루시네이션 — 모르는 것도 그럴듯하게 지어냄
- 특정 도메인 지식 부족 — 우리 회사 내부 문서에 대해 모름
RAG는 이 문제들을 해결합니다.
비유로 이해하기
일반 AI = 오픈북 없는 시험
학생(AI)이 외운 것만으로 답을 씀. 기억이 안 나면 추측하거나 지어냄.
RAG = 오픈북 시험
학생(AI)이 답을 쓰기 전에 교과서(데이터베이스)를 찾아보고 참고해서 답을 씀. 훨씬 정확함.
RAG의 동작 방식
- 사용자 질문 → “최신 RTX 5090의 VRAM은?”
- 검색 → 관련 문서/데이터베이스에서 정보를 찾음
- 결합 → 찾은 정보 + 질문을 AI에게 전달
- 생성 → AI가 검색 결과를 바탕으로 답변 생성
핵심은 2번 단계입니다. AI가 답변하기 전에 실제 데이터를 참고한다는 점이 기존 AI와 다릅니다.
어디에 쓰이나
기업 내부 챗봇
회사 내부 문서, 매뉴얼을 RAG로 연결하면 “이 제품의 반품 규정이 뭐야?” 같은 질문에 정확하게 답할 수 있습니다.
고객 지원
FAQ, 가이드 문서를 기반으로 고객 질문에 자동 응답. 할루시네이션 없이 실제 문서에 근거한 답변을 줍니다.
법률/의료
판례나 의학 논문을 검색해서 근거 기반 답변을 제공합니다.
개인 지식 관리
내가 적어둔 노트, 북마크를 RAG로 연결하면 “내가 전에 정리해둔 도커 관련 내용 뭐였지?“하고 물어볼 수 있습니다.
직접 만들어볼 수도 있다
RAG 시스템을 직접 구축하는 것도 가능합니다. 기본 흐름은:
- 문서를 작은 조각(chunk)으로 나눔
- 각 조각을 벡터(숫자 배열)로 변환
- 벡터 데이터베이스에 저장
- 질문이 들어오면 비슷한 벡터를 검색
- 검색된 문서 조각을 AI에게 전달
LangChain이나 LlamaIndex 같은 프레임워크를 쓰면 비교적 쉽게 만들 수 있습니다.
한계점
- 검색 품질에 의존 — 검색이 잘못되면 답변도 잘못됨
- 문서 전처리 필요 — 문서를 잘 쪼개고 정리해야 성능이 좋음
- 속도 — 검색 단계가 추가되니까 일반 AI보다 응답이 느릴 수 있음
- 최신성 관리 — 문서가 업데이트되면 벡터 DB도 업데이트해야 함
마치며
RAG는 AI의 가장 큰 약점(할루시네이션, 최신 정보 부족)을 보완하는 핵심 기술입니다. 앞으로 AI 서비스 대부분에 RAG가 적용될 거라고 봅니다.
“AI + 검색 = 더 정확한 AI"라고 기억하시면 됩니다.