이전글 LangChain #2 - 개발 환경 세팅 + LLM + 문서 기반 답변에서는 텍스트 문서를 프롬프트에 통째로 넣고 LLM에게 질문과 함께 전달해 응답을 생성했다.짧은 문서라면 충분히 잘 작동하지만, 문서가 길거나 여러 개일 경우에는 토큰 한도, 성능, 관리 면에서 명확한 한계가 존재한다. 이번 글에서는 그 구조를 더 유연하게 확장한 RAG(Retrieval-Augmented Generation) 개념을 소개하고, LangChain으로 이를 직접 구현해 보려고 한다.직접 삽입 방식의 한계[문서 내용] + [질문] → [LLM 프롬프트] → [응답] 직접 삽입 방식의 경우 문서를 직접 프롬프트에 넣기 때문에 구현이 매우 간단하다.하지만 이 방식은 문서가 길어지거나 여러 개일 경우, LLM의 입력 한..