Created by AI 생성형 AI를 업무에 붙여본 사람이라면 한 번쯤 이런 경험이 있습니다. 답변은 그럴듯한데, 정작 존재하지 않는 정보를 자신 있게 말하는 현상—바로 ‘환각(hallucination)’입니다. 문제는 이것이 단순한 실수가 아니라, 모델이 내부 확률에 기반해 문장을 “그럴듯하게” 만들어내는 구조적 한계에서 비롯된다는 점입니다. 그렇다면 이 환각을 어떻게 현실적으로 줄일 수 있을까요? 지금 RAG가 주목받는 이유가 여기 있습니다. RAG가 […]
