AI가 거짓말을 한다? — 할루시네이션이 뭔지 알아보자
AI가 자신 있게 틀린 답을 한다 ChatGPT나 Claude를 쓰다 보면 가끔 이상한 경험을 합니다. AI가 매우 자신 있는 말투로 완전히 틀린 정보를 말하는 겁니다. 존재하지 않는 논문을 인용하거나, 없는 기능을 있다고 하거나, 역사적 사실을 잘못 말하기도 합니다. 이걸 **할루시네이션(Hallucination)**이라고 합니다. 왜 이런 일이 생기나 AI는 사실을 “알고 있는” 게 아닙니다. 학습한 텍스트에서 다음에 올 확률이 높은 단어를 예측하는 방식으로 작동합니다. 비유하면, AI는 백과사전을 외운 게 아니라 수많은 글을 읽고 문장을 만드는 패턴을 익힌 것입니다. 그래서 그럴듯한 문장은 잘 만들지만, 내용이 사실인지는 보장하지 못합니다. ...