"확신에 찬 거짓말" 피하기
헛소리 감지하는 3가지 체크
🎯 이 레슨으로 얻는 것
AI가 태연하게 지어내는 거짓말(할루시네이션)을 감지하는 3가지 체크와, 애초에 덜 나오게 하는 프롬프팅 기술을 익힙니다.
🤥 할루시네이션이 뭐야?
AI가 사실이 아닌 내용을 자신감 있게 답하는 현상. 특히 위험한 이유는:
- 말투가 전문가 같아서 믿게 됨
- 출처·숫자·이름을 그럴듯하게 지어냄
- AI 자신도 지어낸 줄 모름
🔍 실제 사례 (2026년에도 종종 발생)
사례 1: 가짜 논문 인용
"2023년 서울대 김영훈 교수 연구에 따르면..." → 그런 교수도, 그런 연구도 없음
사례 2: 존재하지 않는 책 추천
"『디지털 한국어 문법론』(이정훈, 2019)을 참고하세요" → 책도 저자도 없음
사례 3: API 함수 자동 생성
response.getSanitizedJson()이라는 메서드를 쓰면 돼요 → 그런 메서드 없음. 개발자가 많이 당함
🛡️ 3단계 체크 (이것만 기억하세요)
체크 1: 구체적 숫자·이름·날짜는 의심
"약 70%", "김철수 교수", "2021년 3월" 이런 구체성이 나오면 무조건 의심하세요. AI가 가장 잘 지어내는 영역이에요.
체크 2: "네가 지금 확신하는 정도는?"
답 끝에 아래 한 줄만 붙여보세요:
방금 답변에서 네가 확신하는 부분과,
추측·불확실한 부분을 나눠서 표시해줘.
놀랍게도 AI가 스스로 불확실한 부분을 골라냅니다. 완벽하진 않지만 효과 크죠.
체크 3: 교차 검증 (사람이 할 일)
- 인용된 논문 → 구글 스칼라로 1개만이라도 검색
- 인용된 책 → 교보문고·알라딘 검색
- 인용된 법 조항 → 국가법령정보센터 확인
10초면 됩니다. 이 10초를 아끼면 신뢰 무너집니다.
🧰 애초에 덜 나오게 하는 프롬프팅
기법 1: 모르면 모른다고 말해
질문에 확실히 답할 수 있는 부분만 답하고,
모르는 부분은 "확인 필요" 라고 명시해줘.
기법 2: 출처 강제
각 주장마다 출처 1개씩 붙여줘.
출처를 만들어내지 말고, 확신 없으면 "출처 불명"이라고 적어줘.
기법 3: 단계적 사고 (Chain of Thought)
결론을 바로 말하지 말고,
1) 내가 아는 사실, 2) 추론 과정, 3) 결론 순서로 답해줘.
이유: AI가 생각 과정을 드러내면 할루시네이션 빈도가 30~50% 떨어진다는 연구가 있어요.
기법 4: RAG · 검색 연동 쓰기
- Perplexity는 검색 결과에 기반해 답하고 출처 링크를 줍니다
- ChatGPT·Claude도 최근엔 "Search" 버튼으로 실시간 검색 가능
- 중요한 리서치엔 반드시 이 기능 사용
🧪 실전 — 검증 프롬프트 세트
아래 프롬프트를 답변 뒤에 이어서 던지세요:
방금 답변을 검토해서 아래 형식으로 정리해줘:
## 확실한 부분 (훈련 데이터 내 사실)
- …
## 추론에 의존한 부분
- …
## 확인이 필요한 부분 (사용자가 별도 검증 권장)
- …
⚠️ 위험도가 특히 높은 영역
| 영역 | 왜 위험 | |------|--------| | 법률·세무 | 조항 번호·판례를 지어냄 | | 의학 | 약 용량·진단명을 추측 | | 금융·투자 | 과거 수익률·규제를 섞음 | | 역사·인물 | 날짜·사건을 섞어버림 | | 최신 뉴스 | 훈련 시점 이후는 아예 모름 |
이 영역은 반드시 1차 사람 검증 + 전문가 확인.
💡 핵심 태도
AI는 "초안"까지만, "최종"은 사람이.
할루시네이션은 없앨 수 없어요. 하지만 검증 파이프라인을 만들면 실무에선 충분히 쓸 만합니다.
🔗 다음에 뭘 볼까
- 다음 단계: 실전 — 한국어 문장 다듬기
- 연결 레시피: 프롬프트 설계도