AI 답변이 틀릴 때 내가 쓰는 검증 루틴 5단계 (실패 후 만든 체크)

 


AI를 쓰다 보면 “그럴듯한데 틀린 답”이 제일 곤란하다.

나도 처음엔 한 번에 정답이 나오길 기대했는데, 실제로는 확인 없이 믿었다가 시간을 더 쓰는 경우가 잦았다.

특히 작업이나 글 정리처럼 “한 번 틀리면 전체가 흔들리는 일”에서는, 답변을 받는 것보다 검증 루틴이 더 중요하다고 느꼈다.
그래서 시행착오 끝에, 지금은 아래 5단계로 고정해서 확인한다.

1단계: 질문을 “상황 + 목표 + 조건”으로 다시 적는다

AI가 틀리는 경우를 보면, 질문 자체가 너무 넓거나 애매한 경우가 많았다.
“이거 어떻게 해?” 같은 질문은 답이 넓어지고, 그만큼 오류도 늘어난다.

나는 질문을 다시 쓸 때, 무조건 3가지를 넣는다.
(1) 지금 상황, (2) 내가 원하는 결과, (3) 제약 조건(시간/도구/범위)이다.

예를 들어 “블로그 승인 안 돼. 뭐 해야 돼?” 대신,
“Blogger + 커스텀 도메인, 애드센스 재제출 준비 중. 메뉴/정책 페이지는 정리했고 글은 8개. 승인 확률 높이는 체크리스트와 우선순위가 필요”처럼 적는 식이다.

2단계: 답변을 받자마자 ‘근거/전제’를 강제로 꺼내게 한다

내가 가장 많이 했던 실수는, 답변이 자연스러우면 바로 실행해버리는 거였다.
그런데 AI는 ‘전제’를 깔고 말할 때가 많아서, 전제가 틀리면 전체가 틀어진다.

그래서 답변을 받으면 바로 이렇게 묻는다.
“이 조언이 성립하려면 어떤 전제가 필요해?”
“확실하지 않은 부분은 무엇이고, 확인 방법은 뭐야?”

이렇게 하면 “추정”과 “확정”이 분리되면서, 내가 어디를 확인해야 하는지가 선명해진다.

3단계: 반례를 먼저 찾는다 (내 상황에서 깨지는 구간)

나는 검증을 ‘정답 확인’으로만 생각했는데, 실제로는 반례가 훨씬 빠르다.
즉, 내 상황에서 바로 깨지는 조건이 있는지를 먼저 본다.

예를 들어 “A 설정을 켜세요” 같은 조언이 나오면,
“내 화면에 그 메뉴가 없다면?”
“내 테마에서는 해당 옵션이 다르게 표시된다면?”
같은 반례를 먼저 던져본다.

이 단계에서 답변이 흔들리면, 그 조언은 바로 실행하지 않는다.
대신 내 환경에서 가능한 대안만 뽑아낸다.

4단계: 실행을 ‘작게’ 쪼개서 1개만 테스트한다

예전엔 조언을 한꺼번에 적용했다가, 뭐가 원인이었는지 모르는 경우가 많았다.
그래서 지금은 테스트를 1개만 한다.

예를 들면 “메뉴/푸터/레이아웃”을 동시에 만지는 게 아니라,
오늘은 푸터만, 내일은 메뉴만 이런 식이다.

테스트는 작을수록 결과가 명확하고, 되돌리기도 쉽다.
그리고 “내가 바꾼 게 뭐였는지” 기억이 남는다.

5단계: 결과를 기록하고, 다음번에 재사용 가능한 문장으로 남긴다

검증 루틴의 최종 목적은 “이번 해결”이 아니라 “다음번 시간을 줄이는 것”이었다.
그래서 마지막에는 꼭 기록을 남긴다.

나는 기록을 길게 남기진 않는다.
“문제 → 원인 후보 → 내가 한 조치 → 결과” 네 줄이면 충분하다.

이런 로그가 쌓이면, AI에게 질문할 때도 로그를 그대로 붙여 넣을 수 있다.
그때부터 답변 품질이 눈에 띄게 좋아진다.

내가 실제로 겪었던 실패 1개 (검증 없이 믿었을 때)

처음엔 “보이는 오류”만 고치면 될 줄 알았다.
그런데 한 번은 화면에서 안 보이는 문구가 HTML에는 남아 있어서, 상황이 뒤늦게 꼬인 적이 있었다.

그때부터 나는 “내가 보는 화면”과 “검색/크롤러가 보는 화면”이 다를 수 있다는 걸 전제로 움직인다.
그래서 지금은 시크릿 모드 확인, URL 검사, 내부링크 점검 같은 최소 체크를 습관처럼 한다.

마무리: AI를 ‘정답 기계’가 아니라 ‘초안 엔진’으로 쓴다

AI는 초안/아이디어/구조화에는 정말 유용하다.
다만 확정은 결국 내가 해야 한다.

그래서 나는 AI를 쓰는 목표를 “정답 얻기”가 아니라 “검증 가능한 초안 얻기”로 바꿨다.
이 기준이 생기고 나서 시행착오가 확 줄었다.

관련 글


댓글 쓰기

다음 이전